از کسب و کار خود در برابر عمیق محافظت کنید
Deepfakes تنها یک محصول تاسف آور از تحولات اخیر در زمینه هوش مصنوعی است. رسانه های جعلی تولید شده توسط الگوریتم های یادگیری ماشین ، در سالهای اخیر کشش زیادی را به دست آورده اند. صحبتهای آلیسا میلر در کنفرانس RSA با عنوان از دست دادن واقعیت ما ، بینش هایی در مورد این که چرا وقت آن است که تهدیدها را به عنوان یک تهدید – سال انتخابات کنار بگذاریم – ارائه می دهد و اینکه تجارت شما واقعاً در صورت حمله به چنین روشی ، چه کاری می تواند انجام دهد. 19659002] چگونگی ایجاد عمیق
متداول ترین رویکرد برای ایجاد عمیق تر استفاده از سیستمی به نام GAN یا شبکه تولیدکننده مخالف است. شبکه های عصبی متشکل از دو شبکه عصبی عمیق در برابر یکدیگر با همدیگر رقابت می کنند. برای تهیه هر دو شبکه ، تصاویر واقعی آموزش داده می شود. سپس قسمت مخالف شروع می شود ، با ایجاد یک شبکه تصاویر (از این رو نام مولد ) و دیگری تلاش می کند تا تصویر واقعی یا جعلی باشد (شبکه دوم به عنوان تبعیض آمیز
پس از آن ، شبکه مولد می آموزد و از نتیجه می آموزد. در عین حال ، شبکه تبعیض آمیز می آموزد که چگونه عملکرد خود را بهبود ببخشد. با هر چرخه ، هر دو شبکه بهتر می شوند.
یک میلیون چرخه آموزش سریع پیش بروید: شبکه عصبی تولیدی آموخته است که چگونه تصاویر جعلی تولید کند که یک شبکه عصبی به همان اندازه پیشرفته نمی تواند از شبکه های واقعی متمایز شود.
این روش در واقع در بسیاری از برنامه ها مفید است. بسته به داده های مقدماتی ، شبکه مولد می آموزد که انواع خاصی از تصاویر را تولید کند.
البته ، برای ایجاد عمیق ، این الگوریتم روی عکس های واقعی افراد خاص آموزش داده می شود ، در نتیجه شبکه ای تولید می شود که می تواند تعداد نامتناهی قانع کننده ای را ایجاد کند ( اما جعلی) عکس هایی از شخص آماده برای ادغام در یک فیلم. روشهای مشابه می تواند صدای جعلی ایجاد کند ، و کلاهبرداران احتمالاً از صوت عمیق استفاده می کنند.
چقدر باعث ایجاد اعتقاد عمیق شد.
فیلم های عمیق اولیه به نظر مضحک به نظر می رسیدند ، اما این فناوری به اندازه کافی در این مرحله تکامل یافته است که چنین رسانه هایی به طرز وحشتناکی متقاعد کننده شوند. یكی از بارزترین نمونه های عمیق ترسناک ترك عمیق سال 2018 ، دروغ گفتن دروغ باراك اوباما در مورد عمیق بودن (به علاوه توهین گاه به گاه به رئیس جمهور فعلی آمریكا) بود. در اواسط سال 2019 ، ما ویدئوی کوتاهی از مارک زاکربرگ جعلی با احتیاط صادقانه درباره وضعیت فعلی حریم خصوصی دیدیم. امپرسیونیست جیم مسکیمن آن را با همکاری هنرمند عمیق Sham00k خلق کرد. اولی مسئول صداها بود و دومی چهره های حدود 20 مشهور را با استفاده از نرم افزار deepfake به این ویدئو اعمال می کرد. نتیجه واقعاً جذاب است.
همانطور که Sham00k در توضیحات فیلم پشت صحنه خود می گوید ، "فیلم کامل فقط بیش از 250 ساعت کار انجام داد ، 1200 ساعت فیلمبرداری ، 300000 تصویر و نزدیک به 1 ترابایت داده برای ایجاد. " گفت: ساختن چنین ویدئویی خالی از لطف نیست. اما چنین اطلاعاتی قانع کننده می تواند اثرات گسترده ای بر بازارها بگذارد – یا مثلاً انتخابات – که باعث می شود این روند به طرز وحشتناکی آسان و ارزان به نظر برسد.
به همین دلیل ، تقریباً در همان زمان انتشار ویدئوی فوق ، کالیفرنیا از قانون سیاسی نامشخص است. فیلم های عمیق در طول انتخابات. با این حال ، مشکلات باقی مانده است. برای مبتدیان ، فیلم های عمیق به طور کلی نوعی بیان هستند – مانند طنز سیاسی. ممنوعیت کالیفرنیا دقیقا از آزادی بیان محافظت نمی کند.
مشکل دوم هم از نظر فنی و هم عملی: دقیقاً چطور قرار است شما یک فیلم واقعی را از یک واقعیت واقعی بگویید؟
چگونه می توان عمیق را کشف کرد
یادگیری ماشین این همه عصبانیت در بین دانشمندان در سراسر جهان است ، و مسئله عمیق و جالب به اندازه کافی جالب و چالش برانگیز به نظر می رسد که بسیاری از آنها را وسوسه کند تا از این طریق پرش کنند. به همین دلیل چند پروژه تحقیقاتی بر نحوه استفاده از تجزیه و تحلیل تصویر برای تشخیص رخدادهای عمیق متمرکز شده اند. 19659004] به عنوان مثال ، مقاله ای که در ژوئن سال 2018 منتشر شد ، توضیح می دهد که چگونه تجزیه و تحلیل چشم ها می تواند در تشخیص فیلم های عمیق کمک کند. تصوری که وجود دارد که معمولاً تعداد كافی از تصاویر خاص در حال چشمك زدن در دسترس نیست ، بنابراین شبكه های عصبی ممكن است برای آموزش آن كافی نباشند. در حقیقت ، مردم هنگام انتشار مقاله به ندرت چشمک می زدند تا باور کنند ، و گرچه مردم تشخیص این اختلاف را سخت می دیدند ، تجزیه و تحلیل رایانه کمک می کرد.
دو مقاله ارائه شده در نوامبر 2018 پیشنهاد کرد که به دنبال چهره باشند. مصنوعات و موضع متناقض سر. روش دیگر ، از سال 2019 ، یک تکنیک پیچیده را توصیف کرد که بیانگر چهره ها و حرکات خاص برای الگوی صحبت کردن یک فرد است.
با این حال ، همانطور که میلر خاطرنشان می کند ، این روش ها در طولانی مدت بعید به موفقیت خواهند رسید. آنچه که چنین تحقیقاتی در واقع انجام می دهد ، ارائه بازخورد به سازندگان عمیق ، کمک به آنها در بهبود شبکه های عصبی تبعیض آمیز ، به نوبه خود منجر به آموزش بهتر شبکه های تولیدی و بهبود بیشتر ترفندها می شود.
استفاده از ارتباطات شرکتی برای کاهش تهدیدات عمیق
با توجه به موارد فوق. مسائل ، هیچ راه حل کاملاً تکنولوژیکی برای مسئله عمیق در این مرحله بسیار مؤثر نخواهد بود. اما گزینه های دیگر وجود دارد. به طور خاص ، شما می توانید تهدیدات را با ارتباطات مؤثر کاهش دهید. اگر با شیوع اطلاعاتی روبرو هستید باید اطلاعات مربوط به شرکت خود را تحت نظر داشته باشید و برای کنترل روایت آماده باشید.
پیشنهادات زیر به طور خلاصه پیشنهادات آلیسا میلر را برای تهیه شرکت شما برای مقابله با تهدیدهای عمیق – به هر حال ، ارائه می دهد. همین روش ها می تواند برای مقابله با انواع دیگر نادرست های روابط عمومی نیز مفید باشد:
- کانالها برای ارتباطات شرکت به حداقل برسد ؛
- توزیع اطلاعات مداوم را هدایت کنید ؛
- یک برنامه پاسخ گویی به اطلاعات را تهیه کنید. 19659023] سازماندهی عملکرد نظارت و گزارش متمرکز ؛
- تشویق قانونگذاری مسئول و تأیید حقایق بخش خصوصی ؛
- نظارت بر توسعه اقدامات متقابل تشخیص و پیشگیری.
.
Comments