دیده بان پیشرفت علم، فناوری و نوآوری
19 آبان 1399 - 12:16
آنا گزارش می‌دهد؛

آیا می‌توان فیلم‌های جعل عمیق را تشخیص داد؟/ وقتی فناوری‌های هوشمند به مصاف هم می‌روند

محققان در کشورهای مختلف تلاش می‌کنند تا با استفاده از فناوری‌های هوشمند ویدئوهای جعلی را شناسایی و آن‌ها را به کاربران معرفی کنند.
کد خبر : 529202
هوش 1.jpg

به گزارش خبرنگار حوزه علم، فناوری و دانش‌بنيان گروه فناوری خبرگزاری آنا، یکی از تبعات فناوری که هنوز به طور کامل وجه ترسناک خود را نشان نداده است،‌ فناوری جعل عمیق نام دارد. در فناوری «جعل عمیق» (deep fake) فیلم‌هایی جعلی از افراد ساخته می‌شود که امکان سوءاستفاده را برای تبهکاران به وجود می‌آورد.




بیشتر بخوانید:


انحراف علم به دست سودجویان/ هوش مصنوعی چگونه موجب حملات سایبری می‌شود؟




به طور قطع نمی‌توان جلوی پیشرفت فناوری را گرفت. اما آیا در تماشای یک ویدئوی جعل عمیق(deep fake)، می‌توان نسبت به ساختگی بودن محتوای ویدئو آگاه شد؟ همزمان با پیشرفت فناوری‌های تشخیصی، کیفیت فناوری جعل عمیق نیز افزایش می‌یابد. اما روش‌هایی وجود دارد که می‌توانید به صورت خودکار و با کمک هوش مصنوعی، جعل عمیق را شناسایی کنید. در این گزارش مروری بر روش‌های ساده و همچنین تلاش‌های به‌کارگیری فناوری ضد خودش خواهیم داشت.



روش‌هایی برای شناسایی فیلم‌های جعل عمیق


به طور کلی راه حل ابتدایی این است که بتوان خود افراد را نسبت به تشخیص ساختگی بودن ویدئوها آگاه ساخت. محققان در حال بررسی بیومتریک نرم(soft biometrics)، از جمله نحوه صحبت فرد و ویژگی‌های موجود در فیلم برای کمک به تشخیص جعل عمیق هستند. بدین ترتیب شما می‌توانید به‌تنهایی این ویژگی‌ها را تشخیص دهید و زمانی که ویدئوی جعل عمیق را روبه‌رویتان گذاشتند، ‌صحت آن را زیر سوال ببرید. در اینجا به برخی از مهمترین باگ‌های ویدئوهای جعل عمیق اشاره خواهیم کرد که بدون نیاز به ابزارهای فناوری قابل تشخیص است:


حرکت غیرطبیعی چشم: از طریق حرکات غیرطبیعی چشمان انسان یا کم بودن حرکات چشم، مانند عدم پلک زدن یا تعداد پلک‌های غیرطبیعی(هر انسان به طور طبیعی باید بین 15 الی 20 بار در دقیقه پلک بزند) می‌توان پی برد که کاسه‌ای زیر نیم کاسه است. بررسی محتواهایی که تاکنون ساخته شده است نشان می‌دهد برای سازندگان ویدئوهای جعل عمیق، شبیه‌سازی عمل پلک زدن به روشی طبیعی کار سختی بوده است. همچنین حرکت دادن چشم و نگاه به جاهای مختلف با توجه به اصول پرسپکتیو کار دشواری است.


 فقدان احساسات: اگر به نظر نمی‌رسد چهره شخص در حین بیان صحبت‌های مختلف اعم از لحن عصبانی، غمگین، شاد و... تغییر می‌کند و به طور کل فرد احساسی را از خود بروز نمی‌دهد آنگاه باید نسبت به اصالت ویدئو شک کرد.



ناهماهنگی سر و بدن: نشانه دیگر این است که اگر فرم بدن فردِ درونِ ویدئو، با حالت چهره‌اش هماهنگی نداشته باشد، می‌توان نسبت به اصل ویدئو تردید کرد. این ناسازگاری و ناهماهنگی می‌تواند یکی از راه‌های آسان تشخیص ویدئویی ساختگی باشد زیرا فناوری‌های جعل عمیق معمولاً بیش از کل بدن بر روی ویژگی‌های صورت متمرکز هستند(تاکنون که این طور بوده است). بنابراین وقتی دیدید کسی هنگام چرخش به پهلو یا حرکت دادن سر خود، میان حرکت سر و پیکرش توازن برقرار نیست، آنگاه باید به جعلی بودن ویدئو شک کنید.


رنگ و نور: رنگ پوست غیرطبیعی و متفاوت با پوست تن و بدن، سایه‌های نامناسب و نامتقارن همه از نشانه‌های جعلی بودن ویدئو است.


موی سر: معمولاً موی افراد در ویدئوهای جعل عمیق کاملاً فریز شده است. بنابراین اگر در ویدئو مشاهده می‌کنید که موی سر بقیه افراد حاضر در ویدئو در برابر باد تکان می‌خورد به جز یک نفر، نسبت به جعلی بودن ویدئو تردید کنید.  


تاری یا عدم تطابق: اگر لبه‌های تصاویر تار و مبهم است برای مثال، جایی که صورت و گردن به هم وصل می‌شوند یک حالت سایه‌دار غیرعادی وجود دارد باید فرض را بر این گذاشت که کارهایی روی ویدئو صورت گرفته است.



نویز یا صدای متناقض: سازندگان جعل عمیق معمولاً زمان بیشتری را صرف تصاویر ویدئویی می‌کنند تا صدا. در نتیجه به طور معمول همگام‌سازی حرکت لب و صدا دقیق نیست و تلفظ عجیب واژه‌ها محسوس است. همچنین به دلیل عدم تسلط سازندگان ویدئوهای جعل عمیق بر تکنیک‌های صوتی،‌ به طور معمول سروصدای پس زمینه مصنوعی است یا حتی به طور کل صدایی وجود ندارد.


اختلاف هشتگ: یک نوع الگوریتم رمزنگاری ساده وجود دارد که به سازندگان ویدئو کمک می‌کند تا نشان دهند که فیلم‌های آن‌ها معتبر است یا خیر. معمولاً از الگوریتم درج هشتگ در مکان‌های خاص در سرتاسر ویدئو استفاده می‌شود. اگر هشتگ‌ها تغییر کند، پس باید شک داشته باشید که ویدئو دستکاری شده است.


اثر انگشت دیجیتال: یک راه حل صحت فیلم‌های ویدئویی درج نوعی مارک پاک‌نشدنی یا کد تغییرناپذیر است که اگر آن تغییر کند، به طور قطع نشان می‌دهد یک ویدئو دستکاری شده است. فناوری بلاکچین می‌تواند این کار را انجام دهد. فناوری بلاکچین همچنین می‌تواند اثر انگشت دیجیتالی برای فیلم‌ها ایجاد کند. این تأیید مبتنی بر بلاکچین اگرچه بی‌عیب و نقص نیست، اما می‌تواند به صحت یک ویدئو کمک کند. اگر همین فناوری در ویدئو اعمال شود چه؟ نحوه کار در اینجا به این صورت است که هنگام ایجاد ویدئو محتوا در نوعی دفتر همزمان ثبت می‌شود(جایی که محتوا قابل تغییر نباشد). آنگاه این فناوری می‌تواند به اثبات اصالت یک ویدئو کمک کند.



استفاده از فناوری برای ردیابی ویدئوهای جعل‌ عمیق


تشخیص ویدئوهای هوش مصنوعی تنها با چشم دشوار است و انتظار می‌رود در سال‌های آتی ویدئوهای جعل عمیق واقعی‌تری ساخته شود، بنابراین فناوری‌های در حال توسعه می‌تواند در این مسیر کمک کند. گروه‌های مختلفی در حال ارائه روش‌هایی برای افزایش شفافیت هوش مصنوعی و محافظت از مردم در برابر ویدئوهای جعل عمیق هستند. در ادامه تعدادی از شرکت‌ها و سازمان‌هایی را که برای مبارزه با ویدئوهای جعلی تلاش می‌کنند، معرفی خواهیم کرد:


توئیتر و فیس‌بوک: این دو شبکه‌ مجازی بزرگ استفاده از جعل عمیق مخرب را ممنوع کرده‌اند و در صورت گزارش افراد،‌ آن را از صفحات خود پاک می‌کنند.


 گوگل: شرکت گوگل با توجه به اینکه روز‌به‌روز ویدئوهای جعل عمیق دقیق‌تر می‌شوند برای تأیید صدای ویدئوها روی ابزاری برای تبدیل متن به گفتار ویژه کار می‌کند.


ادوب(Adobe): این شرکت سیستمی را برپا کرده است که به شما امکان می‌دهد نوعی امضای دیجیتالی را به محتوای خود اضافه کنید. Adobe  همچنین در حال توسعه ابزاری برای تعیین این است که آیا تصویر دستکاری شده یا خیر.



آزمایشگاه دانشگاه کالیفرنیای جنوبی: محققان این دانشگاه و چند دانشگاه دیگر در تلاش‌اند با استفاده از فناوری یادگیری ماشینی، روش‌های بیومتریک نرم مانند اختلاف بین اجزای صورت و نحوه ادای واژگان را بررسی کنند. ابزار تولیدی آن‌ها تاکنون با دقت 92 تا 96 درصد توانسته است جعل عمیق را تشخیص دهد.




بیشتر بخوانید:


جدال انسان و ماشین بر سر شغل/ وقتی هوش مصنوعی نیروی انسانی را آموزش می‌دهد




آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی آمریکا DARPA: وزارت دفاع آمریکا، بودجه‌ای تحقیقاتی را برای توسعه ابزار خودکار برای تشخیص ویدئوهای جعل عمیق اختصاص داده است تا  از طریق برنامه‌ای به نام MediFor یا Media Forensics ویدئوهای ساختگی از ویدئوهای معمول را تفکیک کند.


انتهای پیام/4144/پ


انتهای پیام/

ارسال نظر
هلدینگ شایسته