{{weatherData.name}} {{weatherData.weather.main}} C {{weatherData.main.temp}}
کد خبر 383273

دیپ‌فیک ‌می‌تواند چهره‌های افراد مشهور را در فیلم‌های نامناسب به کار ببرد و کلماتی را در دهان سیاستمداران بگذارد که هرگز نگفته‌اند، اما خطر این فناوری می‌تواند بسیار بیشتر شود.

به گزارش اقتصادآنلاین به نقل از تعادل؛  در وب‌سایت Csoonline آمده که دیپ‌فیک فیلم‌ها یا صداهای ضبط‌شده جعلی است که بسیار شبیه به واقعیت به نظر می‌رسد و امروز هرکسی می‌تواند در اوقات فراغت خود نرم‌افزارهای دیپ‌فیک را دانلود کرده و ویدیوهای جعلی متقاعد‌کننده‌ای را بسازد. دیپ فیک از دو عبارت «دیپ‌لرنینگ» و «فیک» تشکیل شده است. در این تکنولوژی یک هوش مصنوعی نرم‌افزاری با کمک الگوریتم‌های ترکیبی پردازش صدا و تصویر، ویدیویی را تولید می‌کند. هوش مصنوعی می‌تواند صورت یک سوژه (فرد اصلی) را روی چهره سوژه‌ای دیگر (فرد هدف) کپی کند. در حالت پیشرفته‌تر، این تکنولوژی می‌تواند یک مدل جدید بر اساس حرکات صورت شخص اصلی درست کرده و آن را روی شخص هدف قرار دهد. این تکنولوژی قادر است با در اختیار داشتن کمترین داده تصویری در حد یک عکس، مدل مورد نظر را درست کرده و پردازش کند. با این حال هرچه داده بیشتری در اختیار هوش مصنوعی قرار بگیرد، نتیجه بیشتر به واقعیت نزدیک خواهد بود. به همین دلیل است که اشخاص مشهور و سیاستمداران، بهترین هدف برای دیپ فیک هستند، زیرا صدها عکس و ویدیو از آنها وجود دارد و متن باز بودن الگوریتم دیپ فیک، راه را برای جعل ویدیوی این افراد بیشتر فراهم می‌کند.‌کما اینکه تاکنون دیپ‌فیک‌های بسیاری از دونالد ترامپ -رییس‌جمهوری امریکا-، ولادیمیر پوتین –رییس‌جمهوری روسیه- و بسیاری از بازیگران هالیوودی منتشر شده است.

با وجود این، دیپ‌فیک‌ها تا امروز بیشتر به سرگرمی‌ محدود شده بودند، اینکه چهره‌های افراد مشهور را در فیلم‌های خنده‌دار به کار ببرند یا سیاستمداران را وادار کنند در ویدیوها چیزهای خنده‌داری بگویند که هرگز در واقعیت نگفته‌اند، اما باید توجه داشت که از این فناوری می‌توان برای به هم زدن ازدواج افراد با فیلم‌های نامناسب یا انتشار فیلم‌های جعلی از یکی از نامزدهای انتخابات درست پیش از زمان رای‌گیری هم استفاده کرد و اینجاست که زنگ خطر به صدا درمی‌آید. این موضوع می‌تواند بسیاری از افراد را عصبی کند؛ برای مثال مارکو روبیو –سناتور جمهوری‌خواه ایالت فلوریدا- حتی آن را معادل مدرن سلاح‌های هسته‌ای می‌داند و می‌گوید: «پیش از این اگر می‌خواستید امریکا را تهدید کنید، به 10 فروند هواپیما و سلاح هسته‌ای و موشک‌های برد بلند نیاز داشتید. امروز فقط لازم است به سیستم اینترنت ما، به سیستم بانکی ما، به شبکه برق و زیرساخت‌های ما دسترسی داشته باشید و جامع‌تر از اینها اینکه تمام چیزی که نیاز دارید این است که بتوانید یک فیلم جعلی بسیار واقع‌گرایانه تولید کنید که می‌تواند انتخابات ما را تضعیف کند و کشورمان را به یک بحران عظیم داخلی سوق دهد.» هرچند همه با این نظر موافق نیستند. تیم هوانگ -مدیر حاکمیت هوش مصنوعی در مرکز برکمان-کلین و آزمایشگاه رسانه‌ای‌MIT، می‌گوید: « فکر نمی‌کنم که این فناوری به اندازه بمب‌های هسته‌ای خطرناک باشد. البته نمایش‌هایی که از این فناوری دیده‌ایم می‌تواند نگران‌کننده باشد، اما بعید است بازی را به روشی که مردم تصور می‌کنند، تغییر دهد.»

 وقتی می‌توان افراد و برندها را بی‌اعتبار کرد

با فناوری دیپ‌فیک می‌توان به راحتی یک خبرنگار، سیاستمدار، تجارت و برند را بی‌اعتبار کرد و با قرار دادن کلمات در دهان افراد، ویدیوها می‌توانند آنقدر به واقعیت نزدیک شوند که خط بین واقعیت و دروغ را محو کنند. ترس، عدم اطمینان و تردید، برای افرادی که در سنگرهای امنیتی کار می‌کنند آشناست و استفاده از این ابزارها به عنوان یک سلاح در مقیاس بزرگ می‌تواند به‌شدت به یک تجارت و همچنین یک فرد آسیب برساند. دفاع در برابر حملاتی که از این ابزارها استفاده می‌کنند، بسیار دشوار است و پس از انتشار یک ویدیوی دیپ‌فیک که سروصدای زیاده به راه انداخته، بینندگان هرگز جزییات را فراموش نخواهند کرد و ممکن است همچنان تصور کنند که این ویدیو واقعیت داشته است. در حال حاضر حتی یک کاربر معمولی هم می‌تواند اپلیکیشن FakeApp را دانلود و شروع کند به ساختن دیپ‌فیک‌های خودش. اگرچه استفاده از این اپلیکیشن آنقدرها هم آسان نیست، اما یک کاربر باهوش نباید مشکلی در استفاده از آن داشته باشد. بنابراین به نظر می‌رسد در شرایطی قرار داریم که روش‌های آسان و ارزان زیادی وجود دارد که چندان نیازمند یادگیری عمیق یا یادگیری ماشینی برای فریب و شکل دادن به افکار عمومی نیست. به عنوان مثال، فیلمبرداری از افرادی که در خیابان کسی را مورد ضرب و شتم قرار می‌دهند و سپس ایجاد یک روایت دروغین درمورد آن فیلم، می‌تواند به راحتی نظرات متفاوتی از واقعیت را ایجاد کند.

 تشخیص دیپ‌فیک‌های خوب دشوار است

تشخیص دیپ‌فیک‌ها کار دشواری است، البته دیپ‌فیک‌های آماتور را می‌توان با چشم غیرمسلح تشخیص داد، علائم دیگری هم وجود دارند که می‌توانند به تشخیص ویدیوهای دیپ‌فیک کمک کنند، از جمله اینکه شخص چشمک نزند یا سایه‌هایی که جهت اشتباهی دارند. از طرفی برخی محققان در تلاش برای پیدا کردن راهی برای تشخیص دیپ‌فیک‌ها هستند. برای مثال یک تیم تحقیقاتی در ادانشگاه کالیفرنیا کارشان را با یک دیتاست بزرگ از تصاویر واقعی و ساختگی شروع کردند. با اینکه این سیستم فعلا تنها برای تشخیص عکس‌ها کاربرد دارد، تیم تحقیقاتی تلاش دارد آن را برای تشخیص ویدیوها نیز بهینه کند. با این حال، احتمالا دقت این تکنولوژی هیچگاه 100 درصد نخواهد بود و نهایتا برای تشخیص تصاویر مشکوک استفاده خواهد شد و بررسی نهایی به انسان‌ها سپرده می‌شود.با وجود این، نسل دیپ‌فیک‌ها در حال بهبود است و شاید به زودی برای تشخیص ویدیوهای دیپ‌فیک، ناچار به اعتماد به کارشناسان دیجیتالی شویم، البته اگر بتوان از همان ابتدا واقعی و فیک بودن آنها را تشخیص داد. دکتر لی -محقق علوم کامپیوتری دانشگاه کالیفرنیا- معتقد است تنها شش ماه دیگر زمان باقی است برای اینکه بتوان ویدیو‌های دیپ‌فیک را از ویدیوهای واقعی تشخیص داد و با غیرقابل‌ تشخیص شدن دیپ‌فیک‌ها، باید به دنبال راه دیگری برای تشخیص ویدیو‌ها باشیم. به گفته وی، در حال حاضر تشخیص تقلب بودن ویدیو‌ها بدون ابزار خاصی میسر است، اما تکنولوژی مورداستفاده در دیپ‌فیک به‌قدری سریع پیشرفت می‌کند که احتمالا تا شش ماه دیگر شاهد ویدیو‌های کاملا قابل باور خواهیم بود. البته برای ساختن چنین ویدیو‌های باورپذیری، باید وقت و انرژی بسیاری صرف شود، اما با صرف ابزارهای لازم و سرعتی که هوش مصنوعی پیشرفت می‌کند، احتمالا نتیجه نهایی غیرقابل تشخیص خواهد شد که این موضوع می‌تواند باعث ایجاد نگرانی‌‌هایی شود. هرچند لی معتقد است با وجود خطرات احتمالی، ساختن ویدیوهای جعلی برای پیشرفت این علم ضروری است، اما او امیدوار است بتواند راه‌حلی برای شناسایی ویدیو‌های دیپ‌فیک پیدا کند تا از آسیب رساندن آن به افراد معمولی جلوگیری شود.

منتقدین هشدار می‌دهند اگر نتوانیم فیلم‌های جعلی را تشخیص دهیم، ممکن است به زودی مجبور شویم به آنچه می‌بینیم و می‌شنویم، بی‌اعتماد باشیم. در حال حاضر، اینترنت واسطه‌ای در تمامی جنبه‌های زندگی ماست و عدم توانایی اعتماد به هر چیزی که می‌بینیم، می‌تواند منجر به « پایان حقیقت » شود. این موضوع نه تنها ایمان به سیستم سیاسی را تهدید می‌کند، بلکه در طولانی‌مدت، ایمان به آنچه که واقعیت عینی مشترک است را هم از بین می‌برد. اگر نتوانیم درباره اینکه چه چیزی واقعی است و چه چیزی نیست، توافق نظر داشته باشیم، چطور می‌توان موضوعات جنجالی را به بحث گذاشت.

ارسال نظر

آخرین قیمت ها از کف بازار
سایر بخش های خبری