جعل عمیق یا دیپ فیک (DeepFakes) چه پیامدهایی را می تواند به دنبال داشته باشد؟

امروزه فهم حقیقت بسیار دشوار شده است. اگر تا پیش از این گفته می‌شد که انسان نمی‌تواند مبنای یافته‌های خود را بر یکسری شنیده ها بگذارد و یا به مصداق ضرب المثل مشهور، «شنیدن کِی بوَد مانند دیدن»، دیدن به عنوان یکی از راه های دستیابی به حقیقت بوده است، اکنون دیگر با رشد تکنولوژی نمیتوان بر خواندنی‌ها، شنیدنی‌ها و دیدنی‌ها اعتمادی تام داشت. یکی از مواردی که میتوان به عنوان تکنولوژی های مهم و خطرناک برشمرد، تکنولوژی جعل عمیق است. در جریان استفاده از این تکنولوژی میتوان متن، فیلم و صوتی را خلق کرد که اصلا شاید در دنیا وجود نداشته است و تو خود خالق آن بوده ای و یا میتوان سخنرانی را از یک شخصیت برجسته بازسازی کرد که هرگز این سخنرانی انجام نشده باشد.

درواقع میتوان اینگونه تصور کرد که فناوری جعل عمیق یکی از راه های مورد استفاده برای حملات ادراکی(Presentation Attacks) است. یعنی در جریان فرآیند انتشار محتواهای ساخته شده توسط این فناوری، برای مخاطبین اداراکاتی به نادرست درباره اشخاص واقعی و یا ساخته شده و حوادث مختلف ایجاد می‌شود که میتواند مبانی برای کنش‌های نادرست آتی باشد.

تعریف جعل عمیق (DeepFakes)

جعل عمیق از تکنیک‌های قدرتمند یادگیری ماشین (Machine learning) و هوش مصنوعی (AI) برای دستکاری یا تولید محتوای دیداری و شنیداری با پتانسیل بالا برای فریب استفاده می کند.[1]  فناوری جعل عمیق ، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربین ها کشف کرده و به طرز کاملا ً باورپذیری چهره همان انسان را جعل کرده و می‌تواند او را در حال حرکت ، سخنرانی و هر حالتی که فکر کنید قرار دهد. یک عروسک خیمه شب بازی دیجیتالی که در محیط های دیگر، بازتولید می شود. هوش مصنوعی همانند سوختی است که توسعه  جعل عمیق، را سرعت بخشیده ؛ اما این فقط یک فناوری است ، که باید از طریق قوانین و دستورالعمل هایی مربوط به اسکن تصاویر چهره کنترل گردد.

چرا به این اسم نهاده شد؟

جعل عمیق اسم خود را از ترکیب دو اسم Fakes و Deep learning به دست آورده است. که این اسم توسط کاربری در انجمن ردیت (Reddit) برای اولین مورد استفاده قرار گرفت و بعدا به صورت متداول مورد استفاده  عموم قرار گرفت.

چه ترفندهایی در تولید جعل عمیق تصاویر به کار میرود؟

از آنجایی که مورد استفاده‌ترین نوع جعل عمیق، جعل عمیق تصاویر است. لازم است تا در این خصو ص بیشتر توضیح داده شود. گاهی جعل عمیق در هنگام بازیابی مجدد(Reenactment) تصاویر، شامل تغییراتی در صورت(Expression) میشود و گاهی شامل تغییراتی در بدن(Pose) میشود.[2]

گاهی نیز جعل عمیق تنها تغییراتی را در صورت شامل میشود. و مختص تغییر یکسری از ویژیگی های در صورت(Facial attribute editing) میشود.[3]

همچنین گاهی تصویر پدید آمده ترکیبی از چند صورت است. به این فرآیند مورفینگ یا شکل‌گیری(Morphing)گویند.[4]

جعل عمیق در چه مواردی مورد استفاده قرار می‌گیرد؟

از موارد استفاده خشن و نادرستی که از این فناوری وجود دارد می‌توان به مواردی اشاره کرد چون پورن انتقامی(Revenge pornography‎) یعنی انتشار تصاویری پرونوگرافی شامل تصاویر جعل شده از اشخاص واقعی، کلاهبردی سیاسی مانند انتشار تصاویری از جرمی کوربین و بوریس جانسون که در طی تبلیغات ایام انتخابات نخست وزیری انگلستان به تعریف و تمجیدهای خلاف واقع از هم مشغول بودند. شاید جالب باشد که در برخی موارد یک محتوای واقعی با برچسب جعل عمیق به حاشیه می‌رود.برای مثال در یک مورد که هنوز به درستی مسائل پیرامون آن واضح بیان نشده است. یک شخص خود را به عنوان یکی از حامیان و طرفداران جریان مخالف دولت در روسیه معرفی میکندو با برخی از مقامات اتحادیه اروپا ارتباط میگیرد. در این ماجرا آنچه بسیار پیچیده است، دوگانگی اظهاراتی است که در این خصوص وجود دارد. تام توگندهت(Tom Tugendhat) یک سیاستمدار محافظه کار انگلیسی است که عنوان میدارد چنین ارتباطی که توسط یه شخص روسی به نام ولکوف شکل گرفته اساسا ارتباط یک شخص جعلی بوده که توسط دولت روسیه هویت دهی شده است.از طرفی برخی در روسیه عنوان داشتند که ولکوف پیش از این هم با مقامات اروپایی همکاری هایی داشته است و او یک شخصیت حقیقی بوده است وگرنه چگونه این امکان وجود داشته است که او با سیاستمدارانی برجسته از اتحادیه اروپا ارتباط‌گیری کند. به هر حال اگرچه تاکنون ابعاد جدیدی از این ماجرا آشکار نشده است ولی این امر را نیز باید مدنظر داشت که گاهی احتمال دارد، برخی با برچسب جعل عمیق محتواهایی را کنار بگذراند یا در حقیقت آن ایجاد تشکیک نمایند. [5] البته که گاهی به درستی از این تکنولوژی به عنوان ارائه مدل از اشخاص، شبیه سازی صدا در اختیار ناشنوایان(جهت راهنمایی آنان) و یا ساخت فیلم و رمان نیز استفاده میشود.[6]

جعل کم‌عمق یا ارزان چیست؟

باید دانست که برخی تغییرات را نمیتوان جزئی از دیپ فیک به حساب آورد، چراکه همانطور که پیشتر نیز در یادآور شدیم باید تکنولوژی به کار برده شده از نوع یادگیری ماشین و هوش مصنوعی باشد. برای مثال نمیتوان تصاویری که با استفاده از فوتوشاپ که برای مقاصدی غیر حقیقی تغییر کرده اند را جزئی از دیپ فیک به حساب آورد. لذا به محتواهایی که به روش های متداولی چون تغییر با فتوشاب، کاهش و یا افزایش سرعت آنان ساخته میشوند، محتواهای جعلی کم‌عمق(Shallow fakes) گویند. از طرفی چون این محتواهای از روشهای ارزانتری به دست میآیند، به آنان جعل ارزان(cheap fake) نیز گفته میشود.[7]

جعل عمیق منحصر در تصاویر نیست

جعل عمیق تنها منحصر در تصاویر نیست، بلکه شامل صوت نیز میشود.(خود صوت بخشی از ویدیو نیز میتواند باشد و به باورپذیری آن کمک نماید)

یکی دیگر از مواردی نیز که اخیرا توسط برخی اندیشمندان هشدار داده شده است، به کارگیری فناوری جعل عمیق در تولید متن است. به عنوان مثال با استفاده از این فناوری میتوان یک مقاله علمی و یا یه کتاب را با ترکیبی از متون و مطالب موجود و با استفاده از هوش مصنوعی و یادگیری ماشین تولید نماید.[8]

چقدر جعل عمیق میتواند خطرناک باشد؟

شاید آنچه خطر جعل عمیق را بسیار ملموس و یا خشنتر جلوه داده است. دستکارهایی بود که روس ها مبتنی بر این فناوری در تولید متن های متکثر و متفاوت انتخاباتی، در خلال انتخابات 2016 آمریکا داشتند. همچنین بعدها در انتخابات 2020 آمریکا، فیلم هایی که نشان میداد بایدن پذیرفته است که تقلب‌هایی در روند انتخابات برعلیه ترامپ انجام شده است. خود جلوه دیگری از کاربردهایی بود که مبتنی بر هوش مصنوعی انجام میگرفت.[9]  شاید باورکردنی نباشد که با وجود جعل عمیق میتوان عملیاتی را شروع کرد که حتی مرگ رهبران سیاسی را برای سالیان طولانی پنهان کند. البته که چنین عملیاتی با انتشار تصاویر و سخنرانی های زنده و غیرمستقیم بسیار به واقعیت نزدیک میشود. اما با حقیقت فاصله دارد.

بنا بر اظهارات دانشمندان در کالج لندن، جعل عمیق خطرناکترین جرمی است که میتواند بر اساس تکنولوژی هوش مصنوعی شکل بگیرد. از این رو فناوری جعل عمیق به شدت آینده را تحت تاثیر قرار خواهد داد.این فناوری میتواند در آینده برای کنترل خودروهای بدون راننده تسلیحاتی(driverless cars as weapons)، تولید اخبار جعلی(fake news)، برداشت اطلاعات آنلاین برای باج‌گیری(blackmail) و ایجاد و هماهنگی پیام‌های فیشینگ(phishing messages) استفاده گردد. که از این حیث باید به شدت برای آینده برنامه‌ریزی داشت تا در دام استفاده کنندگان این فناوری گرفتار نشد.[10]


منابع

[1] Kietzmann, Jan, Linda W. Lee, Ian P. McCarthy, and Tim C. Kietzmann. “Deepfakes: Trick or treat?.” Business Horizons 63, no. 2 (2020): 135-146.

[2] https://au.pcmag.com/components/58269/latest-deepfake-tech-will-have-you-dancing-like-bruno-mars

[3] Liu, Ming, et al. “STGAN: A unified selective transfer network for arbitrary image attribute editing.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019.

[4] https://www.theguardian.com/news/shortcuts/2019/aug/13/danger-deepfakes-viral-video-bill-hader-tom-cruise

[5] https://futurism.com/the-byte/russia-accused-using-deepfakes-imitate-political-rivals

[6] https://de.wikipedia.org/wiki/Deepfake

[7] https://mediamanipulation.org/definitions/cheap-fake

[8] https://www.theguardian.com/technology/2019/feb/14/elon-musk-backed-ai-writes-convincing-news-fiction

[9] https://www.npr.org/2020/10/01/918223033/where-are-the-deepfakes-in-this-presidential-election

[10] https://www.independent.co.uk/life-style/gadgets-and-tech/news/deepfakes-dangerous-crime-artificial-intelligence-a9655821.html

[*] محتوای وبینار بررسی رشوهای تولید و بازشناسی جعل عمیق و نمونه هایی از تجربیات و اثر گذاری، ارائه دهنده دکتر احمد نیک آبادی.

جدیدترین ها

جنگ روسیه – اوکراین و نتایج آن بر جنگ...

مقدمه بیش از یک سال است که از جنگ روسیه و اوکراین میگذرد ، عواقب...

سیاسی | مرجعیت رسانه‌ای در ایران: چیستی، چرایی و...

گزارش مجمع ایرانی دفاع از حقیقت در موضوع "سیاسی"

 ایدئولوژی تضاد ایالات‌متحده در عرصه نظام بین‌الملل

در عرصه سیاست خارجی، تحلیل سیستمی زیر را از سیاست خارجی کشورها ارائه می‏دهم و...

احیای داعش و بحران‌سازی، تلاش مشترک آمریکا و رژیم...

امیر نظامی مقدم؛ دبیر اندیشکده راهبردی مقاومت دانشگاه امام صادق علیه السلام چکیده مجموعه ملاحظات استراتژیکی...

ایران و قفقاز؛ خاک_شیشه_استخوان

پدیدار شناسی سیاست خارجی ایران در منطقه قفقاز از نگاه نظریه رئالیسم تحولاتی که در...

بررسی جایگاه هویت ملی در راهبرد دفاع ‎همه ‎جانبه...

1. امنيت هستي‌شناختي نظريه امنيت هستي‌شناختي در روابط بين‌الملل برگرفته از نظريه وجود انساني آنتوني...

نگاشت های محبوب

نظرات

پاسخ دهید

لطفا نظر خود را وارد کنید
لطفا نام خود را اینجا وارد کنید

2 × دو =