امروزه فهم حقیقت بسیار دشوار شده است. اگر تا پیش از این گفته میشد که انسان نمیتواند مبنای یافتههای خود را بر یکسری شنیده ها بگذارد و یا به مصداق ضرب المثل مشهور، «شنیدن کِی بوَد مانند دیدن»، دیدن به عنوان یکی از راه های دستیابی به حقیقت بوده است، اکنون دیگر با رشد تکنولوژی نمیتوان بر خواندنیها، شنیدنیها و دیدنیها اعتمادی تام داشت. یکی از مواردی که میتوان به عنوان تکنولوژی های مهم و خطرناک برشمرد، تکنولوژی جعل عمیق است. در جریان استفاده از این تکنولوژی میتوان متن، فیلم و صوتی را خلق کرد که اصلا شاید در دنیا وجود نداشته است و تو خود خالق آن بوده ای و یا میتوان سخنرانی را از یک شخصیت برجسته بازسازی کرد که هرگز این سخنرانی انجام نشده باشد.
درواقع میتوان اینگونه تصور کرد که فناوری جعل عمیق یکی از راه های مورد استفاده برای حملات ادراکی(Presentation Attacks) است. یعنی در جریان فرآیند انتشار محتواهای ساخته شده توسط این فناوری، برای مخاطبین اداراکاتی به نادرست درباره اشخاص واقعی و یا ساخته شده و حوادث مختلف ایجاد میشود که میتواند مبانی برای کنشهای نادرست آتی باشد.
تعریف جعل عمیق (DeepFakes)
جعل عمیق از تکنیکهای قدرتمند یادگیری ماشین (Machine learning) و هوش مصنوعی (AI) برای دستکاری یا تولید محتوای دیداری و شنیداری با پتانسیل بالا برای فریب استفاده می کند.[1] فناوری جعل عمیق ، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربین ها کشف کرده و به طرز کاملا ً باورپذیری چهره همان انسان را جعل کرده و میتواند او را در حال حرکت ، سخنرانی و هر حالتی که فکر کنید قرار دهد. یک عروسک خیمه شب بازی دیجیتالی که در محیط های دیگر، بازتولید می شود. هوش مصنوعی همانند سوختی است که توسعه جعل عمیق، را سرعت بخشیده ؛ اما این فقط یک فناوری است ، که باید از طریق قوانین و دستورالعمل هایی مربوط به اسکن تصاویر چهره کنترل گردد.
چرا به این اسم نهاده شد؟
جعل عمیق اسم خود را از ترکیب دو اسم Fakes و Deep learning به دست آورده است. که این اسم توسط کاربری در انجمن ردیت (Reddit) برای اولین مورد استفاده قرار گرفت و بعدا به صورت متداول مورد استفاده عموم قرار گرفت.
چه ترفندهایی در تولید جعل عمیق تصاویر به کار میرود؟
از آنجایی که مورد استفادهترین نوع جعل عمیق، جعل عمیق تصاویر است. لازم است تا در این خصو ص بیشتر توضیح داده شود. گاهی جعل عمیق در هنگام بازیابی مجدد(Reenactment) تصاویر، شامل تغییراتی در صورت(Expression) میشود و گاهی شامل تغییراتی در بدن(Pose) میشود.[2]
گاهی نیز جعل عمیق تنها تغییراتی را در صورت شامل میشود. و مختص تغییر یکسری از ویژیگی های در صورت(Facial attribute editing) میشود.[3]
همچنین گاهی تصویر پدید آمده ترکیبی از چند صورت است. به این فرآیند مورفینگ یا شکلگیری(Morphing)گویند.[4]
جعل عمیق در چه مواردی مورد استفاده قرار میگیرد؟
از موارد استفاده خشن و نادرستی که از این فناوری وجود دارد میتوان به مواردی اشاره کرد چون پورن انتقامی(Revenge pornography) یعنی انتشار تصاویری پرونوگرافی شامل تصاویر جعل شده از اشخاص واقعی، کلاهبردی سیاسی مانند انتشار تصاویری از جرمی کوربین و بوریس جانسون که در طی تبلیغات ایام انتخابات نخست وزیری انگلستان به تعریف و تمجیدهای خلاف واقع از هم مشغول بودند. شاید جالب باشد که در برخی موارد یک محتوای واقعی با برچسب جعل عمیق به حاشیه میرود.برای مثال در یک مورد که هنوز به درستی مسائل پیرامون آن واضح بیان نشده است. یک شخص خود را به عنوان یکی از حامیان و طرفداران جریان مخالف دولت در روسیه معرفی میکندو با برخی از مقامات اتحادیه اروپا ارتباط میگیرد. در این ماجرا آنچه بسیار پیچیده است، دوگانگی اظهاراتی است که در این خصوص وجود دارد. تام توگندهت(Tom Tugendhat) یک سیاستمدار محافظه کار انگلیسی است که عنوان میدارد چنین ارتباطی که توسط یه شخص روسی به نام ولکوف شکل گرفته اساسا ارتباط یک شخص جعلی بوده که توسط دولت روسیه هویت دهی شده است.از طرفی برخی در روسیه عنوان داشتند که ولکوف پیش از این هم با مقامات اروپایی همکاری هایی داشته است و او یک شخصیت حقیقی بوده است وگرنه چگونه این امکان وجود داشته است که او با سیاستمدارانی برجسته از اتحادیه اروپا ارتباطگیری کند. به هر حال اگرچه تاکنون ابعاد جدیدی از این ماجرا آشکار نشده است ولی این امر را نیز باید مدنظر داشت که گاهی احتمال دارد، برخی با برچسب جعل عمیق محتواهایی را کنار بگذراند یا در حقیقت آن ایجاد تشکیک نمایند. [5] البته که گاهی به درستی از این تکنولوژی به عنوان ارائه مدل از اشخاص، شبیه سازی صدا در اختیار ناشنوایان(جهت راهنمایی آنان) و یا ساخت فیلم و رمان نیز استفاده میشود.[6]
جعل کمعمق یا ارزان چیست؟
باید دانست که برخی تغییرات را نمیتوان جزئی از دیپ فیک به حساب آورد، چراکه همانطور که پیشتر نیز در یادآور شدیم باید تکنولوژی به کار برده شده از نوع یادگیری ماشین و هوش مصنوعی باشد. برای مثال نمیتوان تصاویری که با استفاده از فوتوشاپ که برای مقاصدی غیر حقیقی تغییر کرده اند را جزئی از دیپ فیک به حساب آورد. لذا به محتواهایی که به روش های متداولی چون تغییر با فتوشاب، کاهش و یا افزایش سرعت آنان ساخته میشوند، محتواهای جعلی کمعمق(Shallow fakes) گویند. از طرفی چون این محتواهای از روشهای ارزانتری به دست میآیند، به آنان جعل ارزان(cheap fake) نیز گفته میشود.[7]
جعل عمیق منحصر در تصاویر نیست
جعل عمیق تنها منحصر در تصاویر نیست، بلکه شامل صوت نیز میشود.(خود صوت بخشی از ویدیو نیز میتواند باشد و به باورپذیری آن کمک نماید)
یکی دیگر از مواردی نیز که اخیرا توسط برخی اندیشمندان هشدار داده شده است، به کارگیری فناوری جعل عمیق در تولید متن است. به عنوان مثال با استفاده از این فناوری میتوان یک مقاله علمی و یا یه کتاب را با ترکیبی از متون و مطالب موجود و با استفاده از هوش مصنوعی و یادگیری ماشین تولید نماید.[8]
چقدر جعل عمیق میتواند خطرناک باشد؟
شاید آنچه خطر جعل عمیق را بسیار ملموس و یا خشنتر جلوه داده است. دستکارهایی بود که روس ها مبتنی بر این فناوری در تولید متن های متکثر و متفاوت انتخاباتی، در خلال انتخابات 2016 آمریکا داشتند. همچنین بعدها در انتخابات 2020 آمریکا، فیلم هایی که نشان میداد بایدن پذیرفته است که تقلبهایی در روند انتخابات برعلیه ترامپ انجام شده است. خود جلوه دیگری از کاربردهایی بود که مبتنی بر هوش مصنوعی انجام میگرفت.[9] شاید باورکردنی نباشد که با وجود جعل عمیق میتوان عملیاتی را شروع کرد که حتی مرگ رهبران سیاسی را برای سالیان طولانی پنهان کند. البته که چنین عملیاتی با انتشار تصاویر و سخنرانی های زنده و غیرمستقیم بسیار به واقعیت نزدیک میشود. اما با حقیقت فاصله دارد.
بنا بر اظهارات دانشمندان در کالج لندن، جعل عمیق خطرناکترین جرمی است که میتواند بر اساس تکنولوژی هوش مصنوعی شکل بگیرد. از این رو فناوری جعل عمیق به شدت آینده را تحت تاثیر قرار خواهد داد.این فناوری میتواند در آینده برای کنترل خودروهای بدون راننده تسلیحاتی(driverless cars as weapons)، تولید اخبار جعلی(fake news)، برداشت اطلاعات آنلاین برای باجگیری(blackmail) و ایجاد و هماهنگی پیامهای فیشینگ(phishing messages) استفاده گردد. که از این حیث باید به شدت برای آینده برنامهریزی داشت تا در دام استفاده کنندگان این فناوری گرفتار نشد.[10]
منابع
[1] Kietzmann, Jan, Linda W. Lee, Ian P. McCarthy, and Tim C. Kietzmann. “Deepfakes: Trick or treat?.” Business Horizons 63, no. 2 (2020): 135-146.
[2] https://au.pcmag.com/components/58269/latest-deepfake-tech-will-have-you-dancing-like-bruno-mars
[3] Liu, Ming, et al. “STGAN: A unified selective transfer network for arbitrary image attribute editing.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019.
[4] https://www.theguardian.com/news/shortcuts/2019/aug/13/danger-deepfakes-viral-video-bill-hader-tom-cruise
[5] https://futurism.com/the-byte/russia-accused-using-deepfakes-imitate-political-rivals
[6] https://de.wikipedia.org/wiki/Deepfake
[7] https://mediamanipulation.org/definitions/cheap-fake
[8] https://www.theguardian.com/technology/2019/feb/14/elon-musk-backed-ai-writes-convincing-news-fiction
[9] https://www.npr.org/2020/10/01/918223033/where-are-the-deepfakes-in-this-presidential-election
[10] https://www.independent.co.uk/life-style/gadgets-and-tech/news/deepfakes-dangerous-crime-artificial-intelligence-a9655821.html
[*] محتوای وبینار بررسی رشوهای تولید و بازشناسی جعل عمیق و نمونه هایی از تجربیات و اثر گذاری، ارائه دهنده دکتر احمد نیک آبادی.