ضرورت شکل گیری «نیروی هوش مصنوعی» در سیستم دفاعی جمهوری اسلامی ایران

مقدمه

پوتین، رئیس‌جمهور روسیه، در اول سپتامبر 2017 اعلام کرد هر کشوری که بتواند رهبری حوزۀ هوش مصنوعی را به‌دست آورد، در آینده ارباب جهان خواهد بود. این گفته پُر‌ بیراه نیست و ممکن است هوش مصنوعی در اندک زمانی به ابزاری برای سیطره بر ژئوپلیتیک جهانی تبدیل شود و فضای سایبری، میدان جنگ‌های آینده شود. بی‌شک این چشم‌انداز نیز خالی از مخاطرات نخواهد بود. درحال‌حاضر، بیشترین سرمایه‌گذاری‌های بین‌المللی «دولتی» روی امور مربوط به هوش مصنوعی، در بخش نظامی صورت می‌گیرد. گزارش حاضر، صرف‌نظر از تعریف ابرقدرت‌ها در جهان امروز، تلاش داشته به بررسی رویکرد کشورهای مختلف درقبال هوش مصنوعی پرداخته و وزن آن را در سیاست‌های جدید بررسی کند. آمریکا، روسیه، و چین، ازجمله کشورهایی هستند که تلاش دارند در حوزۀ هوش مصنوعی به جایگاه رهبری در سطح بین‌المللی برسند. کشورهای اروپایی نیز درصدد ایجاد تحولاتی در این حوزه هستند، اما تاکنون بیشتر نگران عقب‌ماندگی خود بوده‌اند. توسعۀ غیرقابل کنترل حوزۀ هوش مصنوعی موجب نگرانی ابرقدرت‌ها شده است. به‌ویژه آمریکا که نگران از دست دادن جایگاه خود به‌عنوان رهبری جهانی در امور دفاعی، و بیمناک از تهدید نیروهای مسلح خود است. در این فصل، ضمن واکاوی نقش هوش مصنوعی در امنیت سایبری، به بررسی ضرورت شکل گیری« نیروی هوش مصنوعی» در سیستم‌ دفاع سایبری جمهوری اسلامی ایران می‌پردازیم.

1. چالش­های امنیت سایبری

علی رقم افزایش آگاهی به تهدیدات سایبری و سرمایه گذاری برای مبارزه با «جرایم اینترنتی»، توانایی سازمان­ها برای محافظت از اطلاعات و «دارایی­های مجازی»[1] آنها کافی نیست. هم بخش­ها و افراد حمله کننده در فضای مجازی متنوع هستند و هم منابع تهدیدات. به طور کلی «تهدیدات سایبری»[2] اساساً از «اقدامات بدخواهانه»[3] به دلایل نظامی، سیاسی و یا مالی به وجود می­ آیند. بیشتر حملات سایبری «صورت­های حمله مشخص« را دنبال می­ کنند که می­ تواند با عنوان «مراحل قتل سایبری»[4] توصیف شود.

این چارچوب فرض را براین قرار می­دهدکه یک حمله با «مرحله شناسایی»[5] آغاز می­شود که در آن مهاجم سعی می­کند تا «شکاف« و آسیب پذیری یک «سیستم هدف»[6] را شناسایی کند. مرحله بعد «مرحله مسلح کردن»[7] است که «نقایص آشکاری» برای توسعه «برنامه مخرب هدفمند»[8] مورد استفاده قرار می­گیرند. سپس «مرحله تحویل»[9] آغاز می­شود که در آن «بدافزار»[10] با هدف بالقوه انتقال می­یابد. پس از این مرحله «مرحله به کار انداختن»[11] انجام می­شود که در آن بدافزار باعث نصب یک برنامه مخرب در سیستم می­شود و پس از این مرحله حمله کننده می­تواند با ایجاد کانال و فرماندهی، اقدامات مخرب را آغاز کند.

«رویکرد امنیتی یکپارچه»[12] ایده­ ای کلیدی برای یک نگاه جامع به دفاع سایبری می‌باشد. هدف مشخص رویکرد امنیتی یکپارچه تولید «هشدارهای اولیه»[13] قبل از راه اندازی حمله است. این رویکرد شامل 4 «عمل مقابله­ ای»[14] در مراحل مختلف حمله سایبری است. اولین عمل، هشدار اولیه است که در مراحل شناسایی و مسلح کردن در یک حمله سایبری انجام می­شود. دومین عمل، «پیش­گیری»[15] است که در مرحله تحویل صورت می­گیرد. سپس عمل شناسایی در مرحله به کار انداختن انجام می­شود و درنهایت «عمل و پاسخ متقابل»[16] انجام­شود که در مراحل نصب، کنترل و اقدام از یک حمله سایبری صورت می­گیرد. به طور کلی چالش­های امروزی در حوزه سایبری در دو بخش «جمع آوری اطلاعات»[17] و «ضعف در قاعده و مدیریت فرآیند»[18] صورت می­گیرد.

1-1. چالش­ها در جمع آوری اطلاعات

واقعیت این است که مهاجمان در یک حمله سایبری هیچ ردپایی از خود به جای نمی­گذارند که در نتیجه رویکرد امنیتی یکپارچه را با مسئله جمع آوری و تجزیه و تحلیل طیفی از اطلاعات مواجه می­کند. مهمترین چالش­ها در دستیابی به داده ­ها به شرح زیر است:

1-1-1. «مقدار داده ­ها»[19]: مقدار داده­ها به واسطه وسایل الکترونیکی افزایش یافته است و در همه جای زندگی روزمره مورد استفاده قرار می­گیرد. برای اجرای رویکرد امنیتی یکپارچه ممکن است داده­ های تمام بخش­های سازمان­ها مورد نیاز باشد؛

1-1-2. «ناهمگونی داده­ ها»[20] و منابع آنها: اختلاف در داده­ ها و منابع آنها مشکلاتی برای شناسایی و جمع­ آوری این داده ­ها می­سازد. حتی اگر ناهمگونی در داخل محیط سایبر شناسایی شود، موقعیت و رفتار سیستم­ها و شبکه­ ها ممکن است تغییر کند و بنابراین نیاز به «سازواری دائمی»[21] دارند؛

1-1-3. «سرعت»[22] بالای داده­ ها: سرعت بالا در داده ­ها که مربوط به تولید و «پردازش»[23] در منابع است منجر به چالش­هایی در ذخیره سازی و پردازش داده ­ها می­شود.

هنگامی که این چالش­ها روی می­دهد «سیستم­های پیشگیری شناسایی نفوذ»[24] به عنوان ابزاری برای امنیت سایبری فراهم آمده است. این سیستم­ها نرم افزار یا سخت افزارهایی هستندکه برای محافظت از «سیستم­های واحد»[25] پیکر بندی شده­ اند. «رویکرد تشخیص بدرفتاری»[26] که فعالیت­های مخرب را تعریف می کند و «رویکرد تشخیص غیرمتعارف»[27] که مبتنی بر تعریف «شبکه­ های نرمال»[28] و یا «رفتار سیستم»[29] است، دو اصل اصلی از سیستم­های پیشگیری نفوذ است. این سیستم­ها دارای «عملکرد بهینه»، محافظت حداکثری و خطای حداقلی هستند. در مقابل سیستم­های امنیتی سنتی قادر به انجام کامل این الزامات نیستند و نقاط ضعف تکنولوژیکی مهمی دارند که عبارتند از:

الف. سرعت پایین تشخیص: هرگونه اشتباه در تعریف «الگوهای شبکه نرمال یا غیرنرمال»[30] و یا رفتار سیستمی ممکن است بر سرعت تشخیص سیستم­های پیشگیری تأثیر بگذارد. خطا در تعریف الگوهای غیرنرمال می­تواند منجر به نرخ بالای تشخیص «منفی کاذب»[31] شود و در مقابل تعریف اشتباه از الگوهای نرمال می­تواند به نرخ «مثبت کاذب»[32] منجر شود؛

ب. «بازدهی»[33] آهسته: سیستم­های پیشگیری تشخیص نفوذ می­تواند محدودیت­هایی را در پردازش و تجزیه و تحلیل از داد­ها از هر گیگابایت داده در ثانیه نشان دهد و می­تواند بر عملکرد، تعمیر و نگه داری و هزینه­ های مربوط به سیستم تأثیر بگذارد؛

ج. عدم «مقیاس پذیری و انعطاف­پذیری»[34]: محیط­های سایبری پویا هستند و «ترافیک شبکه»[35] و زیرساخت­ها دائماً تغییر می­کنند. این پویایی بیشتر منجر به مشکلات کارائی و کاهش عملکرد می­شود. بنابراین سیستم پیشگیری ممکن است قادر به بهبود و حفظ عملکرد خودش نباشد؛

د. فقدان «انوماسیون»[36]: سیستم­های پیشگیری هنوز قادر به عملکرد خودکار برای تغییر در محیط خود نیستند. این امر می­تواند منجر به تحلیل فردی از داده ­های ورودی شود و یک نیاز مستمر برای نظارت انسان ایجاد ­کند.

1-2. چالش­های مربوط به فرآیندها

علاوه بر جمع آوری اطلاعات، محافظت از فرآیندها نیز باید مورد توجه قرار گیرد. «فرآیندهای بین سازمانی و درون سازمانی»[37] می­تواند به بهبود و حفاظت بیشتر رویکرد امنتی یکپارچه سازمان­ها کمک می­کند و سطح بلوغ امنیت سایبری را افزایش دهد. سازمان­ها در بخش­های مختلف فعالیت دارند و به تقاضاهای ناسازگار در امنیت سایبری تمایل دارند. در مواردی که سازمان­ها نیاز دارند به پیشتیبانی از زیرساخت­های حیاتی مثل آب و فاضلاب یا نیروگاه­های هسته ­ای، بر افزایش امنیت تمرکز دارند تا اینکه بر جنبه­ های مالی توجه کنند. اما سازمان­های خصوصی بر زیان­های مالی توجه دارند و به امنیت عمومی توجهی ندارند. 

2. «تکنیک­های هوشمند»[38] برای تسهیل در اقدامات امنیتی

در رابطه با مسائل جمع آوری اطلاعات در امنیت سایبری، ماشین­های هوشمند وعده‌هایی از بهبود در اقدامات امنیتی را نشان می­دهند. این ماشین­ها می­توانند برخی «توانایی‎های شناختی»[39] انسان را انجام دهند و همچنین برخی عملکردهای حسی را داشته باشند و نمایش دهند چیزی را که می­توانیم آن را اطلاعات بنامیم. توسعه سیستم‌های هوشمند روش­هایی را برای حل مسائل پیچیده فراهم می­کند. درحالی که سیستم­های کامپیوتری سنتی بر الگوریتم­های ثابت مبتنی هستند و به صورت­های داده­ های شناخته شده برای تصمیم گیری نیاز دارند، حوزه علوم کامپیوتری جدید از تکنیک­های انعطاف پذیر توسعه یافته هوش مصنوعی بهره می­برد.

در قلمرو هوش مصنوعی، امنیت سایبری شاید صعنتی است که می­تواند منافع بیشتری از معرفی اطلاعات ماشینی ارائه کند و مشکلات مربوط به جمع آوری داده ­ها و ابزارهای مربوطه کاهش یابد. تکنیک­های هوش مصنوعی در 4 مقوله رویکرد امنیتی یکپارچه به کار می­رود و می­تواند امکانات گسترده­ ای از شاخه ­های مختلف هوش مصنوعی را اثبات کند.

 2-1. تعامل «نمایندگان پلیس سایبری هوشمند»[40] با شبکه­ های نظارتی

پارادایم نمایندگان هوشمند شاخه­‌ای از هوش مصنوعی است که از این ایده به وجود آمده است که «شناخت»[41] به طور عمومی و اختصاصی برای حل مسائل باید بین نهادهای مختلف به اشتراک گذاشته شود. یک نماینده واحد خود یک «نهاد شناختی»[42] است که سیستم تصمیم گیری داخلی و هدف شخصی و فردی منحصر به فرد خودش را دارد. برای دستیابی به هدف، نماینده به طور فعال در محیط خود و در تعامل با دیگر نماینده ­ها عمل می­کند. با گذشت زمان و تغییرات محیط، نمایندگان خود را با آن سازگار می­کنند. با توجه به ماهیت غیرمتمرکز و عکس‌العمل‌­های نمایندگان، آنها برای جمع آوری اطلاعات تعیین شده ­اند که در اقدامات دفاعی و شناسایی و کشف «سیستم­های هدف» به کار می­رود.

یک روش مؤثر که برای به کار گرفتن نمایندگان علیه حملات سایبری ایجاد شده است، پلیس سایبری نماینده هوشمند است که ایده نمایندگان پلیس مصنوعی در یک محیط سایبری تعریف شده را برای شناسایی فعالیت­های مخرب در یک روش غیر متمرکز دنبال می­کند. این پلیس سایبری در مراحل شناسایی و مسلح کردن یک حمله سایبری کارائی دارند.

نمایندگان هوشمند همچنین می­تواند در «سیستم­های مقاومت مصنوعی الهام گرفته از انسان»[43] پیدا شوند. با استفاده از دو نوع متفاوت از نمایندگان «شناسایی» و «ضدحمله»[44]، «تقلیدن کردن»[45] ویژگی سودمند سیستم مقاومت بشری است. نمایندگان شناسایی، محیط­های سایبری را نظارت می­کنند و فعالیت­های غیر طبیعی را شناسایی می­کنند و آنها را به عنوان دستورالعمل­های غیرمتمرکز برای نمایندگان ضدحمله می­فرستند که برای جلوگیری یا مقابله با مزاحمان شبکه فعال هستند.

2-2. «شبکه‌­های عصبی مصنوعی»[46] برای جلوگیری از نفوذ مخرب

شبکه­ های عصبی مصنوعی «مدل­های یادگیری آماری»[47] هستند که از ساختار و عملکرد مغز انسان تقلید می­کنند. آنها می­توانند به یادگیری و حل مسائل برای بیان یا شناخت آنها کمک کنند. در امنیت سایبری، شبکه ­های عصبی مصنوعی به طور موفقیت آمیزی در داخل تمام مراحل رویکردهای امنیتی یکپارچه استفاده شده­ اند. این شبکه­ ها می­توانند برای نظارت بر ترافیک شبکه مورد استفاده قرار گیرند. این سیستم در مرحله تحویل از یک حمله سایبری به کار می­رود و می­تواند یک دستیابی بزرگ قبل از روی دادن حمله سایبری به حساب آید. شبکه­ های عصبی مصنوعی می­تواند به طور موفقیت آمیزی برای آموزش با استفاده از فعالیت­ها و  حملات گذشته به منظور جلوگیری از حملات آینده و نفوذ به صورت واقعی استفاده شود.

مزیت بزرگ استفاده از شبکه­ های عصبی هوشمند توانایی یادگیری آنهاست. این شبکه­ ها می­تواند آموزش داده شده باشد برای شناسایی الگوهای نرمال و غیرنرمال به صورت اتوماتیک با استفاده از داده­ های پیشین که بر روی شبکه انتقال یافته است. در داخل یک رویکرد سیستم­های پیشگیری و شناسایی نفوذ، نشان داده شده است که شبکه عصبی مصنوعی می­تواند به طور موفقیت آمیزی برای ارزیابی اطلاعات مهم از «بسته داده­ های شبکه»[48] برای الگوهای یادگیری در شبکه نرمال به کار گرفته شود. یک بی قاعدگی در یک اطلاعات از بسته داده که نامتناسب با الگوهای یاد گرفته شده است، به عنوان مخرب شناخته می­شود و توسط سیستم­های پیشگیری و شناسایی نفوذ رد می­شود.

مزیت مهم شبکه­ های عصبی مصنوعی این است که به طور موفقیت آمیزی علیه نمونه­ هایی از نفوذ که قبلاً ناشناخته بوده ­اند تولید شده است. در تشخیص بدافزارها، یک آزمایش تجربی نشان داده است که 90 درصد نرم افزارهای مخرب می­تواند به صورت پیشرفته شناسایی شود.

«شبکه­ های عصبی عمیق»[49] که اخیراً مورد استفاده قرار گرفته است، دقیق­تر از شبکه­ های عصبی مصنوعی هستند و نه تنها برای محافظت از سازمان­ها در مقابل حملات سایبری به کار رفته­ اند بلکه برای پیش بینی این حملات نیز مورد استفاده قرار می­گیرند.

2-3. «سیستم­های متخصص»[50]

سیستم­های متخصص برنامه­ های کامپیوتری هستند که برای فراهم کردن پشتیبانی یک تصمیم برای مسائل پیچیده در یک حوزه طراحی شده ­اند. این سیستم­های متخصص به طور وسیع­تری در برنامه هوش مصنوعی مورد استفاده قرار می­گیرند. این سیستم­ها از یک «پایه شناخت»[51] متشکل شده ­اند که دانش و آگاهی را ذخیره می­کند و نوعی «ماشین استنتاج»[52] است که برای استدلال درمورد دانش از پیش تعریف شده و یافتن پاسخ­هایی برای مسائل داده شده مورد استفاده قرار می­گیرد. بسته به نوع روش استدلال، سیستم­های متخصص برای طبقه بندی­های مسائل مختلف به کار می­روند. دو سیستم استدلال در این زمینه قابل شناسایی هستند. یکی «استدلال مبتنی بر مورد»[53] و دیگری «استدلال مبتنی بر قانون»[54].

1. استدلال مبتنی بر مورد با بازیادآوری و بازتعریف نمونه­ های مشابه قبلی به حل مسائل کمک می­کند. در اینجا فرض بر این است که یک نمونه گذشته می­تواند برای یک نمونه مسئله جدید تطبیق داده شود.

2. سیستم­های مبتنی بر قانون مسائل را با استفاده از قوانین تعریف شده توسط متخصصان حل می­کند. قوانین شامل دو قسمت است: یک وضعیت و یک عمل. اول وضعیت ارزیابی می­شود و سپس اقدام تعیین می­شود. برخلاف سیستم­های استدلال مبتنی بر مورد، استدلال مبتنی بر قانون به آموزش قوانین جدید نمی­پردازد و به طور اتوماتیک قادر به اصلاح کردن قوانین موجود نیستند. این واقعیت به «مسئله فراگیری دانش»[55] اشاره دارد که برای تطبیق دادن در محیط­های پویا بسیار سخت است.

متخصصان امنیتی به طور وسیع از سیستم­های متخصص برای پشتیبانی تصمیم در محیط­های سایبری استفاده می­کنند. به طور کلی ارزیابی داده های سیستم­های امنیتی می­تواند تعیین کند که یک شبکه یا فعالیت در سیستم مخرب است یا خیر؟ با توجه به مقدار زیاد داده­ ها، متخصصان امنیتی به طور منظم از گزارشات آماری برای اسکن و تجزیه و تحلیل اطلاعات بازرسی در یک زمان عقلانی معین استفاده می­کنند. سیستم­های متخصص مبتنی بر هوش مصنوعی به طور موفقیت آمیزی نشان داده­ شده­ اند که می­توانند با استفاده از نظارت در زمان واقعی در محیط­های سایبری، از این تلاش­ها حمایت کنند. در مواردی که نفوذ مخرب کشف شد، یک «پیغام هشدار»[56] تولید شده است. این امر اطلاعات مربوطه را بر اساس اینکه متخصصان امنیتی می­توانند اقدام امنیتی مناسب را انتخاب کنند، فراهم کرده است.

3. معایب هوش مصنوعی در امنیت سایبری

با وجود مزایای هوش مصنوعی، نگرانی­ها و خطراتی درمورد استفاده از هوش مصنوعی در امنیت سایبری وجود دارد که به شرح زیر است:

3-1. ناتوانی در حفظ امنیت سایبری به صورت مستقل: این سیستم­های امنیتی هنوز به طور کامل مستقل نیستند. از آنجا که هنوز قادر نیستند به طور کامل جایگزین تصمیمات انسانی شوند، کارهایی که نیازمند مداخله انسان است وجود دارد؛

3-2. «حریم خصوصی داده­ ها»[57]: تکنیک­های هوش مصنوعی مثل شبکه­ های عصبی مصنوعی و شبکه­ های عصبی عمیق، در حال پیشرفت هستند و تکنیک­های جدید به طور منظم ظهور می­کنند، با این حال پیشرفت تنها در حیطه سخت افزاری بوده است. نیاز رو به رشد برای «داده­ های بزرگ»[58] می­تواند یک طرف منفی داشته باشد هنگامی که به داده حریم خصوصی تبدیل شود. تجزیه و تحلیل مقدار زیادی از داده­ ها ممکن است باعث شود سازمان­های خصوصی و عمومی درمورد حریم خصوصی اطلاعات پرسنل نگران شوند. حتی برخی از آنها نیز تمایل ندارند این داده ها را به اشتراک گذارند؛

3-3. «فقدان قاعده»[59]: یک نگرانی که درباره هوش مصنوعی بیش از همه رایج است از دست دادن کنترل انسان بر «نتایج خودمختاری هوش مصنوعی»[60] است. با توجه به ماهیت منحصر به فرد و غیرقابل پیش بینی هوش مصنوعی، چارچوب­های قانونی موجود الزاماً برای این موضوع به کار نمی­روند؛

3-4. «نگرانی­های اخلاقی»[61]: سیستم­های امنیتی مبتنی بر هوش مصنوعی به طور فزاینده­ای برای افراد و یا برای کمک به آنها تصمیماتی می­سازد. با توجه به این توسعه، آن مخصوصاً نگران کننده است که این سیستم­ها در حال حاضر برنامه اخلاقی ندارند. در نتیجه تصمیماتی که گرفته می­شود برای ما الزاماً آنهایی که فرد تمایل دارد، نیست.

در واقع، هوش مصنوعی تکنولوژی جدید در امنیت سایبری است. با توجه به چالش­های مهمی که در حوزه سایبری وجود دارد، لزوم اتخاذ یک رویکرد امنیتی کارآمد برای سازمان­ها امر مهمی است که باید مورد توجه قرار گیرد. این چالش­ها در حوزه جمع آوری اطلاعات و مدیریت فرآیند در سازمان­ها روی می­دهد. حجم وسیع، سرعت بالا و ناهمگونی داده­ها از جمله چالش­ها در حوزه جمع­ آوری داده­ ها است. برای مقابله با این چالش­ها تکنیک­های هوشمندی در حوزه هوش مصنوعی وجود دارد که مشخصه بارز آنها هوشمندی و تقلید از تفکر بشری است. این تکنیک­ها شامل پلیس سایبری هوشمند، شبکه­ های عصبی مصنوعی و سیستم­های متخصص است. به طور کلی با به کار گیری این سیستم­ها در حوزه امنیت سایبری میتوان اقدامات مخرب و نفوذهای سایبری را برای حملات سایبری پیش بینی نمود و اقدامات لازم را برای جلوگیری از آنها به کار بست. اگرچه در استفاده از هوش مصنوعی نگرانی­هایی وجود دارد و به لحاظ اخلاقی از سوی برخی متخصصان پذیرفته نشده است، اما می­تواند از اطلاعات مهم محافظت کند و تهدیدات بالقوه را کاهش دهد.؛ بنابراین، از آنجایی که جمهوری اسلامی ایران در ارتباط با بسیاری از خدمات مهم و حیاتی به اینترنت و سیستم‌ها و داده‌های فضای مجازی متکی است و این مسأله باعث می‌شود که در برابر تهدیدات سایبری خطرناک و واقعی آسیب‌پذیر باشد، باید خود را برای مواجهه با چالش‌های فضای سایبر (از جمله گسترش کاربرد هوش مصنوعی) آماده کند.

ضرورت شکل گیری« نیروی هوش مصنوعی» در سیستم دفاعی جمهوری اسلامی ایران

آمریکا و سپردن حوزۀ هوش مصنوعی به بخش خصوصی

آمریکا علی‌رغم جایگاه خط مقدم کنونی خود، درخصوص آینده‌اش در این حوزه مردد است. علاوه‌بر اظهارنظر برخی‌از چهره‌ها، مانند: ایلان ماسک که برخی او را به پیش‌بینی‌های تخیلی متهم می‌کنند، در اول نوامبر 2017، و اندکی پس از او، اریک اشمیت، رئیس اجرایی «اَلفابت» (شرکت مادر گوگل) و رئیس شورای ابتکارات دفاعی وزارت دفاع آمریکا اذعان داشته اند که این کشور با خطر ازدست دادن جایگاه رهبری خود در هوش مصنوعی مواجه است. از دید او، حوزۀ هوش مصنوعی مرز جدیدی است که ایالات متحده باید آن را تسخیر کرده، و برتری خود را در آن به اثبات برساند. درحال‌حاضر، مشکل بزرگ آمریکا موانع دیوان‌سالارانه‌ای است که از حضور به‌موقع آمریکا جلوگیری کرده، و موجب عقب‌ماندگی آتی این کشور در بسیاری از رشته‌های هوش مصنوعی در مقایسه با سایر رقبا خواهد شد؛ برای مثال، ازآنجاکه ارتش آمریکا به‌شدت وابسته به نظارت انسانی است، تحقیقات حوزۀ هوش مصنوعی را نادیده می‌گیرد. یکی از مشکلات دیگر این است که معمولاً طرح‌های حوزۀ هوش مصنوعی پنج تا ده سال به طول می‌انجامند تا بتوانند در حوزۀ عملیاتی موفق شوند. تاکنون بهترین راه‌حل دولت آمریکا برای پیشرفت‌های جدی در حوزۀ هوش مصنوعی، تکیه بر بخش خصوصی و شرکت‌های نوآور آن در زمینۀ فناوری بوده است که با موانع جاری دولتی روبه‌رو نیستند.

مشکل دیگر هوش مصنوعی آمریکا آن است که در زمان صلح یا زمانی‌که تهدید محدودی وجود دارد به‌هیچ‌وجه لازم دانسته نمی‌شود تحولی در رویکرد قدیمی صورت بپذیرد. تکیه بر بخش خصوصی با این مشکل رویاروست که فعالیت به‌صورت یک‌تنه در این حوزه کافی نیست و هریک از شرکت‌ها در بخشی از حوزۀ هوش مصنوعی تخصص دارد. بنابراین، با توجه به اینکه در این حوزه لازم است فعالیتی جمعی و میان‌رشته‌ای صورت بپذیرد، اما شرکت‌های خصوصی در جستجوی مقاصد خاص خود هستند؛ ضمناً فرایندی دولتی برای تصمیم‌گیری در حوزۀ هوش مصنوعی اندیشیده نشده است، براین اساس به اعتقاد بسیاری آمریکا با عقب‌ماندگی قابل توجهی در مقایسه با رقبای خود مواجه خواهد بود.

چین و برنامۀ توسعه در حوزۀ هوش مصنوعی

سرمایه‌گذاری‌های حوزۀ هوش مصنوعی در چین بسیار قابل توجه هستند و این کشور در امور سلامت و امنیت تا امور حمل‌و‌نقل، تلاش دارد از هوش مصنوعی بهره ببرد. چین با کمک غول دیجیتال خود، «بیدو»، برنامه‌ای برای توسعۀ هوش مصنوعی، چه در میدان اقتصادی و چه در میدان نظامی درنظر دارد. هدف چین رسیدن به آمریکا تا سال و پشت‌سر گذاشتن آن در سال 2025، و بالاخره معرفی خود به‌عنوان رهبر جهانی صنعت هوش مصنوعی در افق 2030 است. درنتیجه، چین برای مسیر آیندۀ خود برنامه‌ریزی دقیقی داشته و از فناوری‌ها و نیروی انسانی آموزش‌دیده در آمریکا نیز برای این منظور کمک می‌گیرد. در ژانویۀ گذشته، کی لو، یکی از معاونین سابق مایکروسافت، به ریاست عملیاتی شرکت «بیدو» در چین رسید.

چین برنامه‌های مشخصی برای تحقیقات در حوزۀ هوش مصنوعی دارد، درحالی‌که آمریکا این موضوع را در سطح دولتی به فراموشی سپرده است. تحقیقات چین در حوزۀ فضاهای جدیدی است که از نظر امنیتی و راهبردی ممکن است برای بشر تبعات وآسیب‌هایی را به‌دنبال داشته باشند. این فضاها، فضای فراجوی، فضای زیردریا، فضای سایبری و بسیاری دیگر هستند که هوش مصنوعی می‌تواند در آنها ظرفیت تبدیل شدن به منبع نظامیِ تعیین‌کننده‌ای را داشته باشد. بااین‌حال، رویارو با پیشرفت‌های فناورانۀ چینی، ظرفیت آمریکا برای حفظ جایگاه خود به‌عنوان الگوی سیاسی زیر سؤال رفته است و آمریکا برای حفظ برتری اخلاقی و سیاسی خود جهت پیشرفت فناورانه باید چاره‌ای بیندیشد.

چین به‌خوبی می‌داند که هوش مصنوعی می‌تواند به ابزاری برای سیطره تبدیل شود و زندگی فرد فرد جامعه را دستخوش تحولات عظیمی کند؛ برای مثال، ربات هوشمند آمازون، «الکسا» و توانایی‌های ویژه این ربات برای مداخله در زندگی روزمرۀ بشر، مورد توجه بسیار پژوهشگران و مقامات چینی بوده است. در همین راستا، گفته می‌شود بودجه‌ای که چین به حوزۀ هوش مصنوعی اختصاص داده، بسیار بیشتر از بودجۀ آمریکاست.

روسیه و رهبری نظامی در حوزۀ هوش مصنوعی

امروز، روسیۀ پوتین برخلاف دیگر کشورها در سطح بین‌الملل که درحال سرمایه‌گذاری و تحقیقات طیفی گسترده در هوش مصنوعی، از ریاضیات کاربردی تا ساخت ربات‌های انسان‌نما هستند، فقط بر حوزۀ تسلیحاتی متمرکز و پیشرفت‌های قابل توجهی نیز در مقایسه با سایر کشورها داشته است. پیروزی روسیه و بلند‌پروازی‌ مقامات آن برای سیطره بر دنیای هوش مصنوعی، کارت برندۀ کرملین نیست؛ بلکه آنان درصدد پیشرفت‌های فناورانه‌ای هستند که به‌ظاهر آمریکا و چین علاقه‌ای برای پیگیری آن ندارند. در سال 2017، کارخانۀ تولید سلاح کلاشینکف اعلام کرد که سوراتنیک، اسلحه‌ای خودکار است که از شبکه‌ای از رشته‌های عصبی مشابه با مغز انسان استفاده می‌کند و به کمک آنها قادر است هدف را شناسایی کرده و بدون کنترل انسانی عمل نماید. این تانک زرهی کوچک، زرادخانه‌ای کامل از تفنگ، موشک ضدهوایی، و توپ است. بسیاری، روسیه را رهبر نظامی‌سازی حوزۀ هوش مصنوعی می‌دانند که هدف راهبردی خود را پایان بخشیدن به هژمونی آمریکا در نظام بین‌الملل و گسترش نفوذ روسیه در فضای شوروی سابق قرار داده است.

اروپا و همچنان بازی در ردۀ قدرت‌های میانه

غیبت اروپا به‌شدت در حوزۀ هوش مصنوعی احساس می‌شود. در «نبرد داده‌ها» معمولاً مجموعۀ اتحادیۀ اروپا به دیگر کشورها، مانند: آمریکا و چین باخته است. کشورهایی با قدرت میانه، مانند: کشورهای اروپایی، به‌ویژه فرانسه که داعیۀ رهبری اروپایی را دارد، با مقایسه خود با کشورهایی، مانند: آمریکا، روسیه، و چین، حتی از حوزۀ هوش مصنوعی هراس دارند و ترجیح می‌دهند شکلی دفاعی به‌خود بگیرند.

هنوز آمار دقیقی از کشورهای اتحادیۀ اروپا و اینکه کدام‌یک در این حوزه یا تحقیقات درخصوص آن پیشگام هستند وجود ندارد. بااین‌حال، این کشورها امیدوارند به لطف حضور استارتاپ‌های تخصصی در زمینۀ هوش مصنوعی؛ اکوسیستم پویای تحقیقات و مطالعات علمی؛ و داشتن نیروی متخصص و کارآفرین در حوزۀ فناوری، بتوانند بر کشورهایی، مانند: چین که سرمایه‌گذاری گسترده‌ای در این حوزه دارند، پیشی بگیرند.

این کشورها خود می‌دانند که هنوز در حوزه‌های سُنتی هوش مصنوعی، مانند: رباتیک، مشغول به فعالیت هستند و باید به‌سرعت وارد حوزۀ سلامت، هوانوردی و حمل‌ونقل شوند. زمینه‌های جدیدی، مانند: انسان ماشینی، و ربات‌های تسلیحاتی در امور امنیتی، از دیگر مسائل مهم مورد توجه این کشورها هستند. در این کشورها نیز بار اصلی بر دوش شرکت‌های خصوصی و نیروی انسانی دانشگاهی است، بااین‌حال، رقابت شرکت‌هایی از کشورهای مختلف، موجب شکوفایی و پیشرفت گستردۀ اروپایی‌ها شده است. نگرانی بزرگ این کشورها، «فرار مغزها» از اروپا به آمریکا و چین است که به‌همراهِ نبود ابزارهای مالی، سازمانی، و انسانی در حوزۀ هوش مصنوعی، ممکن است نتایج غیرقابل جبرانی را برای این کشورها جهت پیشرفت در حوزۀ هوش مصنوعی درپی داشته باشد. راه‌حل پیشنهادی فرانسه تشکیل شورای نوآوری اروپایی بوده است که فضایی را برای هم‌اندیشی متخصصان مختلف در حوزۀ هوش مصنوعی فراهم می‌کند.

آینده و لزوم پیگیری جدی

به‌طور کلی، در‌حال‌حاضر هنوز حوزۀ هوش مصنوعی با داستان‌های تخیلی آمیخته است و کشورهای مختلف با توجه به فرهنگی که ریشه در این تخیلات دارد در این حوزه واکنش نشان داده‌اند؛ برای مثال، بازیگری، مانند: رژیم صهیونیستی به‌شدت دغدغۀ پیشرفت‌هایی را در حوزۀ هوش مصنوعی دارد که منجربه شکل‌گیری اَبَرانسان‌های پیشرفته‌ای شده و باقی ابنای بشر را به طبقه‌ای بی‌مصرف تبدیل می‌کنند. این بازیگر ایدئولوگ، نگران شکل‌گیری مذاهب جدیدی، مانند داده‌گرایی است که به ارادۀ انسانی پایان می‌بخشد. برای کشورهای مدعی مردم‌سالاری نیز معمولاً نگرانی‌هایی درخصوص حفظ حریم خصوصی، و اسارت در دست سازمان‌های اطلاعاتی مطرح بوده است. روسیه نیز که به همۀ امور از فیلتر دفع تهدید نگاه می‌کند، هوش مصنوعی را ابزاری نظامی، حتی برای هک کردن شبکه‌ها و نفوذ در امور داخلی کشورها درنظر گرفته است که از دید مقامات آن، به‌نوعی اثرگذاری در نظم بین‌المللی تعبیر می‌شود و با دغدغه‌های هژمونیک روسیه تطابق دارد. فعالان جامعۀ مدنی نیز نگرانی‌هایی درخصوص به‌وجود آمدن نابرابری‌ای بی‌سابقه در تاریخ بشریت، چه در میان افراد جوامع و چه در میان ملت‌های مختلف دارند؛ زیرا در قرون آینده دارندگان فناوری‌های برتر، جایگاه حکمرانی بر سایرین را خواهند یافت.  این حکمرانی می‌تواند جریان افکار عمومی را به‌دست بگیرد، سبک زندگی را تغییر دهد، درک تهدید را عوض کند و حتی تصور ما را از جغرافیا دگرگون سازد. بنابراین، ضروری است سیاست‌گذاران همگام با موج پیشرفت‌های فناورانه، و البته برای هدایت آن، تصمیماتی جدی در بخش سیاست داخلی و خارجی اتخاذ کنند.


--- Wirkuttis, Nadine & Hadas Klein. Artificial Intelligence in Cybersecurity, Cyber, Intelligence, and Security, Vol. 1, No. 1, January 2017.
--- For a comprehensive overview, see also Daniel Faggella, “What Is Artificial Intelligence? An Informed Definition-,” TechEmergence.com, October 10, 2016, http://techemergence.com/what-is-artificial-intelligence/
--- Horatiu Boeriu, “BMW Sees New Opportunities in Artificial Intelligence,” BMW BLOG, June 9, 2016, http://www.bmwblog.com/2016/06/09/bmw-sees-new-opportunities-artificial-intelligence/.
--- Stanford University, “Artificial Intelligence and Life in 2030 One Hundred Year Study on Artificial Intelligence | Report of
the 2015 Study Pane.”, p. 14-17
--- DARPA, “Grant Opportunity - DARPA-BAA-16-53 - Explainable Artificial Intelligence (Xai)” (Department of Defense - DARPA - Information Innovation Office, n.d.), http://www.grants.gov/web/grants/view-opportunity. html?oppId=287284.. See also David Gunning, “Explainable Artificial Intelligence (XAI),” DARPA, accessed September 23, 2016, http://www.darpa.mil/program/explainable-artificial-intelligence.

[1]. Own Virtual
[2]. Cyber Threats
[3]. Malicious Acts
[4]. Cyber Kill Chain
[5]. Reconnaissance Phase
[6]. Target System
[7]. Weaponizing
[8]. Target Malicious Code
[9]. Delivery Phase
[10]. Malware
[11]. Exploit Phase
[12]. Integrated Security Approach
[13]. Early Warning
[14]. Countermeasures
[15]. Prevent
[16]. React & Response
[17]. Gathering Information
[18]. Shortcoming in Regulation and Process Management
[19]. Amount of Data
[20]. Heterogeneity of Data
[21]. Constant Adaption
[22]. Velocity
[23]. Processing
[24]. Intrusion Detection Prevention Systems
[25]. Single Systems
[26]. Misuse Approach
[27]. Anomaly Approach
[28]. Normal Networks
[29]. System Behavior
[30]. Patterns of Abnormal or Normal Network
[31]. False Negative
[32]. False Positive
[33]. Throughput
[34]. Lack of Scalability and Resilience
[35]. Network Traffic
[36]. Automation
[37]. Inter-Organizational and Intra-Organizational Process 
[38]. Intelligent Techniques
[39]. Cognitive Abilities
[40]. Intelligent Cyber Police Agents
[41]. Knowledge
[42]. Cognitive Entity
[43]. Human-Inspired Artificial Immune Systems
[44]. Counterattack
[45]. Imitated
[46]. Artificial Neural Networks
[47]. Statistical Learning Models 
[48]. Network Data Package
[49]. Deep Neural
[50]. Expert Systems
[51]. Knowledge Base
[52]. Inference Machine
[53]. Case-Based Reasoning
[54]. Rule-Based Reasoning
[55]. Knowledge Acquisition Problem
[56]. Warning Massage
[57]. Data Privacy
[58]. Big Data
[59]. Lack of Regulation
[60]. AI Autonomy
[61]. Ethical Concerns

جدیدترین ها

جنگ روسیه – اوکراین و نتایج آن بر جنگ...

مقدمه بیش از یک سال است که از جنگ روسیه و اوکراین میگذرد ، عواقب...

سیاسی | مرجعیت رسانه‌ای در ایران: چیستی، چرایی و...

گزارش مجمع ایرانی دفاع از حقیقت در موضوع "سیاسی"

 ایدئولوژی تضاد ایالات‌متحده در عرصه نظام بین‌الملل

در عرصه سیاست خارجی، تحلیل سیستمی زیر را از سیاست خارجی کشورها ارائه می‏دهم و...

احیای داعش و بحران‌سازی، تلاش مشترک آمریکا و رژیم...

امیر نظامی مقدم؛ دبیر اندیشکده راهبردی مقاومت دانشگاه امام صادق علیه السلام چکیده مجموعه ملاحظات استراتژیکی...

ایران و قفقاز؛ خاک_شیشه_استخوان

پدیدار شناسی سیاست خارجی ایران در منطقه قفقاز از نگاه نظریه رئالیسم تحولاتی که در...

بررسی جایگاه هویت ملی در راهبرد دفاع ‎همه ‎جانبه...

1. امنيت هستي‌شناختي نظريه امنيت هستي‌شناختي در روابط بين‌الملل برگرفته از نظريه وجود انساني آنتوني...

نگاشت های محبوب

نظرات

پاسخ دهید

لطفا نظر خود را وارد کنید
لطفا نام خود را اینجا وارد کنید

3 − 2 =