مقدمه
پوتین، رئیسجمهور روسیه، در اول سپتامبر 2017 اعلام کرد هر کشوری که بتواند رهبری حوزۀ هوش مصنوعی را بهدست آورد، در آینده ارباب جهان خواهد بود. این گفته پُر بیراه نیست و ممکن است هوش مصنوعی در اندک زمانی به ابزاری برای سیطره بر ژئوپلیتیک جهانی تبدیل شود و فضای سایبری، میدان جنگهای آینده شود. بیشک این چشمانداز نیز خالی از مخاطرات نخواهد بود. درحالحاضر، بیشترین سرمایهگذاریهای بینالمللی «دولتی» روی امور مربوط به هوش مصنوعی، در بخش نظامی صورت میگیرد. گزارش حاضر، صرفنظر از تعریف ابرقدرتها در جهان امروز، تلاش داشته به بررسی رویکرد کشورهای مختلف درقبال هوش مصنوعی پرداخته و وزن آن را در سیاستهای جدید بررسی کند. آمریکا، روسیه، و چین، ازجمله کشورهایی هستند که تلاش دارند در حوزۀ هوش مصنوعی به جایگاه رهبری در سطح بینالمللی برسند. کشورهای اروپایی نیز درصدد ایجاد تحولاتی در این حوزه هستند، اما تاکنون بیشتر نگران عقبماندگی خود بودهاند. توسعۀ غیرقابل کنترل حوزۀ هوش مصنوعی موجب نگرانی ابرقدرتها شده است. بهویژه آمریکا که نگران از دست دادن جایگاه خود بهعنوان رهبری جهانی در امور دفاعی، و بیمناک از تهدید نیروهای مسلح خود است. در این فصل، ضمن واکاوی نقش هوش مصنوعی در امنیت سایبری، به بررسی ضرورت شکل گیری« نیروی هوش مصنوعی» در سیستم دفاع سایبری جمهوری اسلامی ایران میپردازیم.
1. چالشهای امنیت سایبری
علی رقم افزایش آگاهی به تهدیدات سایبری و سرمایه گذاری برای مبارزه با «جرایم اینترنتی»، توانایی سازمانها برای محافظت از اطلاعات و «داراییهای مجازی»[1] آنها کافی نیست. هم بخشها و افراد حمله کننده در فضای مجازی متنوع هستند و هم منابع تهدیدات. به طور کلی «تهدیدات سایبری»[2] اساساً از «اقدامات بدخواهانه»[3] به دلایل نظامی، سیاسی و یا مالی به وجود می آیند. بیشتر حملات سایبری «صورتهای حمله مشخص« را دنبال می کنند که می تواند با عنوان «مراحل قتل سایبری»[4] توصیف شود.
این چارچوب فرض را براین قرار میدهدکه یک حمله با «مرحله شناسایی»[5] آغاز میشود که در آن مهاجم سعی میکند تا «شکاف« و آسیب پذیری یک «سیستم هدف»[6] را شناسایی کند. مرحله بعد «مرحله مسلح کردن»[7] است که «نقایص آشکاری» برای توسعه «برنامه مخرب هدفمند»[8] مورد استفاده قرار میگیرند. سپس «مرحله تحویل»[9] آغاز میشود که در آن «بدافزار»[10] با هدف بالقوه انتقال مییابد. پس از این مرحله «مرحله به کار انداختن»[11] انجام میشود که در آن بدافزار باعث نصب یک برنامه مخرب در سیستم میشود و پس از این مرحله حمله کننده میتواند با ایجاد کانال و فرماندهی، اقدامات مخرب را آغاز کند.
«رویکرد امنیتی یکپارچه»[12] ایده ای کلیدی برای یک نگاه جامع به دفاع سایبری میباشد. هدف مشخص رویکرد امنیتی یکپارچه تولید «هشدارهای اولیه»[13] قبل از راه اندازی حمله است. این رویکرد شامل 4 «عمل مقابله ای»[14] در مراحل مختلف حمله سایبری است. اولین عمل، هشدار اولیه است که در مراحل شناسایی و مسلح کردن در یک حمله سایبری انجام میشود. دومین عمل، «پیشگیری»[15] است که در مرحله تحویل صورت میگیرد. سپس عمل شناسایی در مرحله به کار انداختن انجام میشود و درنهایت «عمل و پاسخ متقابل»[16] انجامشود که در مراحل نصب، کنترل و اقدام از یک حمله سایبری صورت میگیرد. به طور کلی چالشهای امروزی در حوزه سایبری در دو بخش «جمع آوری اطلاعات»[17] و «ضعف در قاعده و مدیریت فرآیند»[18] صورت میگیرد.
1-1. چالشها در جمع آوری اطلاعات
واقعیت این است که مهاجمان در یک حمله سایبری هیچ ردپایی از خود به جای نمیگذارند که در نتیجه رویکرد امنیتی یکپارچه را با مسئله جمع آوری و تجزیه و تحلیل طیفی از اطلاعات مواجه میکند. مهمترین چالشها در دستیابی به داده ها به شرح زیر است:
1-1-1. «مقدار داده ها»[19]: مقدار دادهها به واسطه وسایل الکترونیکی افزایش یافته است و در همه جای زندگی روزمره مورد استفاده قرار میگیرد. برای اجرای رویکرد امنیتی یکپارچه ممکن است داده های تمام بخشهای سازمانها مورد نیاز باشد؛
1-1-2. «ناهمگونی داده ها»[20] و منابع آنها: اختلاف در داده ها و منابع آنها مشکلاتی برای شناسایی و جمع آوری این داده ها میسازد. حتی اگر ناهمگونی در داخل محیط سایبر شناسایی شود، موقعیت و رفتار سیستمها و شبکه ها ممکن است تغییر کند و بنابراین نیاز به «سازواری دائمی»[21] دارند؛
1-1-3. «سرعت»[22] بالای داده ها: سرعت بالا در داده ها که مربوط به تولید و «پردازش»[23] در منابع است منجر به چالشهایی در ذخیره سازی و پردازش داده ها میشود.
هنگامی که این چالشها روی میدهد «سیستمهای پیشگیری شناسایی نفوذ»[24] به عنوان ابزاری برای امنیت سایبری فراهم آمده است. این سیستمها نرم افزار یا سخت افزارهایی هستندکه برای محافظت از «سیستمهای واحد»[25] پیکر بندی شده اند. «رویکرد تشخیص بدرفتاری»[26] که فعالیتهای مخرب را تعریف می کند و «رویکرد تشخیص غیرمتعارف»[27] که مبتنی بر تعریف «شبکه های نرمال»[28] و یا «رفتار سیستم»[29] است، دو اصل اصلی از سیستمهای پیشگیری نفوذ است. این سیستمها دارای «عملکرد بهینه»، محافظت حداکثری و خطای حداقلی هستند. در مقابل سیستمهای امنیتی سنتی قادر به انجام کامل این الزامات نیستند و نقاط ضعف تکنولوژیکی مهمی دارند که عبارتند از:
الف. سرعت پایین تشخیص: هرگونه اشتباه در تعریف «الگوهای شبکه نرمال یا غیرنرمال»[30] و یا رفتار سیستمی ممکن است بر سرعت تشخیص سیستمهای پیشگیری تأثیر بگذارد. خطا در تعریف الگوهای غیرنرمال میتواند منجر به نرخ بالای تشخیص «منفی کاذب»[31] شود و در مقابل تعریف اشتباه از الگوهای نرمال میتواند به نرخ «مثبت کاذب»[32] منجر شود؛
ب. «بازدهی»[33] آهسته: سیستمهای پیشگیری تشخیص نفوذ میتواند محدودیتهایی را در پردازش و تجزیه و تحلیل از دادها از هر گیگابایت داده در ثانیه نشان دهد و میتواند بر عملکرد، تعمیر و نگه داری و هزینه های مربوط به سیستم تأثیر بگذارد؛
ج. عدم «مقیاس پذیری و انعطافپذیری»[34]: محیطهای سایبری پویا هستند و «ترافیک شبکه»[35] و زیرساختها دائماً تغییر میکنند. این پویایی بیشتر منجر به مشکلات کارائی و کاهش عملکرد میشود. بنابراین سیستم پیشگیری ممکن است قادر به بهبود و حفظ عملکرد خودش نباشد؛
د. فقدان «انوماسیون»[36]: سیستمهای پیشگیری هنوز قادر به عملکرد خودکار برای تغییر در محیط خود نیستند. این امر میتواند منجر به تحلیل فردی از داده های ورودی شود و یک نیاز مستمر برای نظارت انسان ایجاد کند.
1-2. چالشهای مربوط به فرآیندها
علاوه بر جمع آوری اطلاعات، محافظت از فرآیندها نیز باید مورد توجه قرار گیرد. «فرآیندهای بین سازمانی و درون سازمانی»[37] میتواند به بهبود و حفاظت بیشتر رویکرد امنتی یکپارچه سازمانها کمک میکند و سطح بلوغ امنیت سایبری را افزایش دهد. سازمانها در بخشهای مختلف فعالیت دارند و به تقاضاهای ناسازگار در امنیت سایبری تمایل دارند. در مواردی که سازمانها نیاز دارند به پیشتیبانی از زیرساختهای حیاتی مثل آب و فاضلاب یا نیروگاههای هسته ای، بر افزایش امنیت تمرکز دارند تا اینکه بر جنبه های مالی توجه کنند. اما سازمانهای خصوصی بر زیانهای مالی توجه دارند و به امنیت عمومی توجهی ندارند.
2. «تکنیکهای هوشمند»[38] برای تسهیل در اقدامات امنیتی
در رابطه با مسائل جمع آوری اطلاعات در امنیت سایبری، ماشینهای هوشمند وعدههایی از بهبود در اقدامات امنیتی را نشان میدهند. این ماشینها میتوانند برخی «تواناییهای شناختی»[39] انسان را انجام دهند و همچنین برخی عملکردهای حسی را داشته باشند و نمایش دهند چیزی را که میتوانیم آن را اطلاعات بنامیم. توسعه سیستمهای هوشمند روشهایی را برای حل مسائل پیچیده فراهم میکند. درحالی که سیستمهای کامپیوتری سنتی بر الگوریتمهای ثابت مبتنی هستند و به صورتهای داده های شناخته شده برای تصمیم گیری نیاز دارند، حوزه علوم کامپیوتری جدید از تکنیکهای انعطاف پذیر توسعه یافته هوش مصنوعی بهره میبرد.
در قلمرو هوش مصنوعی، امنیت سایبری شاید صعنتی است که میتواند منافع بیشتری از معرفی اطلاعات ماشینی ارائه کند و مشکلات مربوط به جمع آوری داده ها و ابزارهای مربوطه کاهش یابد. تکنیکهای هوش مصنوعی در 4 مقوله رویکرد امنیتی یکپارچه به کار میرود و میتواند امکانات گسترده ای از شاخه های مختلف هوش مصنوعی را اثبات کند.
2-1. تعامل «نمایندگان پلیس سایبری هوشمند»[40] با شبکه های نظارتی
پارادایم نمایندگان هوشمند شاخهای از هوش مصنوعی است که از این ایده به وجود آمده است که «شناخت»[41] به طور عمومی و اختصاصی برای حل مسائل باید بین نهادهای مختلف به اشتراک گذاشته شود. یک نماینده واحد خود یک «نهاد شناختی»[42] است که سیستم تصمیم گیری داخلی و هدف شخصی و فردی منحصر به فرد خودش را دارد. برای دستیابی به هدف، نماینده به طور فعال در محیط خود و در تعامل با دیگر نماینده ها عمل میکند. با گذشت زمان و تغییرات محیط، نمایندگان خود را با آن سازگار میکنند. با توجه به ماهیت غیرمتمرکز و عکسالعملهای نمایندگان، آنها برای جمع آوری اطلاعات تعیین شده اند که در اقدامات دفاعی و شناسایی و کشف «سیستمهای هدف» به کار میرود.
یک روش مؤثر که برای به کار گرفتن نمایندگان علیه حملات سایبری ایجاد شده است، پلیس سایبری نماینده هوشمند است که ایده نمایندگان پلیس مصنوعی در یک محیط سایبری تعریف شده را برای شناسایی فعالیتهای مخرب در یک روش غیر متمرکز دنبال میکند. این پلیس سایبری در مراحل شناسایی و مسلح کردن یک حمله سایبری کارائی دارند.
نمایندگان هوشمند همچنین میتواند در «سیستمهای مقاومت مصنوعی الهام گرفته از انسان»[43] پیدا شوند. با استفاده از دو نوع متفاوت از نمایندگان «شناسایی» و «ضدحمله»[44]، «تقلیدن کردن»[45] ویژگی سودمند سیستم مقاومت بشری است. نمایندگان شناسایی، محیطهای سایبری را نظارت میکنند و فعالیتهای غیر طبیعی را شناسایی میکنند و آنها را به عنوان دستورالعملهای غیرمتمرکز برای نمایندگان ضدحمله میفرستند که برای جلوگیری یا مقابله با مزاحمان شبکه فعال هستند.
2-2. «شبکههای عصبی مصنوعی»[46] برای جلوگیری از نفوذ مخرب
شبکه های عصبی مصنوعی «مدلهای یادگیری آماری»[47] هستند که از ساختار و عملکرد مغز انسان تقلید میکنند. آنها میتوانند به یادگیری و حل مسائل برای بیان یا شناخت آنها کمک کنند. در امنیت سایبری، شبکه های عصبی مصنوعی به طور موفقیت آمیزی در داخل تمام مراحل رویکردهای امنیتی یکپارچه استفاده شده اند. این شبکه ها میتوانند برای نظارت بر ترافیک شبکه مورد استفاده قرار گیرند. این سیستم در مرحله تحویل از یک حمله سایبری به کار میرود و میتواند یک دستیابی بزرگ قبل از روی دادن حمله سایبری به حساب آید. شبکه های عصبی مصنوعی میتواند به طور موفقیت آمیزی برای آموزش با استفاده از فعالیتها و حملات گذشته به منظور جلوگیری از حملات آینده و نفوذ به صورت واقعی استفاده شود.
مزیت بزرگ استفاده از شبکه های عصبی هوشمند توانایی یادگیری آنهاست. این شبکه ها میتواند آموزش داده شده باشد برای شناسایی الگوهای نرمال و غیرنرمال به صورت اتوماتیک با استفاده از داده های پیشین که بر روی شبکه انتقال یافته است. در داخل یک رویکرد سیستمهای پیشگیری و شناسایی نفوذ، نشان داده شده است که شبکه عصبی مصنوعی میتواند به طور موفقیت آمیزی برای ارزیابی اطلاعات مهم از «بسته داده های شبکه»[48] برای الگوهای یادگیری در شبکه نرمال به کار گرفته شود. یک بی قاعدگی در یک اطلاعات از بسته داده که نامتناسب با الگوهای یاد گرفته شده است، به عنوان مخرب شناخته میشود و توسط سیستمهای پیشگیری و شناسایی نفوذ رد میشود.
مزیت مهم شبکه های عصبی مصنوعی این است که به طور موفقیت آمیزی علیه نمونه هایی از نفوذ که قبلاً ناشناخته بوده اند تولید شده است. در تشخیص بدافزارها، یک آزمایش تجربی نشان داده است که 90 درصد نرم افزارهای مخرب میتواند به صورت پیشرفته شناسایی شود.
«شبکه های عصبی عمیق»[49] که اخیراً مورد استفاده قرار گرفته است، دقیقتر از شبکه های عصبی مصنوعی هستند و نه تنها برای محافظت از سازمانها در مقابل حملات سایبری به کار رفته اند بلکه برای پیش بینی این حملات نیز مورد استفاده قرار میگیرند.
2-3. «سیستمهای متخصص»[50]
سیستمهای متخصص برنامه های کامپیوتری هستند که برای فراهم کردن پشتیبانی یک تصمیم برای مسائل پیچیده در یک حوزه طراحی شده اند. این سیستمهای متخصص به طور وسیعتری در برنامه هوش مصنوعی مورد استفاده قرار میگیرند. این سیستمها از یک «پایه شناخت»[51] متشکل شده اند که دانش و آگاهی را ذخیره میکند و نوعی «ماشین استنتاج»[52] است که برای استدلال درمورد دانش از پیش تعریف شده و یافتن پاسخهایی برای مسائل داده شده مورد استفاده قرار میگیرد. بسته به نوع روش استدلال، سیستمهای متخصص برای طبقه بندیهای مسائل مختلف به کار میروند. دو سیستم استدلال در این زمینه قابل شناسایی هستند. یکی «استدلال مبتنی بر مورد»[53] و دیگری «استدلال مبتنی بر قانون»[54].
1. استدلال مبتنی بر مورد با بازیادآوری و بازتعریف نمونه های مشابه قبلی به حل مسائل کمک میکند. در اینجا فرض بر این است که یک نمونه گذشته میتواند برای یک نمونه مسئله جدید تطبیق داده شود.
2. سیستمهای مبتنی بر قانون مسائل را با استفاده از قوانین تعریف شده توسط متخصصان حل میکند. قوانین شامل دو قسمت است: یک وضعیت و یک عمل. اول وضعیت ارزیابی میشود و سپس اقدام تعیین میشود. برخلاف سیستمهای استدلال مبتنی بر مورد، استدلال مبتنی بر قانون به آموزش قوانین جدید نمیپردازد و به طور اتوماتیک قادر به اصلاح کردن قوانین موجود نیستند. این واقعیت به «مسئله فراگیری دانش»[55] اشاره دارد که برای تطبیق دادن در محیطهای پویا بسیار سخت است.
متخصصان امنیتی به طور وسیع از سیستمهای متخصص برای پشتیبانی تصمیم در محیطهای سایبری استفاده میکنند. به طور کلی ارزیابی داده های سیستمهای امنیتی میتواند تعیین کند که یک شبکه یا فعالیت در سیستم مخرب است یا خیر؟ با توجه به مقدار زیاد داده ها، متخصصان امنیتی به طور منظم از گزارشات آماری برای اسکن و تجزیه و تحلیل اطلاعات بازرسی در یک زمان عقلانی معین استفاده میکنند. سیستمهای متخصص مبتنی بر هوش مصنوعی به طور موفقیت آمیزی نشان داده شده اند که میتوانند با استفاده از نظارت در زمان واقعی در محیطهای سایبری، از این تلاشها حمایت کنند. در مواردی که نفوذ مخرب کشف شد، یک «پیغام هشدار»[56] تولید شده است. این امر اطلاعات مربوطه را بر اساس اینکه متخصصان امنیتی میتوانند اقدام امنیتی مناسب را انتخاب کنند، فراهم کرده است.
3. معایب هوش مصنوعی در امنیت سایبری
با وجود مزایای هوش مصنوعی، نگرانیها و خطراتی درمورد استفاده از هوش مصنوعی در امنیت سایبری وجود دارد که به شرح زیر است:
3-1. ناتوانی در حفظ امنیت سایبری به صورت مستقل: این سیستمهای امنیتی هنوز به طور کامل مستقل نیستند. از آنجا که هنوز قادر نیستند به طور کامل جایگزین تصمیمات انسانی شوند، کارهایی که نیازمند مداخله انسان است وجود دارد؛
3-2. «حریم خصوصی داده ها»[57]: تکنیکهای هوش مصنوعی مثل شبکه های عصبی مصنوعی و شبکه های عصبی عمیق، در حال پیشرفت هستند و تکنیکهای جدید به طور منظم ظهور میکنند، با این حال پیشرفت تنها در حیطه سخت افزاری بوده است. نیاز رو به رشد برای «داده های بزرگ»[58] میتواند یک طرف منفی داشته باشد هنگامی که به داده حریم خصوصی تبدیل شود. تجزیه و تحلیل مقدار زیادی از داده ها ممکن است باعث شود سازمانهای خصوصی و عمومی درمورد حریم خصوصی اطلاعات پرسنل نگران شوند. حتی برخی از آنها نیز تمایل ندارند این داده ها را به اشتراک گذارند؛
3-3. «فقدان قاعده»[59]: یک نگرانی که درباره هوش مصنوعی بیش از همه رایج است از دست دادن کنترل انسان بر «نتایج خودمختاری هوش مصنوعی»[60] است. با توجه به ماهیت منحصر به فرد و غیرقابل پیش بینی هوش مصنوعی، چارچوبهای قانونی موجود الزاماً برای این موضوع به کار نمیروند؛
3-4. «نگرانیهای اخلاقی»[61]: سیستمهای امنیتی مبتنی بر هوش مصنوعی به طور فزایندهای برای افراد و یا برای کمک به آنها تصمیماتی میسازد. با توجه به این توسعه، آن مخصوصاً نگران کننده است که این سیستمها در حال حاضر برنامه اخلاقی ندارند. در نتیجه تصمیماتی که گرفته میشود برای ما الزاماً آنهایی که فرد تمایل دارد، نیست.
در واقع، هوش مصنوعی تکنولوژی جدید در امنیت سایبری است. با توجه به چالشهای مهمی که در حوزه سایبری وجود دارد، لزوم اتخاذ یک رویکرد امنیتی کارآمد برای سازمانها امر مهمی است که باید مورد توجه قرار گیرد. این چالشها در حوزه جمع آوری اطلاعات و مدیریت فرآیند در سازمانها روی میدهد. حجم وسیع، سرعت بالا و ناهمگونی دادهها از جمله چالشها در حوزه جمع آوری داده ها است. برای مقابله با این چالشها تکنیکهای هوشمندی در حوزه هوش مصنوعی وجود دارد که مشخصه بارز آنها هوشمندی و تقلید از تفکر بشری است. این تکنیکها شامل پلیس سایبری هوشمند، شبکه های عصبی مصنوعی و سیستمهای متخصص است. به طور کلی با به کار گیری این سیستمها در حوزه امنیت سایبری میتوان اقدامات مخرب و نفوذهای سایبری را برای حملات سایبری پیش بینی نمود و اقدامات لازم را برای جلوگیری از آنها به کار بست. اگرچه در استفاده از هوش مصنوعی نگرانیهایی وجود دارد و به لحاظ اخلاقی از سوی برخی متخصصان پذیرفته نشده است، اما میتواند از اطلاعات مهم محافظت کند و تهدیدات بالقوه را کاهش دهد.؛ بنابراین، از آنجایی که جمهوری اسلامی ایران در ارتباط با بسیاری از خدمات مهم و حیاتی به اینترنت و سیستمها و دادههای فضای مجازی متکی است و این مسأله باعث میشود که در برابر تهدیدات سایبری خطرناک و واقعی آسیبپذیر باشد، باید خود را برای مواجهه با چالشهای فضای سایبر (از جمله گسترش کاربرد هوش مصنوعی) آماده کند.
ضرورت شکل گیری« نیروی هوش مصنوعی» در سیستم دفاعی جمهوری اسلامی ایران
آمریکا و سپردن حوزۀ هوش مصنوعی به بخش خصوصی
آمریکا علیرغم جایگاه خط مقدم کنونی خود، درخصوص آیندهاش در این حوزه مردد است. علاوهبر اظهارنظر برخیاز چهرهها، مانند: ایلان ماسک که برخی او را به پیشبینیهای تخیلی متهم میکنند، در اول نوامبر 2017، و اندکی پس از او، اریک اشمیت، رئیس اجرایی «اَلفابت» (شرکت مادر گوگل) و رئیس شورای ابتکارات دفاعی وزارت دفاع آمریکا اذعان داشته اند که این کشور با خطر ازدست دادن جایگاه رهبری خود در هوش مصنوعی مواجه است. از دید او، حوزۀ هوش مصنوعی مرز جدیدی است که ایالات متحده باید آن را تسخیر کرده، و برتری خود را در آن به اثبات برساند. درحالحاضر، مشکل بزرگ آمریکا موانع دیوانسالارانهای است که از حضور بهموقع آمریکا جلوگیری کرده، و موجب عقبماندگی آتی این کشور در بسیاری از رشتههای هوش مصنوعی در مقایسه با سایر رقبا خواهد شد؛ برای مثال، ازآنجاکه ارتش آمریکا بهشدت وابسته به نظارت انسانی است، تحقیقات حوزۀ هوش مصنوعی را نادیده میگیرد. یکی از مشکلات دیگر این است که معمولاً طرحهای حوزۀ هوش مصنوعی پنج تا ده سال به طول میانجامند تا بتوانند در حوزۀ عملیاتی موفق شوند. تاکنون بهترین راهحل دولت آمریکا برای پیشرفتهای جدی در حوزۀ هوش مصنوعی، تکیه بر بخش خصوصی و شرکتهای نوآور آن در زمینۀ فناوری بوده است که با موانع جاری دولتی روبهرو نیستند.
مشکل دیگر هوش مصنوعی آمریکا آن است که در زمان صلح یا زمانیکه تهدید محدودی وجود دارد بههیچوجه لازم دانسته نمیشود تحولی در رویکرد قدیمی صورت بپذیرد. تکیه بر بخش خصوصی با این مشکل رویاروست که فعالیت بهصورت یکتنه در این حوزه کافی نیست و هریک از شرکتها در بخشی از حوزۀ هوش مصنوعی تخصص دارد. بنابراین، با توجه به اینکه در این حوزه لازم است فعالیتی جمعی و میانرشتهای صورت بپذیرد، اما شرکتهای خصوصی در جستجوی مقاصد خاص خود هستند؛ ضمناً فرایندی دولتی برای تصمیمگیری در حوزۀ هوش مصنوعی اندیشیده نشده است، براین اساس به اعتقاد بسیاری آمریکا با عقبماندگی قابل توجهی در مقایسه با رقبای خود مواجه خواهد بود.
چین و برنامۀ توسعه در حوزۀ هوش مصنوعی
سرمایهگذاریهای حوزۀ هوش مصنوعی در چین بسیار قابل توجه هستند و این کشور در امور سلامت و امنیت تا امور حملونقل، تلاش دارد از هوش مصنوعی بهره ببرد. چین با کمک غول دیجیتال خود، «بیدو»، برنامهای برای توسعۀ هوش مصنوعی، چه در میدان اقتصادی و چه در میدان نظامی درنظر دارد. هدف چین رسیدن به آمریکا تا سال و پشتسر گذاشتن آن در سال 2025، و بالاخره معرفی خود بهعنوان رهبر جهانی صنعت هوش مصنوعی در افق 2030 است. درنتیجه، چین برای مسیر آیندۀ خود برنامهریزی دقیقی داشته و از فناوریها و نیروی انسانی آموزشدیده در آمریکا نیز برای این منظور کمک میگیرد. در ژانویۀ گذشته، کی لو، یکی از معاونین سابق مایکروسافت، به ریاست عملیاتی شرکت «بیدو» در چین رسید.
چین برنامههای مشخصی برای تحقیقات در حوزۀ هوش مصنوعی دارد، درحالیکه آمریکا این موضوع را در سطح دولتی به فراموشی سپرده است. تحقیقات چین در حوزۀ فضاهای جدیدی است که از نظر امنیتی و راهبردی ممکن است برای بشر تبعات وآسیبهایی را بهدنبال داشته باشند. این فضاها، فضای فراجوی، فضای زیردریا، فضای سایبری و بسیاری دیگر هستند که هوش مصنوعی میتواند در آنها ظرفیت تبدیل شدن به منبع نظامیِ تعیینکنندهای را داشته باشد. بااینحال، رویارو با پیشرفتهای فناورانۀ چینی، ظرفیت آمریکا برای حفظ جایگاه خود بهعنوان الگوی سیاسی زیر سؤال رفته است و آمریکا برای حفظ برتری اخلاقی و سیاسی خود جهت پیشرفت فناورانه باید چارهای بیندیشد.
چین بهخوبی میداند که هوش مصنوعی میتواند به ابزاری برای سیطره تبدیل شود و زندگی فرد فرد جامعه را دستخوش تحولات عظیمی کند؛ برای مثال، ربات هوشمند آمازون، «الکسا» و تواناییهای ویژه این ربات برای مداخله در زندگی روزمرۀ بشر، مورد توجه بسیار پژوهشگران و مقامات چینی بوده است. در همین راستا، گفته میشود بودجهای که چین به حوزۀ هوش مصنوعی اختصاص داده، بسیار بیشتر از بودجۀ آمریکاست.
روسیه و رهبری نظامی در حوزۀ هوش مصنوعی
امروز، روسیۀ پوتین برخلاف دیگر کشورها در سطح بینالملل که درحال سرمایهگذاری و تحقیقات طیفی گسترده در هوش مصنوعی، از ریاضیات کاربردی تا ساخت رباتهای انساننما هستند، فقط بر حوزۀ تسلیحاتی متمرکز و پیشرفتهای قابل توجهی نیز در مقایسه با سایر کشورها داشته است. پیروزی روسیه و بلندپروازی مقامات آن برای سیطره بر دنیای هوش مصنوعی، کارت برندۀ کرملین نیست؛ بلکه آنان درصدد پیشرفتهای فناورانهای هستند که بهظاهر آمریکا و چین علاقهای برای پیگیری آن ندارند. در سال 2017، کارخانۀ تولید سلاح کلاشینکف اعلام کرد که سوراتنیک، اسلحهای خودکار است که از شبکهای از رشتههای عصبی مشابه با مغز انسان استفاده میکند و به کمک آنها قادر است هدف را شناسایی کرده و بدون کنترل انسانی عمل نماید. این تانک زرهی کوچک، زرادخانهای کامل از تفنگ، موشک ضدهوایی، و توپ است. بسیاری، روسیه را رهبر نظامیسازی حوزۀ هوش مصنوعی میدانند که هدف راهبردی خود را پایان بخشیدن به هژمونی آمریکا در نظام بینالملل و گسترش نفوذ روسیه در فضای شوروی سابق قرار داده است.
اروپا و همچنان بازی در ردۀ قدرتهای میانه
غیبت اروپا بهشدت در حوزۀ هوش مصنوعی احساس میشود. در «نبرد دادهها» معمولاً مجموعۀ اتحادیۀ اروپا به دیگر کشورها، مانند: آمریکا و چین باخته است. کشورهایی با قدرت میانه، مانند: کشورهای اروپایی، بهویژه فرانسه که داعیۀ رهبری اروپایی را دارد، با مقایسه خود با کشورهایی، مانند: آمریکا، روسیه، و چین، حتی از حوزۀ هوش مصنوعی هراس دارند و ترجیح میدهند شکلی دفاعی بهخود بگیرند.
هنوز آمار دقیقی از کشورهای اتحادیۀ اروپا و اینکه کدامیک در این حوزه یا تحقیقات درخصوص آن پیشگام هستند وجود ندارد. بااینحال، این کشورها امیدوارند به لطف حضور استارتاپهای تخصصی در زمینۀ هوش مصنوعی؛ اکوسیستم پویای تحقیقات و مطالعات علمی؛ و داشتن نیروی متخصص و کارآفرین در حوزۀ فناوری، بتوانند بر کشورهایی، مانند: چین که سرمایهگذاری گستردهای در این حوزه دارند، پیشی بگیرند.
این کشورها خود میدانند که هنوز در حوزههای سُنتی هوش مصنوعی، مانند: رباتیک، مشغول به فعالیت هستند و باید بهسرعت وارد حوزۀ سلامت، هوانوردی و حملونقل شوند. زمینههای جدیدی، مانند: انسان ماشینی، و رباتهای تسلیحاتی در امور امنیتی، از دیگر مسائل مهم مورد توجه این کشورها هستند. در این کشورها نیز بار اصلی بر دوش شرکتهای خصوصی و نیروی انسانی دانشگاهی است، بااینحال، رقابت شرکتهایی از کشورهای مختلف، موجب شکوفایی و پیشرفت گستردۀ اروپاییها شده است. نگرانی بزرگ این کشورها، «فرار مغزها» از اروپا به آمریکا و چین است که بههمراهِ نبود ابزارهای مالی، سازمانی، و انسانی در حوزۀ هوش مصنوعی، ممکن است نتایج غیرقابل جبرانی را برای این کشورها جهت پیشرفت در حوزۀ هوش مصنوعی درپی داشته باشد. راهحل پیشنهادی فرانسه تشکیل شورای نوآوری اروپایی بوده است که فضایی را برای هماندیشی متخصصان مختلف در حوزۀ هوش مصنوعی فراهم میکند.
آینده و لزوم پیگیری جدی
بهطور کلی، درحالحاضر هنوز حوزۀ هوش مصنوعی با داستانهای تخیلی آمیخته است و کشورهای مختلف با توجه به فرهنگی که ریشه در این تخیلات دارد در این حوزه واکنش نشان دادهاند؛ برای مثال، بازیگری، مانند: رژیم صهیونیستی بهشدت دغدغۀ پیشرفتهایی را در حوزۀ هوش مصنوعی دارد که منجربه شکلگیری اَبَرانسانهای پیشرفتهای شده و باقی ابنای بشر را به طبقهای بیمصرف تبدیل میکنند. این بازیگر ایدئولوگ، نگران شکلگیری مذاهب جدیدی، مانند دادهگرایی است که به ارادۀ انسانی پایان میبخشد. برای کشورهای مدعی مردمسالاری نیز معمولاً نگرانیهایی درخصوص حفظ حریم خصوصی، و اسارت در دست سازمانهای اطلاعاتی مطرح بوده است. روسیه نیز که به همۀ امور از فیلتر دفع تهدید نگاه میکند، هوش مصنوعی را ابزاری نظامی، حتی برای هک کردن شبکهها و نفوذ در امور داخلی کشورها درنظر گرفته است که از دید مقامات آن، بهنوعی اثرگذاری در نظم بینالمللی تعبیر میشود و با دغدغههای هژمونیک روسیه تطابق دارد. فعالان جامعۀ مدنی نیز نگرانیهایی درخصوص بهوجود آمدن نابرابریای بیسابقه در تاریخ بشریت، چه در میان افراد جوامع و چه در میان ملتهای مختلف دارند؛ زیرا در قرون آینده دارندگان فناوریهای برتر، جایگاه حکمرانی بر سایرین را خواهند یافت. این حکمرانی میتواند جریان افکار عمومی را بهدست بگیرد، سبک زندگی را تغییر دهد، درک تهدید را عوض کند و حتی تصور ما را از جغرافیا دگرگون سازد. بنابراین، ضروری است سیاستگذاران همگام با موج پیشرفتهای فناورانه، و البته برای هدایت آن، تصمیماتی جدی در بخش سیاست داخلی و خارجی اتخاذ کنند.
--- Wirkuttis, Nadine & Hadas Klein. Artificial Intelligence in Cybersecurity, Cyber, Intelligence, and Security, Vol. 1, No. 1, January 2017.
--- For a comprehensive overview, see also Daniel Faggella, “What Is Artificial Intelligence? An Informed Definition-,” TechEmergence.com, October 10, 2016, http://techemergence.com/what-is-artificial-intelligence/
--- Horatiu Boeriu, “BMW Sees New Opportunities in Artificial Intelligence,” BMW BLOG, June 9, 2016, http://www.bmwblog.com/2016/06/09/bmw-sees-new-opportunities-artificial-intelligence/.
--- Stanford University, “Artificial Intelligence and Life in 2030 One Hundred Year Study on Artificial Intelligence | Report of
the 2015 Study Pane.”, p. 14-17
--- DARPA, “Grant Opportunity - DARPA-BAA-16-53 - Explainable Artificial Intelligence (Xai)” (Department of Defense - DARPA - Information Innovation Office, n.d.), http://www.grants.gov/web/grants/view-opportunity. html?oppId=287284.. See also David Gunning, “Explainable Artificial Intelligence (XAI),” DARPA, accessed September 23, 2016, http://www.darpa.mil/program/explainable-artificial-intelligence.
[1]. Own Virtual
[2]. Cyber Threats
[3]. Malicious Acts
[4]. Cyber Kill Chain
[5]. Reconnaissance Phase
[6]. Target System
[7]. Weaponizing
[8]. Target Malicious Code
[9]. Delivery Phase
[10]. Malware
[11]. Exploit Phase
[12]. Integrated Security Approach
[13]. Early Warning
[14]. Countermeasures
[15]. Prevent
[16]. React & Response
[17]. Gathering Information
[18]. Shortcoming in Regulation and Process Management
[19]. Amount of Data
[20]. Heterogeneity of Data
[21]. Constant Adaption
[22]. Velocity
[23]. Processing
[24]. Intrusion Detection Prevention Systems
[25]. Single Systems
[26]. Misuse Approach
[27]. Anomaly Approach
[28]. Normal Networks
[29]. System Behavior
[30]. Patterns of Abnormal or Normal Network
[31]. False Negative
[32]. False Positive
[33]. Throughput
[34]. Lack of Scalability and Resilience
[35]. Network Traffic
[36]. Automation
[37]. Inter-Organizational and Intra-Organizational Process
[38]. Intelligent Techniques
[39]. Cognitive Abilities
[40]. Intelligent Cyber Police Agents
[41]. Knowledge
[42]. Cognitive Entity
[43]. Human-Inspired Artificial Immune Systems
[44]. Counterattack
[45]. Imitated
[46]. Artificial Neural Networks
[47]. Statistical Learning Models
[48]. Network Data Package
[49]. Deep Neural
[50]. Expert Systems
[51]. Knowledge Base
[52]. Inference Machine
[53]. Case-Based Reasoning
[54]. Rule-Based Reasoning
[55]. Knowledge Acquisition Problem
[56]. Warning Massage
[57]. Data Privacy
[58]. Big Data
[59]. Lack of Regulation
[60]. AI Autonomy
[61]. Ethical Concerns