شمشیر دولبه هوش مصنوعی برای امنیت سایبری

بررسی تأثیر توسعه ابزارهای هوش مصنوعی بر حوزه امنیت سایبری حكایت از آن دارد كه این فناوری جدید می‌تواند در آینده چهره حفاظت از داده را تغییر دهد و به منزله مدافع و مهاجم در این حوزه عمل كند.

1402/03/24
|
08:45
|

به گزارش رادیو پیام از خبرگزاری مهر، گروه فناوری‌های نوین: طی سال‌های گذشته هوش مصنوعی مولد (AI) به‌عنوان ابزاری قدرتمند و مؤثر در زمینه‌های مختلف، از جمله امنیت سایبری ظهور كرده است. این فناوری كه بر اساس الگوریتم‌های یادگیری عمیق عمل می‌كند تواناهایی متعدد مانند تولید محتوای واقعی و غیرواقعی به‌صورت متن، تصویر و ویدئو دارد.

درحالی‌كه هوش مصنوعی مولد نویدبخش افزایش امنیت سایبری است، قادر به ایجاد مخاطرات جدی برای این حوزه نیز هست. تكنولوژی و پیشرفت‌هایش باعث قدرتمندتر شدن مجرمان سایبری شده و خدماتی را به آن‌ها ارائه می‌دهد. یكی از این چالش‌ها استفاده از مدل‌های زبانی مانند «ChatGPT» برای نوشتن كدهای مخرب است.

76 درصد از شركت‌ها بر اساس آمار فوربس و تحقیقات شركت بلك‌بری، هوش مصنوعی و یادگیری ماشینی را در اولویت‌های بودجه مختص فناوری اطلاعات خود قرار داده اند تا بتوانند حجم زیادی از داده‌ها را برای شناسایی و كاهش تهدیدات سایبری تجزیه تحلیل كنند؛ در نتیجه هوش مصنوعی هم برای مجرمین سایبری و هم مبارزه با جرایم سایبری ابزاری ضروری است.

دولت‌ها و شركت‌ها برای مدیریت بهتر آینده بهتر است مخاطرات و كاربردهای هوش مصنوعی را در امنیت سایبری شناخته و راه‌هایی برای مقابله با چالش‌های آن در نظر بگیرند. در ادامه به بخشی از فرصت‌ها و مخاطرات هوش مصنوعی برای امنیت سایبری اشاره می‌كنیم.


*شناسایی و تجزیه تحلیل بدافزار

هوش مصنوعی مولد قادر است با تجزیه‌وتحلیل نمونه‌هایی از بدافزارها، روش و الگوریتم آن‌ها را دریافته و با ارائه آن به متخصصان و تحلیلگران امنیتی بسیار مؤثر عمل كند. متخصصان و تحلیلگران امنیتی با استفاده از الگوهای تحلیل شده توسط هوش مصنوعی مولد می‌توانند بدافزارها را بهتر درك كرده و اقدامات دفاعی متقابل و مؤثر و روش‌های دفاعی پیشگیرانه جدیدی را بر اساس الگوی عملكردی از بدافزارها كه هوش مصنوعی به آن‌ها ارائه كرده تدوین كنند. اكثر تصمیم‌گیرندگان حوزه فناوری اطلاعات قصد دارند روی امنیت سایبری مبتنی بر هوش مصنوعی سرمایه‌گذاری كنند.

*طراحی نمونه‌های متخاصم

یكی دیگر از توانایی‌های هوش مصنوعی طراحی نمونه‌های بدافزارهای متخاصم است كه به طور اختصاصی برای فریب هوش مصنوعی طراحی شده‌اند. با تولید چنین نمونه‌هایی متخصصان می‌توانند تدابیر امنیتی لازم را برای محافظت از مدل‌ها و سیستم‌های هوش مصنوعی در برابر حملات خصمانه ایجاد كنند. این تدابیر می‌تواند منجر به تقویت دفاعی و استحكام هوش مصنوعی در برابر حملات پیچیده متخاصمان و مجرمین سایبری شود.

*شكستن رمز عبور و احراز هویت

هوش مصنوعی می‌تواند برای سخت كردن تكنیك‌های شستن رمز عبور مجرمان سایبری با تحلیل و بررسی رفتار كاربران، تركیبات رمز عبور احتمالی را در نظر گرفته و مدل‌های جدید رمز عبور كه شكستن آن‌ها سخت‌تر باشد را ایجاد كرده و سیستم‌های احراز هویت قوی‌تری طراحی كند. این قابلیت‌های هوش مصنوعی می‌تواند به افزایش امنیت سایبری كمك كند.

*ارزیابی آسیب‌پذیری و تشخیص نفوذ شبكه

هوش مصنوعی می‌تواند آسیب‌پذیری‌ها را در سیستم‌های نرم‌افزاری شناسایی كرده و توصیه‌هایی برای برطرف‌كردن آن دهد و از این نظر می‌تواند از آنتی‌ویروس‌ها قدرتمندتر عمل كند؛ زیرا زمان و تلاش موردنیاز برای شناسایی و رفع نقص‌های امنیتی را كاهش می‌دهد و با عملكرد بهینه خود نسبت به ابزارهای قدیمی، وضعیت امنیتی كلی سیستم‌ها و برنامه‌ها را بهبود می‌بخشد. از طرف دیگر هوش مصنوعی رفتارهای مشكوكی كه نشان‌دهنده نفوذ در شبكه است را تشخیص داده و به آن‌ها پاسخ مناسب داده و از زیر ساخت‌های حیاتی محافظت كنند. به‌عبارت‌دیگر هوش مصنوعی امكان نظارت مستمر خودكار را فراهم می‌كند كه برای امنیت سایبری مدرن امری ضروری است.

خطرات و آسیب‌های هوش مصنوعی برای امنیت سایبری

* فیشینگ پیشرفته و حملات مهندسی اجتماعی

یكی از خطرات هوش مصنوعی مولد زبانی، توانایی ایجاد ایمیل‌های فیشینگ، پیام‌ها یا تماس‌های تلفنی بسیار قانع‌كننده است. این یك زنگ خطر بزرگ برای افراد سازمان و حتی دولت‌هاست زیرا مهاجمان از طریق فیشینگ می‌توانند با فریب كاربران دست به اقدامات مخرب و فاش كردن اطلاعات حساس بزنند. پیچیدگی هوش مصنوعی مولد اثربخشی مهندسی اجتماعی را تقویت كرده و مقاومت در برابر آن‌ها را سخت‌تر می‌كند. تربیت جامعه‌ای با سواد سایبری و رسانه‌ای بالا و آگاه به اصول مهندسی اجتماعی برای جلوگیری از فریب‌خوردن از ابزار فناورانه مدرن، یكی از نیازهای بشر امروز است.

*مطالب و اطلاعات جعلی عمیق

هوش مصنوعی مولد می‌تواند محتوای جعلی عمیق (deep fake) بسیار واقعی با فرمت‌های تصویر، ویدئو و صدا تولید كند. سوءاستفاده‌كنندگان با استفاده از این قابلیت هوش مصنوعی می‌توانند با انتشار اطلاعات نادرست افكار عمومی را دستكاری كرده و حتی هویت افراد را جعل كنند. دیپ‌فیك می‌تواند عواقبی شدید؛ مانند آسیب‌زدن به آبرو، سو استفاده‌های سیاسی داشته باشد و در نهایت به اعتماد عمومی خدشه‌ای جبران‌ناپذیر وارد كند.

*دورزدن سیستم‌های امنیتی سنتی

مهاجمان می‌توانند با طراحی بدافزارهایی با سیستم پیچیده، ابزارهای امنیتی سنتی مانند آنتی‌ویروس‌ها را دور بزنند و با طراحی و تولید بدافزارهایی كه دائماً درحال‌توسعه و تكامل‌اند و از شناسایی طفره می‌روند، حملاتی پیچیده انجام دهند.

*پیامدهای اخلاقی و حقوقی

استفاده از هوش مصنوعی مولد در امنیت سایبری، باعث نگرانی‌هایی در مورد نقض حریم خصوصی افراد و تصمیم‌گیری‌های مغرضانه این ابزار شده است. به‌عبارت‌دیگر هوش مصنوعی مولد قادر است امنیت كاربران را در فضای سایبری تهدید كند.

لازم است تا چارچوب‌های قانونی پیرامون مسئولیت‌پذیری این ابزار جدید فناوری ایجاد شده و هم‌زمان با پیشرفت‌های هوش مصنوعی به‌روز شوند تا با ایجاد هنجارها و ضوابط ضروری، تعهدات آن را افزایش دهند.


هوش مصنوعی و آینده امنیت سایبری

«امیرعباس ركنی»، دانشجوی دكتری امنیت ملی دانشگاه عالی دفاع ملی و پژوهشگر پژوهشگاه فضای مجازی درباره كم و كیف تأثیر هوش مصنوعی بر امنیت سایبری به خبرنگار مهر گفت: توسعه و پیشرفت مداوم هوش مصنوعی در شرایط كنونی حاكم برجهان فناوری، تأثیرات قابل‌توجهی بر حوزه امنیت سایبری گذاشته است و انتظار می‌رود این فرایند در آینده جدی‌تر و مؤثرتر به پیش برود. به‌طوركلی، باید توجه داشت كه فناوری هوش مصنوعی همانند یك سكه دو رو دارد و پیشرفت‌ها و توسعه‌های آن می‌تواند منجر به شكل‌گیری مجموعه‌ای از فرصت‌ها و تهدیدهایی برای حوزه امنیت سایبری بشود.

وی افزود: تا همین جای كار هم باید اذعان داشت كه هوش مصنوعی بسیاری از مفاهیم و فرایندها را در عرصه امنیت سایبری تحت تأثیر قرار داده و یك پدیده تحول‌آفرین بوده است. ما در جهان فناوری كمتر پدیده‌ای را می‌توانیم همچون هوش مصنوعی پیدا كنیم كه در مدت‌زمان كوتاهی بتواند یك پارادایم مختص به خود خلق كرده و در مبانی و اصول مسلط و مستقر دگرگونی ایجاد كند. هوش مصنوعی دقیقاً همین اقدام را در سال‌های اخیر انجام داده است. هنگامی كه ما در خصوص امنیت سایبری می‌خواهیم صحبت كنیم، باید توجه داشته باشیم كه برخی مؤلفه‌ها نقش اساسی دارند، مثل نیروی انسانی متخصص؛ نیروی انسانی خطای انسانی را ایجاب می‌كند و به عبارتی التزام به شیء التزام به لوازم آن شیء نیز هست و یك ملازمه‌ای در اینجا وجود دارد. در حالی كه می‌بینیم هوش مصنوعی با خودكار سازی بسیاری از فرایندها، نیاز به نیروی انسانی را به حداقل رسانده و عین حال خطا را نیز به حداقل می‌رساند. بر همین اساس است كه می گویم هوش مصنوعی منجر به ایجاد یك تغییر پارادایم در جهان فناوری شده است.

وی در ادامه به مرور مهم‌ترین تغییراتی كه توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد پرداخت و افزود: اگر بخواهیم مروری بر مهم‌ترین تغییراتی كه توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد، داشته باشیم، به این موارد می‌توانیم اشاره كنیم: اول؛ تشخیص و پاسخ تهدید به صورت پیشرفته. دوم ارزیابی آسیب‌پذیری به صورت بهبودیافته و سوم عملیات امنیتی خودكار.

این كارشناس امنیت فضای مجازی توضیح داد: هوش مصنوعی این پتانسیل را دارد كه به‌طور قابل‌توجهی توانایی‌های تشخیص تهدید و پاسخ را بهبود بخشد. الگوریتم‌های یادگیری ماشینی می‌توانند حجم وسیعی از داده‌ها، از جمله ترافیك شبكه، رفتار كاربر و گزارش‌های سیستم را تجزیه و تحلیل كنند تا الگوها و ناهنجاری‌هایی را كه ممكن است نشان‌دهنده حملات سایبری باشد، شناسایی كنند. سیستم‌های مجهز به هوش مصنوعی می‌توانند از داده‌های تاریخی بیاموزند و با تهدیدات جدید سازگار شوند و امكان تشخیص سریع‌تر و دقیق‌تر حوادث امنیتی را فراهم كنند. علاوه بر این، هوش مصنوعی می‌تواند با پیشنهاد اقدامات اصلاحی یا حتی انجام اقدامات مستقل برای مهار و كاهش تهدیدها، پاسخ به حادثه را خودكار كند.

وی درباره موضوع ارزیابی آسیب‌پذیری به صورت بهبودیافته به كمك هوش مصنوعی گفت: هوش مصنوعی می‌تواند برای شناسایی مؤثرتر آسیب‌پذیری‌ها در سیستم‌ها و شبكه‌های نرم‌افزاری استفاده شود. الگوریتم‌های هوش مصنوعی می‌توانند كد، پیكربندی‌های سیستم و شبكه را برای شناسایی نقاط ضعف احتمالی و شكاف‌های امنیتی تجزیه و تحلیل كنند. این می‌تواند به سازمان‌ها كمك كند تا وضعیت امنیتی خود را تقویت كنند.

كرمی ادامه داد: هوش مصنوعی می‌تواند عملیات امنیتی مختلف را خودكار كند، بار كاری تحلیلگران انسانی را كاهش داده و زمان پاسخگویی سریع‌تر را ممكن بسازد. برای مثال، هوش مصنوعی می‌تواند وظایفی مانند تجزیه و تحلیل گزارش، شناسایی تهدید و اسكن آسیب‌پذیری را خودكار كند. این نه تنها كارایی عملیاتی را بهبود می‌بخشد، بلكه به تحلیلگران انسانی اجازه می‌دهد تا بر چالش‌های امنیتی پیچیده‌تر و استراتژیك تر تمركز كنند.

پژوهشگر فضای مجازی در خصوص خطراتی كه هوش مصنوعی برای امنیت سایبری دارد نیز گفت: از سوی دیگر، باید توجه داشت كه هوش مصنوعی می‌تواند به شكل منفی نیز امنیت سایبری را تحت تأثیر و تغییر قرار دهد، به عنوان مثال با رواج بیشتر به‌كارگیری هوش مصنوعی در امنیت سایبری، نگرانی فزاینده‌ای در مورد استفاده بالقوه از هوش مصنوعی توسط دشمنان برای انجام حملات پیچیده سایبری وجود دارد. تكنیك‌های هوش مصنوعی متخاصم را می‌توان برای فرار از تمهیدات امنیتی سنتی، مانند تولید بدافزار چندشكلی یا راه‌اندازی حملات هدفمند مهندسی اجتماعی، به كار برد. برای مقابله با این تهدیدات، دفاع‌های مبتنی بر هوش مصنوعی، از جمله سیستم‌های تشخیص نفوذ فعال، فناوری‌های فریب و مكانیسم‌های احراز هویت مبتنی بر هوش مصنوعی درحال‌توسعه هستند.»

وی ضمن اشاره به پیامدهای اخلاقی و ملاحظات حریم خصوصی در این حوزه توضیح داد: پیامدهای اخلاقی و ملاحظات حریم خصوصی را نیز باید مورد توجه قرار داد. افزایش اتكا به هوش مصنوعی در امنیت سایبری نگرانی‌های اخلاقی و چالش‌های حریم خصوصی را افزایش می‌دهد. سیستم‌های مجهز به هوش مصنوعی اغلب برای آموزش و تجزیه و تحلیل نیاز به دسترسی به حجم زیادی از داده‌ها دارند. اطمینان از حفظ حریم خصوصی و امنیت این داده‌ها برای جلوگیری از دسترسی یا سوءاستفاده غیرمجاز بسیار مهم است. علاوه بر این، ملاحظات اخلاقی در مورد استفاده از هوش مصنوعی در تصمیم‌گیری‌های مرتبط با امنیت، مانند اقدامات پاسخ خودكار به حادثه یا اشتراك‌گذاری اطلاعات تهدید مبتنی بر هوش مصنوعی وجود دارد.

وی در ادامه گفت: عدم تفسیرپذیری نیز از دیگر تأثیرات منفی هوش مصنوعی در حوزه امنیت سایبری است. برخی از الگوریتم‌های هوش مصنوعی، به‌ویژه مدل‌های یادگیری عمیق، به‌عنوان جعبه‌های سیاه عمل می‌كنند و درك و توضیح فرآیند تصمیم‌گیری آن‌ها را به چالش می‌كشند. این عدم تفسیرپذیری می‌تواند مانع اعتماد و پذیرش سیستم‌های هوش مصنوعی در سناریوهای تصمیم‌گیری امنیتی و حیاتی شود.

پژوهشگر پژوهشگاه فضای مجازی افزود: به طور كلی، باید بگویم كه اتكای بیش‌ازحد به هوش مصنوعی می‌تواند پاشنه آشیل امنیت سایبری باشد. در حالی كه هوش مصنوعی می‌تواند امنیت سایبری را تا حد زیادی افزایش دهد، اتكای بیش‌ازحد به آن بدون نظارت انسانی می‌تواند مخاطره‌آمیز باشد. تخصص انسانی هنوز در درك زمینه تهدیدها، انطباق با تكنیك‌های حمله در حال تكامل و تصمیم‌گیری‌های حیاتی، ضروری است. به همین دلیل است كه صاحب‌نظران این حوزه تأكید می‌كنند كه برای استفاده از فرصت‌های ارائه شده توسط هوش مصنوعی در امنیت سایبری و درعین‌حال كاهش خطرات، اتخاذ یك رویكرد كل‌نگرانه بسیار مهم است. این شامل ارزیابی منظم سیستم‌های هوش مصنوعی برای شناسایی و كاهش سوگیری‌ها و آسیب‌پذیری‌ها، اطمینان از شفافیت و تفسیرپذیری مدل‌های هوش مصنوعی، حفاظت از حریم خصوصی داده‌ها و حفظ تعادل بین هوش انسانی و قابلیت‌های هوش مصنوعی است.

تنظیم‌گری هوش مصنوعی و امنیت سایبری

ركنی با اشاره به ابزارهای متعدد سیاست‌گذاران و قانون‌گذاران برای كاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری، گفت: سیاست‌گذاران و قانون‌گذاران ابزارهای متعددی برای كاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری در اختیار دارند. این ابزارها می‌توانند به ایجاد دستورالعمل‌ها، استانداردها و چارچوب‌های قانونی كمك كنند كه استقرار مسئولانه و ایمن هوش مصنوعی را ترویج می‌كنند. با نگاهی به تجربیات بسیاری از كشورهای پیشگام در حوزه هوش مصنوعی، می‌توانیم چندین ابزار كلیدی را به منظور تنظیم‌گری هوش مصنوعی شناسایی كنیم.

وی در ادامه مهم‌ترین ابزارهای یاد شده را چنین برشمرد:

«قانون و مقررات: قانون‌گذاران می‌توانند قوانین و مقرراتی را ایجاد كنند كه به طور خاص به توسعه و استقرار هوش مصنوعی در زمینه امنیت سایبری می‌پردازد. این مقررات می‌تواند جنبه‌های مختلفی از جمله حفظ حریم خصوصی داده‌ها، الزامات امنیتی، پاسخگویی، شفافیت و ملاحظات اخلاقی را پوشش دهد. چنین قوانینی تضمین می‌كند كه سیستم‌های هوش مصنوعی به‌گونه‌ای توسعه یافته و مورد استفاده قرار می‌گیرند كه از منافع افراد و سازمان‌ها محافظت می‌كند.

به‌روزرسانی و تكمیل قوانین ناظر بر حفاظت از داده‌ها و حریم خصوصی: قانون‌گذاران می‌توانند قوانین حفاظت از داده‌ها و حریم خصوصی را برای محافظت از اطلاعات شخصی و حساس مورد استفاده در سیستم‌های هوش مصنوعی به‌روزرسانی و تقویت كنند. این قوانین می‌توانند دستورالعمل‌هایی را برای جمع‌آوری، ذخیره‌سازی، پردازش و اشتراك‌گذاری داده‌ها ایجاد كنند و اطمینان حاصل كنند كه سیستم‌های هوش مصنوعی بر اساس حریم خصوصی و رضایت داده‌ها ساخته شده‌اند.

برنامه‌های صدور گواهینامه: تنظیم‌كننده‌ها می‌توانند برنامه‌های صدور گواهینامه یا چارچوب‌های انطباق را برای سیستم‌های هوش مصنوعی مورد استفاده در امنیت سایبری توسعه دهند. این برنامه‌ها می‌توانند استانداردها و الزامات امنیتی، حریم خصوصی و ملاحظات اخلاقی را تعیین كنند. با تأیید سیستم‌های هوش مصنوعی كه این استانداردها را برآورده می‌كنند، تنظیم‌كننده‌ها می‌توانند اطمینان حاصل كنند كه سازمان‌ها شیوه‌های هوش مصنوعی مسئولانه را اتخاذ می‌كنند.

دستورالعمل‌های اخلاقی و كدهای رفتاری: تنظیم‌گران می‌توانند با كارشناسان صنعت هوش مصنوعی همكاری كنند تا دستورالعمل‌های اخلاقی و كدهای رفتاری را برای توسعه‌دهندگان و كاربران هوش مصنوعی در زمینه امنیت سایبری ایجاد كنند. این دستورالعمل‌ها می‌توانند شیوه‌های هوش مصنوعی، از جمله شفافیت، انصاف، پاسخگویی و حمایت از حقوق بشر را مشخص كنند. پیروی از چنین دستورالعمل‌هایی می‌تواند به كاهش خطرات مرتبط با توسعه و استقرار هوش مصنوعی كمك كند.

مكانیزم‌های حسابرسی و پاسخگویی: قانون‌گذاران می‌توانند مكانیزم‌های حسابرسی و پاسخگویی را برای اطمینان از انطباق با مقررات و استانداردهای مرتبط با هوش مصنوعی ایجاد كنند. این مكانیسم‌ها می‌توانند شامل ارزیابی‌های منظم، ممیزی‌های شخص ثالث و الزامات گزارش‌دهی برای ارزیابی عملكردهای امنیتی و اخلاقی سیستم‌های هوش مصنوعی مورد استفاده در امنیت سایبری باشند.»

وی در پایان تأكید كرد كه تعادل بین ایجاد نوآوری و محافظت در برابر خطرات مرتبط با هوش مصنوعی نكته‌ای بسیار حائز اهمیت برای قانون‌گذاران است و گفت: با به كارگیری این ابزارها، آن‌ها می‌توانند محیطی ایجاد كنند كه توسعه هوش مصنوعی مسئولانه را ارتقا دهد، از حریم خصوصی و امنیت محافظت كند و اعتماد به فناوری‌های هوش مصنوعی مورد استفاده در امنیت سایبری را تقویت كند.


كنفرانس امنیت سایبری

به گزارش مهر، سال گذشته در حاشیه كنفرانس سالانه امنیت سایبری سانفرانسیسكو (RSA)، شركت فناوری اطلاعات (Zscaler) از هوش مصنوعی به‌عنوان عاملی در افزایش 47 درصدی حملات فیشینگ در سال 2022 یادكرد. كارشناسان، مدیران و مقامات دولتی نگران‌اند كه این تازه آغاز راه است، زیرا مهاجمان می‌توانند از هوش مصنوعی برای نوشتن نرم‌افزارهایی استفاده كنند كه به روش‌های جدید وارد شبكه سازمان شده و از طریق فرایندهایی كه طبیعی به نظر می‌رسند، داده‌ها را به‌صورت غیرقانونی به بیرون منتقل كنند.

كارشناسان در این كنفرانس همچنین تأكید داشتند كه هوش مصنوعی به بالابردن امنیت سیستم‌های سازمان‌ها نیز كمك می‌كند. این فناوری با بررسی ناهنجاری‌ها و جستجوی آسیب‌پذیری‌های ناشناخته موجب شناسایی بهتر و در نتیجه اصلاح نقطه‌ضعف‌ها می‌شود.

چه اقشاری باید به فكر اقدامات جدی باشند؟

شناخت خطرات و مزایای بالقوه هوش مصنوعی در امنیت سایبری برای صاحبان كسب‌وكار، دولت‌ها و سازمان‌های مبارزه با جرایم سایبری بسیار مهم است. با گسترش استفاده از هوش مصنوعی و محبوبیت مدل‌های زبانی مولد مانند «ChatGPT» بین مردم و چشم‌اندازهایی مانند هوشمند كردن شهرها، مدیران باید پیامدهای اخلاقی، سایبری و اجتماعی راه‌حل‌های مبتنی بر هوش مصنوعی را در نظر بگیرند. درحالی‌كه هوشیاری در برابر مورد حمله هوش مصنوعی و ابزار و تسلیحات آن قرارگرفتن بسیار مهم است، به همان اندازه یا حتی بیشتر از آن مهم است كه پتانسیل هوش مصنوعی در بهبود امنیت سایبری را در نظر گرفته و نفع كل جامعه از آن استفاده كنیم.

دسترسی سریع