استفاده تروریست‌ها از هوش مصنوعی به روایت آسوشیتدپرس

هوش مصنوعی؛ یک جایزه برای تروریست‌ های داعش؟ | گروه‌های شبه‌نظامی درحال آزمون و خطا هستند

سرویس: اخبار سیاسی کدخبر: ۷۵۹۴۹۸
اقتصادنیوز:احتمال استفاده گروه‌های شبه‌نظامی از هوش مصنوعی برای کمک به تولید سلاح‌های بیولوژیک یا شیمیایی است تا کمبود تخصص فنی خود را جبران کنند نگران کننده است. این خطر در ارزیابی به‌روز تهدیدات داخلی وزارت امنیت داخلی آمریکا که اوایل امسال منتشر شد، ذکر شده است.
هوش مصنوعی؛ یک جایزه برای تروریست‌ های داعش؟ | گروه‌های شبه‌نظامی درحال آزمون و خطا هستند

به گزارش اقتصادنیوز، در حالی که جهان با شتاب به دنبال مهار قدرت هوش مصنوعی است، گروه‌های شبه‌نظامی، حتی اگر دقیقا ندانند با آن چه کار کنند—در حال آزمایش این فناوری هستند. به گفته کارشناسان امنیت ملی و نهادهای اطلاعاتی، برای سازمان‌های افراطی، هوش مصنوعی می‌تواند ابزاری قدرتمند برای جذب نیروهای جدید، تولید انبوه تصاویر دیپ‌فیکِ واقع‌گرایانه و ارتقای حملات سایبری باشد.

آسوشیتدپرس در گزارشی نوشت: ماه گذشته فردی در وب‌سایتی حامی داعش از دیگر هواداران این گروه خواست که هوش مصنوعی را به بخشی از عملیات خود تبدیل کنند. این کاربر به انگلیسی نوشت: یکی از بهترین ویژگی‌های هوش مصنوعی این است که استفاده از آن به شدت آسان است.

او ادامه داد: برخی سازمان‌های اطلاعاتی نگران‌اند که هوش مصنوعی به جذب نیرو کمک کند. پس کابوس‌هایشان را به واقعیت تبدیل کنید.

به گفته کارشناسان امنیت ملی، داعش که سال‌ها پیش بخش‌هایی از عراق و سوریه را در اختیار داشت؛ اکنون به شبکه‌ای غیرمتمرکز از گروه‌های شبه‌نظامی با ایدئولوژی خشونت‌بار مشترک تبدیل شده، سال‌هاست دریافته که شبکه‌های اجتماعی می‌توانند ابزار قدرتمندی برای جذب نیرو و انتشار اطلاعات نادرست باشند؛ بنابراین تعجب‌آور نیست که این گروه در حال آزمودن هوش مصنوعی است.

داعش

چرا هوش مصنوعی یک جایزه برای داعش است؟

برای گروه‌های افراطی مانند داعش با پیوندهای گسسته و منابع مالی کم،‌هوش مصنوعی می‌تواند برای تولید انبوه تبلیغات یا دیپ‌فیک‌ها به کار رود و دامنه دسترسی و نفوذ آن‌ها را به‌طور چشمگیری گسترش دهد.

جان لالیبرت، پژوهشگر پیشین آسیب‌پذیری در آژانس امنیت ملی آمریکا و مدیرعامل کنونی شرکت امنیت سایبری کلیر وکتور می‌گوید: برای هر دشمنی، هوش مصنوعی انجام کارها را بسیار آسان‌تر می‌کند. با هوش مصنوعی، حتی یک گروه کوچک که پول زیادی ندارد هم می‌تواند اثرگذار باشد.

گروه‌های افراطی در حال آزمون و خطا هستند

گروه‌های شبه‌نظامی به محض آن‌که برنامه‌هایی مانند چت جی‌پی‌تی به‌طور گسترده در دسترس قرار گرفتند، استفاده از هوش مصنوعی را آغاز کردند. در سال‌های بعد، آن‌ها به‌طور فزاینده‌ای از ابزارهای هوش مصنوعی مولد برای ساخت عکس‌ها و ویدئوهای بسیار واقع‌گرایانه استفاده کرده‌اند.

وقتی این محتوای جعلی به الگوریتم‌های شبکه‌های اجتماعی متصل می‌شود، می‌تواند به جذب نیروهای جدید کمک کند، دشمنان را سردرگم یا مرعوب سازد و تبلیغات را در مقیاسی گسترش دهد که تا چند سال پیش تصورناپذیر بود.

دو سال پیش، چنین گروه‌هایی تصاویر جعلی از جنگ اسرائیل و حماس منتشر کردند. این تصاویر خشم و قطبی‌سازی ایجاد کرد و در عین حال واقعیت‌های هولناک جنگ را پنهان ساخت. 

نمونه‌ای مشابه سال گذشته پس از حمله‌ای رخ داد که یک شاخه وابسته به داعش مسئولیت آن را بر عهده گرفت و نزدیک به ۱۴۰ نفر را در یک سالن کنسرت در روسیه کشت. در روزهای پس از تیراندازی، ویدئوهای تبلیغاتی ساخته‌شده با هوش مصنوعی به‌طور گسترده در تالارهای گفت‌وگو و شبکه‌های اجتماعی پخش شد و در پی جذب نیروهای جدید بود.

بر اساس تحقیقات شرکتی که فعالیت‌های افراطی را رصد می‌کند، داعش همچنین دیپ‌فیک‌های صوتی از رهبران خود ساخته است که امکان ترجمه به زبان‌های دیگر را هم دارد.

به گفته مارکوس فاولر، مأمور سابق سیا، این گروه‌ها هنوز از چین و روسیه عقب‌ترند و کاربردهای پیچیده‌تر هوش مصنوعی را «آرمان‌گرایانه» می‌بینند.

اما به گفته او، خطرات آن‌قدر بالاست که نمی‌توان نادیده‌شان گرفت و با گسترش استفاده از هوش مصنوعی ارزان و قدرتمند، این تهدیدها احتمالا افزایش خواهد یافت.

هوش مصنوعی

هکرها در کمین‌اند

هکرها فعلا از صدا و ویدئوی مصنوعی برای حملات فیشینگ استفاده می‌کنند؛ حملاتی که در آن‌ها می‌کوشند خود را به‌جای مدیران ارشد کسب‌وکار یا مقامات دولتی جا بزنند تا به شبکه‌های حساس دسترسی پیدا کنند. آن‌ها همچنین می‌توانند از هوش مصنوعی برای نوشتن کدهای مخرب یا خودکارسازی بخش‌هایی از حملات سایبری بهره ببرند.

نگران‌کننده‌تر، احتمال استفاده گروه‌های شبه‌نظامی از هوش مصنوعی برای کمک به تولید سلاح‌های بیولوژیک یا شیمیایی است تا کمبود تخصص فنی خود را جبران کنند. این خطر در ارزیابی به‌روز تهدیدات داخلی وزارت امنیت داخلی آمریکا که اوایل امسال منتشر شد، ذکر شده است.

فاولر می‌گوید: داعش خیلی زود وارد توییتر شد و راه‌هایی برای استفاده به نفع خود از شبکه‌های اجتماعی پیدا کرد. آن‌ها همیشه به دنبال چیز بعدی هستند تا به زرادخانه‌شان اضافه کنند.

مقابله با تهدیدی رو به رشد

قانون‌گذاران چندین پیشنهاد مطرح کرده‌اند و می‌گویند نیاز فوری به اقدام وجود دارد. سناتور مارک وارنر از ویرجینیا، دموکرات ارشد کمیته اطلاعات سنا، گفت ایالات متحده باید اشتراک‌گذاری اطلاعات میان توسعه‌دهندگان هوش مصنوعی درباره نحوه استفاده افراد مضر از نظر اجتماع از محصولاتشان(چه افراط‌گرایان، چه هکرهای جنایتکار یا جاسوسان خارجی) را آسان‌تر کند.

او گفت: از اواخر ۲۰۲۲ و با انتشار عمومی چت جی‌پی‌تی ، روشن بود که همان شیفتگی و آزمایش‌گری که عموم مردم نسبت به هوش مصنوعی مولد دارند، در میان طیفی از بازیگران مخرب هم وجود خواهد داشت.

در یک جلسه استماع اخیر درباره تهدیدات افراطی، نمایندگان مجلس دریافتند که داعش و القاعده کارگاه‌های آموزشی برگزار کرده‌اند تا به حامیان خود استفاده از هوش مصنوعی را بیاموزند.

قانونی که ماه گذشته از مجلس نمایندگان آمریکا عبور کرد، وزارت امنیت داخلی را ملزم می‌کند هر سال خطرات هوش مصنوعی ناشی از چنین گروه‌هایی را ارزیابی کند.

آگوست فلوگر، نماینده جمهوری‌خواه تگزاس و پیشنهاددهنده این طرح، گفت محافظت در برابر استفاده مخرب از هوش مصنوعی تفاوتی با آمادگی برای حملات متعارف ندارد. 

ارسال نظر

پربازدیدترین‌ها
کارگزاری مفید