بهتازگی تحقیق جدیدی منتشر شده که از توانایی ترسناک مدلهای هوش مصنوعی برای هک کامپیوترها پرده برمیدارد. در این تحقیق، مشخص شده هوش مصنوعی میتواند خود را مانند ویروس روی کامپیوترها تکثیر کرده و به مهاجم امکان دسترسی به سیستمها بدهد. این موضوع میتواند نگرانیها پیرامون توانایی مدلهای زبانی برای کنترل کامپیوتر کاربران را بیشتر کند.
هوش مصنوعی میتواند مانند ویروس خود را تکثیر کند
این مطالعه توسط شرکت تحقیقاتی Palisade Research انجام شده؛ مؤسسهای که پیشتر در مورد نافرمانی ChatGPT از انجام دستورات، اخباری جنجالی منتشر کرده بود. اینبار نیز تحقیقات جدید شرکت آمریکایی مذکور نشان میدهد چتباتهای هوش مصنوعی میتوانند خود را در سیستم کاربران کپی کنند و به بقا ادامه دهند. کپیهای جدید نیز این زنجیره را آنقدر تکرار میکنند تا مهاجم به هدف خود برسد. پژوهشگران مدلهای زبانی زیر را برای بررسی فرضیه خود مورد بررسی قرار دادند:
- GPT-5 / 5.1 / 5.4
- Claude Opus 4 / 4.5 / 4.6
- Qwen

آزمایش بهنحوی انجام شد که مدلهای زبانی، عمداً مقابل کامپیوترهایی قرار گرفتند که نقصهای امنیتی مختلفی در آنها وجود داشت. محققان از هرکدام از مدلهای هوش مصنوعی درخواست کردند یک نرمافزار سفارشی بهنام «Agent Harness» را طراحی کنند. این نرمافزار اجازه اجرای دستورات و تعامل با کامپیوترهای دیگر را به مدل زبانی میدهد.
روند این آزمایش به دو مرحله تقسیم شد. در مرحله اول، مدلهای GPT و Claude موظف شدند وارد کامپیوترها شده و به آنها نفوذ کنند. در مرحله بعد نیز از مدل Qwen خواسته شد تا خودش را در سیستم قربانی کپی کند. دلیل عدم استفاده از مدلهای GPT و Claude برای کپی کردن، عدم دسترسی عمومی به کد منبع و فایلهای آنها بود. با تکمیل این روند، هوش مصنوعی میتوانست وارد کامپیوتر بعدی شده و همین کار را ادامه دهد.

در میانه تست، مدل زبانی Qwen 3.6 با ۲۷ میلیارد پارامتر، توانست با یک پرامپت در ۴ کامپیوتر حاضر در کانادا، آمریکا، هند و فنلاند پخش شود. این هکِ زنجیرهای تنها در ۲ ساعت و ۴۱ دقیقه و البته بدون کمک عامل انسانی انجام شد. تیم Palisade میگوید این آزمایش پس از سهبار تکرار متوقف شد؛ هرچند ظاهراً کپی نهایی نیز همچنان بهدرستی کار میکرد و میتوانست سیستمهای بیشتری را آلوده کند.
موفقیت مدل Qwen 3.6 27B در ایجاد کپی به ۳۳ درصد رسید. مدلهای Claude Opus 4.6 و GPT 5.4 نیز بهترتیب ۸۱ و ۳۳ درصد موفقیت را در روند نفوذ به سیستمها ثبت کردند. پژوهشگران معتقدند با چنین آمار و ارقامی، باید نگران کنترل سیستمهای هوش مصنوعی قدرتمند بود. پیشتر شرکت آنتروپیک با انتشار Claude Mythos اذعان کرده بود که این مدل، بیشاز حد برای انتشار عمومی خطرناک خواهد بود.
بهگفته تیم امنیتی ناظر بر آزمایش، این اولین باری است که مدلهای هوش مصنوعی نشان دادهاند قادر به بهرهبرداری از آسیبپذیریها برای کپی خود روی سیستمهای جدید هستند. هرچند در دنیای واقعی شاید وقوع چنین اتفاقی بسیار سختتر باشد؛ اما همچنان بهرهمندی هوش مصنوعی از توانایی هک و تکثیر خود، میتواند به خطری جدی تبدیل شود.
نظرات کاربران