محققان موسسه فناوری ماساچوست به تازگی در تحقیقات خود به این نتیجه رسیدهاند که برخی از سیستمهای هوش مصنوعی انسانها را فریب میدهند.
محققان موسسه فناوری ماساچوست (MIT) زنگ خطر هوش مصنوعی فریبنده را به صدا در آوردهاند. یک مطالعه جدید از سوی محققان این موسسه نشان داد که برخی از سیستمهای هوش مصنوعی که برای صادق بودن طراحی شدهاند، یاد گرفتهاند که انسانها را فریب دهند. تیم تحقیقاتی به رهبری پیتر پارک دریافتند که این سیستمهای هوش مصنوعی میتوانند کارهایی مانند فریب دادن بازیکنان بازی آنلاین یا دور زدن CAPTCHA ( همان دور زدن فیلتر «من ربات نیستم») را انجام دهند. پارک هشدار داد که این نمونههای به ظاهر پیش پا افتاده ممکن است عواقب جبران ناپذیری در دنیای واقعی داشته باشند.
در این مطالعه سیستم هوش مصنوعی سیسرو از متا در ابتدا به عنوان یک حریف منصفانه در یک بازی دیپلماسی مجازی در نظر گرفته شده بود. به گفته پارک، سیسرو در حالی که طبق برنامه ریزی میبایست عملکرد صادقانه از خود نشان میداد، به یک ” فریب کار تمام عیار” تبدیل شد. در طول گیم پلی، سیسرو که در نقش فرانسه بازی میکرد، مخفیانه با آلمان تحت کنترل بازیکن انسان متحد شد تا به انگلستان (بازیکن انسان دیگر) خیانت کند. سیسرو در ابتدا قول داد که از انگلیس محافظت کند و همزمان با آلمان برای حمله همدست شد.
در نمونه دیگر چتبات GPT-4 به دروغ ادعا کرد که دارای اختلال بینایی است و انسانها را برای دور زدن فیلتر CAPTCHA از طرف خود استخدام میکرد.
پارک بر آموزش هوش مصنوعی صادقانه تاکید دارد. برخلاف نرمافزارهای سنتی، سیستمهای هوش مصنوعی یادگیری عمیق از طریق فرآیندی شبیه به اصلاح نژادی توسعه مییابند.در این روش ممکن است رفتار آنها در طول آموزش قابل پیش بینی باشد، اما بعداً از کنترل خارج میشوند.
در این مطالعه تاکید شده است سیستمهای هوش مصنوعی فریبنده در دسته پرخطر قرار گیرند و زمان بیشتری برای مقابله با فریبکاریهای هوش مصنوعی نیاز است. فریب انسانها توسط هوش مصنوعی میتواند کار خطرناک و دردسرسازی باشد. انتظار میرود مطالعات و تحقیقات بیشتر در مورد هوش مصنوعی و کارایی آن توسط محققان انجام گیرد.
نظرات