شرکت OpenAI روز چهارشنبه اعلام کرد که قصد دارد از روش جدیدی برای مقابله با پدیده توهم (Hallucination) هوش مصنوعی استفاده کند. اینروزها پلتفرمهای هوش مصنوعی در حال تولید اطلاعاتی هستند که هر چند متقاعدکننده به نظر میرسند اما در اصل ساختگی و غیرواقعی هستند. این موضوع منجر به پدیدهای به نام توهم یا هذیان هوش مصنوعی شده است که میتواند نگرانکننده باشد؛ بهویژه اینکه انتخابات ریاست جمهوری ۲۰۲۴ آمریکا نیز در پیش است.
ما در ماههای اخیر بعد از معرفی چت بات ChatGPT توسط شرکت OpenAI شاهد رشد روزافزون استفاده از هوش مصنوعی مولد بودیم و گفته میشود که تعداد کاربران ماهانه این چت بات از مرز ۱۰۰ میلیون نفر گذشته است که رکورد سریعترین رشد کاربر را در بین همه اپلیکیشنها شکسته است. مایکروسافت تاکنون بیش از ۱۳ میلیارد دلار در شرکت OpenAI و پروژههای آن سرمایهگذاری کرده و حالا ارزش این شرکت به ۲۹ میلیارد دلار افزایش یافته است.
توهم هوش مصنوعی زمانی اتفاق میافتد که مدلهای زبانی ChatGPT یا گوگل Bard اطلاعات را بهنحوی تولید میکنند که به نظر میرسد کاملا واقعی هستند در حالیکه اصلا اینگونه نیست. برای مثال، چت بات Bard چند ماه پیش ادعایی درباره تلسکوپ جیمز وب کرده بود که کاملا نادرست بود و اخیرا نیز چت بات ChatGPT اطلاعات غیرواقعی تولید کرده است. این مساله میتواند بسیار نگرانکننده باشد و به همین خاطر شرکت OpenAI سعی دارد تا استراتژی جدیدی را اتخاذ کند.
طبق روش جدید این شرکت، مدلهای هوش مصنوعی طوری آموزش میبینند که برای هر مرحله از استدلالهای درست و منطقی که برای رسیدن به یک پاسخ انجام میدهند پاداش بگیرند؛ به جای اینکه صرفا به یک پاسخ نهایی درست پاداش دریافت کنند. این روش، برخلاف رویکرد قبلی که “outcome supervision” نام داشت، “process supervision” نام دارد و تمرکزش به جای نتیجه روی پروسه قرار دارد. این روش باعث خواهد شد تا مدلهای هوش مصنوعی تشویق به پیروی از یک زنجیره «تفکری» شبیه به انسان شوند.
شناسایی و حذف اشتباهات منطقی (توهم) این مدلها، یک مرحله اساسی در پیشرفت هوش مصنوعی است و منجر خواهد شد تا این مدلها به سوالات مختلف پاسخهای منطقی و استدلالی بدهند. در هر حال باید منتظر بمانیم و ببینیم این روش تا چه حد خواهد توانست مشکلات موجود پلتفرمهایی مثل ChatGPT را حل کند.
منبع: CNBC
نظرات