محققان دانشگاه هاروارد و آزمایشگاه MIT-IBM Watson AI ابزاری را برای کمک به مبارزه با گسترش اطلاعات نادرست ایجاد کردهاند. بر اساس گزارش مردادماه (ژوئن) این تیم، این ابزار با نام GLTR (اتاق تست مدلهای زبانی غولپیکر) از هوش مصنوعی برای تشخیص الگوهای متنی بسیار دقیق استفاده میکند.
GLTR کلمات موجود در متن را بر اساس احتمال دوباره ظاهر شدن آنها، برجسته میکند. سبز، قابل پیشبینیترین است، قرمز و زرد کمتر قابل پیشبینی هستند و بنفش نیز کمترین قابلیت پیشبینی را دارد.
ابزارهایی از این دست میتوانند برای رسانههای اجتماعی مانند توییتر و فیسبوک مفید باشند، زیرا آنها باید با شایعههای گستردهای که توسط رباتها ایجاد میشود، مقابله نمایند.
سباستین گرمان (Sebastian Gehrmann)، یکی از ذهنهای سازنده GLTR گفت که هرچه روشهای تولید متن پیچیدهتر میشوند، بازیگران مخرب نیز توانایی بیشتری را جهت نشر اطلاعات کاذب یا تبلیغات دروغین به دست میآورند.
گرمان گفت:
کسی که قدرت محاسباتی کافی را در اختیار دارد، میتواند بهطور خودکار هزاران وبسایت مرتبط با موضوع موردنظر خود را ایجاد کند و در همه آنها از متون شبه واقعی استفاده نماید. اگرچه ما هنوز به چنین فناوری دسترسی پیدا نکردهایم اما در حال حاضر، مدلهای عظیم زبانی میتوانند متنی را تولید کنند که از متن نوشته شده توسط انسان قابل تشخیص نیست.
گرمان گفت که تیم وی تحقیقاتی را انجام داده است تا ببیند که آیا دانشجویان رشته پردازش زبان (language-processing) میتوانند متن واقعی را از متن تولید شده توسط هوش مصنوعی تمایز دهند. وی اظهار کرد که دقت دانشجویان در حد %۵۴ بوده است، کمی بالاتر از حدسزدن به صورت تصادفی. اما با استفاده از GLTR میزان تشخیص این دانشجویان به %۷۲ درصد بهبود یافت.
گرمان ابراز کرد:
ما امیدواریم که GLTR بتواند الهامبخش تحقیقات بیشتری در این زمینه باشد. این پروژه با موفقیت نشان داد که اگر بتوانیم سازوکارهای دفاعی را توسعه دهیم، مدلهای تولید متن، چندان خطرناک نخواهند بود.
نظرات