هوش مصنوعی مولد (Generative AI) اخیرا در چت بات ChatGPT و موتور جستجوی بینگ مورد استفاده قرار گرفتند و گوگل نیز بهتازگی چت بات اختصاصی خودش را به نام بارد ارائه کرد. این چت بات ظاهرا در مقایسه با رقبای خودش قابلیتهای محدودی دارد و حتی در پاسخ دادن به سوالات ساده نیز دچار مشکل میشود.
البته هوش مصنوعی بینگ هم با مشکلات مشابهی روبه رو بود و نکته دیگر اینکه گوگل سعی نکرده ات مثل مایکروسافت، پلتفرم هوش مصنوعی خود را در موتور جستجویش ادغام کند. با این حال، به نظر میرسد خود گوگل هم متوجه ضعفهای بارد شده است، وگرنه آن را با موتور جستجوی خودش یکپارچه میکرد تا از مایکروسافت عقب نماند. در هر حال، گوگل از نظر هوش مصنوعی از مایکروسافت عقب افتاده است و باید آن را بهنوعی جبران کند.
از طرف دیگر، چت بات بارد چشمانداز خطرناکی را از آینده اطلاعات جعلی به ما نشان میدهد. بنابراین اگر گوگل بخواهد این چت بات ضعیف و پر از ایراد را با موتور جستجوی خودش ادغام کند باید نگران پخش اطلاعات نادرست و جعلی در فضای وب باشیم و ما دیگر نخواهیم توانست به هر اطلاعاتی اعتماد کنیم.
البته گوگل بارها گفته است که بارد یک موتور جستجو نیست بلکه مکمل موتور جستجوی گوگل سرچ است و هدف این شرکت از ارائه آن کمک به تولید ایمیلها، نوشتن یادداشتها و مواردی از ایندست است. اما سوال اینجاست که اگر گوگل قصد استفاده از بارد در موتور جستجوی خودش را نداشته چرا آن را به اینترنت وصل کرده است.
در واقع، سوالاتی که از بارد پرسیده میشود نیاز به اینترنت دارند و این چت بات برای پیدا کردن پاسخ سوالات کاربران اقدام به جستجوی وب میکند. لذا اگر این چت بات صرفا برای انجام کارهای خلاقانه ارائه شده است گوگل میتوانست مثل ChatGPT قابلیتهای زیادی به آن اضافه کند یا اینکه صرفا پاسخ سوالات کاربران را براساس دادههای آموزشدیده بدهد.
بنابراین، شواهد امر نشان میدهند که بارد هنوز برای تبدیل شدن به یک موتور جستجو آماده نیست و در واقع به همین خاطر بوده که گوگل آن را به طور گسترده تبلیغ نکرده است. موضوع دیگری که درباره این چت بات وجود دارد آن است که نمیتواند اطلاعات را از نظر اصالت وریفای کند. بنابراین اگر گوگل نتواند این مشکل را رفع کند با چالش جدی مواجه خواهد شد و ما باید منتظر پخش اطلاعات نادرست زیادی در فضای وب باشیم.
در حال حاضر، اطلاعات جعلی تبدیل به یک چالش اساسی برای دنیای مدرن شده است و اگر هوش مصنوعی نتواند مرجعی برای تائید صحت و درستی اخبار و اطلاعات خودش داشته باشد، به این موضوع دامن خواهد زد و باعث تشدید شدن آن خواهد شد. چت بات بارد حتی متهم به سرقت ادبی در برخی موارد شده است و این موضوع واقعا میتواند نگران کننده باشد. مایکروسافت نیز در چت بات بینگ با این مشکل مواجه بوده و هنوز مشخص نیست که چه چارهای برای حل آن اندیشیده است.
بنابراین تقریبا غیرممکن است که یک چت بات هوش مصنوعی بتواند در اکثر موارد اطلاعات درستی را در اختیار کاربران قرار دهد، بهویژه اگر این اطلاعات جدید باشند. با اینحال، خیلی از کاربران به پاسخهای هوش مصنوعی اعتماد میکنند و به نظر میرسد که ما در یک دوراهی قرار داریم. از یک طرف، هوش مصنوعی هر روز در حال قدرتمند شدن است و محبوبیت آنها بهسرعت در حال ازایش است بطوریکه ChatGPT تبدیل به برترین اپلیکیشن دنیا از نظر میزان رشد کاربران شده است. این چت بات در حال حاضر بیش از ۱۰۰ میلین کاربر دارد. از طرف دیگر، اطلاعات تولید شده توسط این چت باتها به هیچ وجه صحتسنجی نمیشوند و در نتیجه خطر انتشار اطلاعات نادرست و جعلی در فضای وب بیش از هر زمان دیگری ما را تهدید میکند.
بنابراین چت باتهای هوش مصنوعی هرچند بد نیستند اما در آینده میتوانند خطر جدی برای فضای وب باشند. به همین خاطر، کارشناسان توصیه کردهاند که کاربران حتما اطلاعات ارائه شده توسط این چت باتها را مجددا چک کنند تا از صحت آن مطمئن شوند.
منبع: Xda
نظرات