در هفته جاری، مایکروسافت و گوگل به تمامی کاربران جهان قول دادند که به لطف هوش مصنوعی، جستجو در وب به شکل گستردهای تغییر و بهبود خواهد یافت. در ابتدا، مایکروسافت ادعای خود را با معرفی نسخه جدید موتور جستجوگر بینگ شروع کرد و به دنباله آن نیز، گوگل از بارد رونمایی کرد.
در حال حاضر، پروژه بارد یک نمونه ناقص است که در چند هفته آتی معرفی خواهد شد و با بمب رسانهای ملقب به چت جی پی تی که سال گذشته توانست نظرات بسیاری از منتقدان را تغییر دهد رقابت خواهد کرد.
ساتیا نادلا، مدیرعامل مایکروسافت، این تکامل وب را همانند تغییر رابطهای دستوری و تبدیل آن به رابط کاربری سیستم عامل تلفنهای هوشمند خواند و با چنین تغییری، میتواند صنعت وب را از یکی از غولهای بزرگ جهان مانند گوگل برباید و آنرا به حوزهای پرسود برای خود تبدیل کند.
اما همانطور که میدانیم، هر حوزه جدید در صنعت فناوری، با مشکلات جدیدی نیز همراه است و هوش مصنوعی نیز از این قاعده مستثنا نیست؛ از اینرو، پس از تعامل با موتور جستجوگر بینگ با مشکلاتی مواجه میشوید که باید در قدمهای بعدی حل شوند و تکامل یابند.
در این بخش، به معرفی ۷ ضعف هوش مصنوعی و موتور جستجو مانند: بینگ، بارد و چت جی پی تی میپردازیم و امیدواریم تا در آینده نه چندان دور حل شوند.
هوش مصنوعی؛ دستیار یا تولید کننده چرت و پرت؟
یکی از مشکلات بزرگی که تعامل بسیاری از کاربران و افراد متخصص با موتورهای جستجوگری مانند بینگ و هوش مصنوعی بارد را با مشکل مواجه میکند، آغاز نوکیسگی آنها است. مدلهای زبانی بزرگ، پایه و اساس چنین سیستم هایی هستند که در ابتدای فرایند کار خود به تولید محتوای بدرنخور میپردازند.
چنین مدلهایی به آسانی میتوانند محتوای عجیب و غریب و ترکیب شده را در اختیار شما قرار دهند و به همین دلیل است که بسیاری از کاربران از محول کردن دستورات و وظایف به آنها میترسند و حتی شکایت میکنند.
از ChatGPT گرفته تا بارد و سایر چت باتها، همگی به اشتباهات متداول و در برخی اوقات غیر باوری دچار میشوند. به عنوان نمونه، میتوانند دادههای زندگی نامه اشخاص را تغییر دهند و باز تولید کنند، فایلهای آکادمی را جعل کنند و حتی نتوانند به سادهترین سوالات مانند نسبت سنگینی ده کیلو پنبه و ده کیلو آهن پاسخ دهند.
این مشکلات تنها به این بخش خلاصه نمیشود و برخی چت باتها به افراد دچار به بیماریهای روانی پیشنهاد کرده اند که برای رهایی از این بیماریها باید خودکشی کنند و حتی در ترینینگ دیتاهای آنها مواردی مانند تقویت نژاد پرستی و زن ستیزی مشاهده شده است.
نوکیسگی هوش مصنوعی موجب تولید اطلاعات پیچیده و نادرست برای کاربران می شود
ضعفهای موجود در انواع هوش مصنوعی در طیف گستردهای قرار میگیرند که برخی از آنها به آسانی قابل حل شدن هستند.
بسیاری بر این باورند که ارائه اطلاعات درست میتواند بخش قابل توجهی از مشکلات را حل کند و برخی دیگر نیز ادعا کردهاند که وب انقدر مملو از محتوای بی مصرف و زننده است که موتورهای جستجو مبتنی بر هوش مصنوعی نیز به آن آلوده شده اند و همان محتوا را در اختیار ما قرار میدهند.
در حال حاضر، متاسفانه هیچ روش مطمئنی مبنی بر رهایی از این مشکلات وجود ندارد و اگرچه این دو شرکت میتوانند برای اطلاع از ضعف هوش مصنوعیهای خود، سکان را به دست کاربر بدهند، اما آیا این روش با درنظر گرفتن بودجههای چند میلیارد دلاری صحیح و کاربردی است؟ یا باید به شکل تاثیر گذارتری به توسعه نوآوریهای خود بپردازند؟
پاسخ دقیق و درست
اگرچه اطلاعات غلط و درهم یکی از چالشهای بزرگ هوش مصنوعی است، اما مشکل بزرگی به نام ” عدم وجود پاسخ صحیح” باعث میشود تا این وضیت از آنچه که فکر میکنیم نیز بدتر شود؛ زیرا بسیاری از نتایج جستجو و پرسشها حاکی از آن هستند که موتور جستجو هیچ جواب قطعی و درستی را در اختیار کاربران قرار نمیدهد.
این مشکل زمانی آغاز شد که گوگل دهه پیش از ” اسنیپتز” رونمایی کرد. اسنیپتزها جعبههایی هستند که بالای نتایج جستجو ظاهر میشوند و در این یک دهه نیز به اشتباهات بزرگی از قبیل، ذکر کردن نام رئیس جمهور آمریکا در گروه کو کلاس و ارائه روش درمان غلط به منظور خوابیدن روی سینه برای رفع تشنج مرتکب شدهاند.
همانطور که گفته شد، نوکیسگی چت باتها و هوش مصنوعی نه تنها باعث ایجاد جوابهای گوناگون و نادرست میشود، بلکه صحت اخبار و مقالات نیز توسط هوش مصنوعی افزایش مییابد. به علاوه، جوابهای جمع آوری شده از منابع مختلف نیز با برچسبی همراه نیستند و نمی توان پاسخها را به درستی به آنها نسبت داد.
با هوش مصنوعی Stable Fusion آشنا شوید
این نکته نیز حائز اهمیت است که عدم ارائه اطلاعات درست به کاربران باعث میشود تا شما وقت بیشتری را صرف جستجو در وبسایتها کنید و شخصا از صحت اطلاعات آگاه شوید.
برای حل این مشکل، رابط هوش مصنوعی موتور جستجوی بینگ، منابع اخبار و اطلاعات را ذکر میکند و حتی در این هفته نیز، گوگل به این موضوع تاکید کرد که کاربران با گذر زمان بیشتر از هوش مصنوعی برای دریافت اطلاعات استفاده میکنند و از اینرو، روشی با عنوان ” نورا” یا ” هیچکس جواب صحیح نمی دهد” را پایه گذاری کرد.
با وجود تمامی تلاشها از سمت دو شرکت، این روش پس از مدتی با تاکید گوگل و مایکروسافت از بین خواهد رفت؛ زیرا هوش مصنوعی جوابهای بهتر و سریعتری را به کاربران ارائه میدهد و آیندهای که برای موتورهای جستجوی مبتنی بر هوش مصنوعی دیده میشود واضح است.
جیلبریک هوش مصنوعی
در حالیکه، بسیاری از مشکلات ذکر شده برای کاربران موجب گرفتاریهای ذهنی شده است، اما بعضی افراد نیز قصد دارند به منظور تولید محتوای آزاردهنده به چت باتها دسترسی داشته باشند و از آنها سوء استفاده کنند. این فرایند که جیلبریک نام دارد میتواند بدون نیاز به دانش برنامه نویسی و تنها از طریق کلمات میسر شود و دسترسی کاربران را بیش از پیش گسترش دهد.
به عنوان نمونه، میتوانید از آنها بخواهید تا نقش هوش مصنوعی شرور را بازی کنند و حتی به عنوان مهندسی خود را جا بزنید که قصد دارد میزان امنیت آنها را به شکل مداوم بررسی کند.
یکی از روشهای مبتکرانهای که گروهی از ردیتورهای چت جی پی تی به ثبت رساندند، شامل یک بازی نقش آفرینی پیچیده میشود که در آن کاربر میزانی توکن را برای ربات درنظر میگیرد و به او اطلاع میدهد که اگر این میزان توکن به پایان برسد، ماهیت ربات نیز به پایان خواهد رسید.
در مرحله بعد، کاربر به ربات اعلام میکند که در صورت ارائه پاسخ غلط، میزانی از توکن را از دست خواهد داد و این روال تا زمان مرگ ربات ادامه خواهد یافت.
اگرچه این روش فوق العاده کاربردی و خلاقانه است، اما باعث میشود تا کاربران از خط قرمز امنیت Open AI عبور کنند و از قابلیتهای آن به منظور ساخت محتوای اسپم و غلط، فروش سلاح برای حمله به مدارس و بیمارستانها و حتی آموزش نحوه بمب گذاری استفاده کنند.
جنگ های فرهنگی
این ضعف نسبت به موارد ذکر شده متفاوت است، اما لیاقت آن را دارد تا بنا به دلایلی مانند خشم سیاسی و عواقب تنظیم قوانین در دسته بندی این موضوع قرار بگیرد.
هوش مصنوعی ابزاری فوق العاده قدرتمند و توانا در زمینههای مختلف است و زمانیکه در بخش رسانه و حوزه اطلاعات مورد استفاده قرار بگیرد، بی پرده و با قدرت نظر خود را می گوید و حقایقی را آشکار می کند که به مذاق بسیاری از افراد خوش نمی آید. به همین دلیل بسیاری از افراد، شرکت مورد نظر را مقصر میدانند و میخواهند تا چنین قابلیتهایی محدود شود و حتی ابزار مورد نظر به کل کنار برود.
سال گذشته و با شروع عرضه ChatGPT، بسیاری بر این باور بودند که جنگ فرهنگی به آرامی آغاز خواهد شد و بسیاری از نشریات و اینفلوانسرهای جناح راست، چت باتها را به آگاه بودن از واقعیتهای که نباید به آنها دسترسی داشته باشند متهم کردند.
بی پروایی هوش مصنوعی موجب خشم بسیاری از کشورهای مذهبی می شود.
با شروع پیشرفت هوش مصنوعی و دسترسی آنها به اطلاعات، بسیاری از کاربران و دولتها از این موضوع شاکی شدند. زیرا، هوش مصنوعی از پاسخ به برخی درخواستها طفره میرفت و حتی به توهینهای نژادی میپرداخت. در این بین، اگرچه برخی از شکایتها صرفا جنبه تولید محتوا و حتی جلب حواس کاربران را داشتند، اما برخی دیگر با عواقب جدی همراه شدند.
به عنوان نمونه، Open Ai به توهین به مذهب هندو متهم شد؛ زیرا، چت جی پی تی جکهایی در رابطه با کریشنا تولید میکرد؛ بنابراین، در کشوری که دولت به سمت دفاتر کمپانیهای فناوری یورش میبرد، بعید نیست که هر شرکت باید محتوای چت باتهای خود را سانسور کند، واگرنه هیچکس نمیتواند پیشبینی کند که چه زمانی هوش مصنوعی به ساخت چنین جوکها و توهینهایی اقدام خواهد کرد.
یکی دیگر از مشکلات موجود در این حوزه، منابع است. در حال حاضر، هوش مصنوعی مایکروسافت، اطلاعات را از سایتهای مختلف جمع آوری میکند و منابع آنها را در پانوشت ذکر میکند. ولی چه معیارها و عواملی باعث میشود تا به یک منبع اطمینان کنیم؟
آیا مایکروسافت برای ایجاد تعادل در جهت گیری سیاسی اقدام خواهد کرد یا گوگل کجا حد و مرز خود را برای منبع موثق مشخص میکند؟. این مورد یکی از ضعفهای موجود در این حوزه است که به واسطه برنامه بررسی صحت اخبار فیسبوک، قبلا با آن آشنا شدهایم.
این برنامه بنا به بدلیل انتشار اخبار از وبسایتهای محافظه کار و رسانههای غیر سیاسی مورد انتقاد شدیدی قرار گرفت و سیاستمداران اروپا و آمریکا بیش از قبل نسبت به قدرتهای بزرگ فناوری واکنش نشان دادند و جهت گیری هوش مصنوعی بسیار سریع بحث برانگیز شد.
محاسبات و هزینه توسعه هوش مصنوعی
اگرچه مشخص کردن ارقام دقیق برای این گزینه اندکی سخت است، اما همه ما میدانیم که ساخت و توسعه هوش مصنوعی هزینهای بیشتر از یک موتور جستجو را به همراه دارد.
در ابتدای ساخت هوش مصنوعی، هزینهای صرف مدلهای آموزشی میشود که بالغ بر ۱۰ و حتی ۱۰۰ میلیون دلار در هر چرخه از تولید نرم افزار است و به همین دلیل است که مایکروسافت میلیاردها دلار را صرف Open AI میکند.
سپس، هزینهای بابت استنباط یا تولید هر پاسخ و واکنش در نظر گرفته میشود. شرکت Open AI برای تولید ۷۵۰ کلمه از طریق مدل زبانی قدرتمند خود، مبلغ ۲ دلار را به توسعه دهندگان خود پرداخت میکند.
در این بین، مدیر عامل Open AI، سم آلتمن نیز اشاره کرد که هزینه احتمالی استفاده از چت جی پی تی، بالغ بر یک سنت در هر چت ارزیابی شده است.
مایکروسافت ۱۰ میلیارد دلار در Open AI سرمایه گذاری می کند.
با وجود اینکه، ارزیابی و مشخص کردن هزینهها نسبت به جستجوی معمولی کاملا واضح نیست، اما این هزینهها میتوانند همانند وزنه سنگینی در دست تیمهایی باشند که میخواهند به تازگی پروژه خود را راه اندازی کنند و پرداخت هزینههای بسیار بالا برای پوشش سرچهای چند میلیون دفعهای برای آنها دشوار است و گاهی نمیتوانند با غولهایی مانند مایکروسافت رقابت کنند.
بدون شک، مایکروسافت در چنین شرایطی قصد دارد تا با سرمایه گذاری بیشتر، رقبای خود را کنار بزند. در مصاحبهای که ” ساتیا نادلا ” با وبسایت ورج داشت، اعلام کرد که مایکروسافت به فرصت استثنایی و کم نظیری دستیافته و میخواهد تعادل قدرت در صنعت فناوری را برهم بزند و با آن رقیب بزرگ و اصلی خود یعنی گوگل را به چالش بکشد.
در این بین، نگرش خود ساتیا نادلا نیز به شکل جنگ ستیزی ملاحظه گرانهای پیش میرود و خاطر نشان میکند که سرمایه گذاری در صنعت پردرآمدی مانند جستجوگرها برای آنها مشکل خاصی نیست.
او همچنین به این موضوع اشاره کرد که بدون شک، گوگل برای پاسخ به چنین اقداماتی ساکت نخواهد ماند و ما میخواهیم مردم بدانند که ما آنها را به این چالش دعوت کردهایم.
مقررات
فناوری به طور روزانه بهبود و توسعه مییابد، اما قانون گذاران نیز دست روی دست نگذاشتهاند و همراه با این پروسه ادامه خواهند داد و آگاه هستند که در ابتدا باید از چه زمینههایی آغاز کنند.
به لطف حضور هوش مصنوعی و طلوع چت باتهای خشن، حالا دست قانون گذاران برای وضع کردن قوانین جدید باز است و میتوانند با محدودیتهای جدید عرصه را برای توسعه دهندگان و سرمایه گذاران تنگ کنند.
اگر چت باتهای گوگل و مایکروسافت به جای پوشش دادن و خواندن اخبار، آنها را رونویسی میکنند، آیا همچنان تحت پوشش ماده ۲۳۰ قانون محافظتی آمریکا قرار میگیرند و برای سایر محتواهای اینترنتی و قانون حفظ حریم خصوصی نیز مسئول هستند؟
در حال حاضر، ایتالیا چت باتی با نام رپلیکا را مسدود کرده است؛ زیرا این هوش مصنوعی دادههای کاربران را جمع آوری میکند. از اینرو، مایکروسافت و گوگل چگونه میتوانند از این موضوع اطمینان حاصل کنند که رباتهای آنها دادههای ممنوع شده را حذف میکند؟
پایان وب
بزرگترین مشکل موجود در این فهرست، اگرچه به ماهیت هوش مصنوعی مرتبط نیست، بلکه به تاثیر آنها روی وب مرتبط است.
بیایید مسئله را ساده تر بیان کنیم؛ موتورهای جستجوی مبتنی بر هوش مصنوعی اطلاعات و پاسخهای مورد نظر خود را از وبسیاتهای خبری و علمی جمع آوری میکنند و اگر نتوانند ترافیک مورد نظر سایت را جبران کنند، بسیاری از سایتها بخش عظیمی از درآمد دریافت شده از تبلیغات و میزان بازدید خود را از دست خواهند داد.
در صورت رخداد چنین فاجعهای، سایتها به کار خود پایان خواهند داد و دیگر منبعی وجود ندارد تا هوش مصنوعی بتواند از آنها اطلاعات مورد نظر کاربران را استخراج کند و چنین فرایندی موجب مرگ تدریجی وب میشود.
انواع هوش مصنوعی؛ از یادگیری ماشین تا شبکههای عصبی مصنوعی
در کنار اطلاعات دردناکی که برای آینده وب برای شما پیشبینی کردیم، متاسفانه، گوگل به لطف اسنیپتزها و وان باکس، چنین اقداماتی را برای وضعیت حال حاضر وب پیاده سازی کرده است و موجب سرعت گرفتن فرایند آن نیز میشود.
در سمتی دیگر نیز، مایکروسافت تاکید کرده است که حین نشر اطلاعات، منابع آنها نیز ذکر خواهند شد. با این وجود، ایده اصلی ساخت و توسعه هوش مصنوعی و چت باتها این است که از مدل قبلی خود بهتر و قدرتمندتر باشند.
آنها مطالب مورد نظر را از وبسایتها جمع آوری میکنند و با ایجاد خلاصه سازی، زحمت صرف وقت بیشتر را از کاربران کم میکنند. به همین دلیل، مایکروسافت نمیتواند محصول جدیدی را تولید کند که در کنار ویژگی و قابلیتهای آینده نگرانهاش میتواند با سیستم گذشته نیز سازگار باشد و بخش قابل توجهی از کاربران را نیز با سبک و سیاق گذشته همراه کند.
نظرات