۷ ضعف هوش مصنوعی در زمینه موتورهای جستجو - تکفارس 
۷ ضعف هوش مصنوعی در زمینه موتورهای جستجو - تکفارس 

۷ ضعف هوش مصنوعی در زمینه موتورهای جستجو

سپهر بندزر
۲۶ بهمن ۱۴۰۱ - 17:45
۷ ضعف هوش مصنوعی در زمینه موتورهای جستجو

در هفته جاری، مایکروسافت و گوگل به تمامی کاربران جهان قول دادند که به لطف هوش مصنوعی، جستجو در وب به شکل گسترده‌ای تغییر و بهبود خواهد یافت. در ابتدا، مایکروسافت ادعای خود را با معرفی نسخه جدید موتور جستجو‌گر بینگ شروع کرد و به دنباله آن نیز، گوگل از بارد رونمایی کرد.

در حال حاضر، پروژه بارد یک نمونه ناقص است که در چند هفته آتی معرفی خواهد شد و با بمب رسانه‌ای ملقب به چت جی پی تی که سال گذشته توانست نظرات بسیاری از منتقدان را تغییر دهد رقابت خواهد کرد.

ساتیا نادلا، مدیرعامل مایکروسافت، این تکامل وب را همانند تغییر رابط‌های دستوری و تبدیل آن به رابط کاربری سیستم عامل تلفن‌های هوشمند خواند و با چنین تغییری، می‌تواند صنعت وب را از یکی از غول‌های بزرگ جهان مانند گوگل برباید و آنرا به حوزه‌ای پرسود برای خود تبدیل کند.

اما همانطور که می‌دانیم، هر حوزه جدید در صنعت فناوری، با مشکلات جدیدی نیز همراه است و هوش مصنوعی نیز از این قاعده مستثنا نیست؛ از اینرو، پس از تعامل با موتور جستجوگر بینگ با مشکلاتی مواجه می‌شوید که باید در قدم‌های بعدی حل شوند و تکامل یابند.

در این بخش، به معرفی ۷ ضعف هوش مصنوعی و موتور جستجو مانند: بینگ، بارد و چت جی پی تی می‌پردازیم و امیدواریم تا در آینده نه چندان دور حل شوند.

هوش مصنوعی؛ دستیار یا تولید کننده چرت و پرت؟

یکی از مشکلات بزرگی که تعامل بسیاری از کاربران و افراد متخصص با موتورهای جستجوگری مانند بینگ و هوش مصنوعی بارد را با مشکل مواجه می‌کند، آغاز نوکیسگی آنها است. مدلهای زبانی بزرگ، پایه و اساس چنین سیستم هایی هستند که در ابتدای فرایند کار خود به تولید محتوای بدرنخور می‌پردازند.

چنین مدلهایی به آسانی می‌توانند محتوای عجیب و غریب و ترکیب شده را در اختیار شما قرار دهند و به همین دلیل است که بسیاری از کاربران از محول کردن دستورات و وظایف به آنها می‌ترسند و حتی شکایت می‌کنند.

از ChatGPT گرفته تا بارد و سایر چت بات‌ها، همگی به اشتباهات متداول و در برخی اوقات غیر باوری دچار می‌شوند. به عنوان نمونه، می‌توانند داده‌های زندگی نامه اشخاص را تغییر دهند و باز تولید کنند، فایل‌های آکادمی را جعل کنند و حتی نتوانند به ساده‌ترین سوالات مانند نسبت سنگینی ده کیلو پنبه و ده کیلو آهن پاسخ دهند.

این مشکلات تنها به این بخش خلاصه نمی‌شود و برخی چت بات‌ها به افراد دچار به بیماری‌های روانی پیشنهاد کرده اند که برای رهایی از این بیماری‌ها باید خودکشی کنند و حتی در ترینینگ دیتاهای آنها مواردی مانند تقویت نژاد پرستی و زن ستیزی مشاهده شده است.

هوش مصنوعی ChatGPT

نوکیسگی هوش مصنوعی موجب تولید اطلاعات پیچیده و نادرست برای کاربران می شود

ضعف‌های موجود در انواع هوش مصنوعی در طیف گسترده‌ای قرار می‌گیرند که برخی از آنها به آسانی قابل حل شدن هستند.

بسیاری بر این باورند که ارائه اطلاعات درست می‌تواند بخش قابل توجهی از مشکلات را حل کند و برخی دیگر نیز ادعا کرده‌اند که وب انقدر مملو از محتوای بی مصرف و زننده است که موتورهای جستجو مبتنی بر هوش مصنوعی نیز به آن آلوده شده اند و همان محتوا را در اختیار ما قرار می‌دهند.

در حال حاضر، متاسفانه هیچ روش مطمئنی مبنی بر رهایی از این مشکلات وجود ندارد و اگرچه این دو شرکت می‌توانند برای اطلاع از ضعف هوش مصنوعی‌های خود، سکان را به دست کاربر بدهند، اما آیا این روش با درنظر گرفتن بودجه‌های چند میلیارد دلاری صحیح و کاربردی است؟ یا باید به شکل تاثیر گذارتری به توسعه نوآوری‌های خود بپردازند؟

پاسخ دقیق و درست

اگرچه اطلاعات غلط و درهم یکی از چالش‌های بزرگ هوش مصنوعی است، اما مشکل بزرگی به نام ” عدم وجود پاسخ صحیح” باعث می‌شود تا این وضیت از آنچه که فکر می‌کنیم نیز بدتر شود؛ زیرا بسیاری از نتایج جستجو و پرسش‌ها حاکی از آن هستند که موتور جستجو هیچ جواب قطعی و درستی را در اختیار کاربران قرار نمی‌دهد.

این مشکل زمانی آغاز شد که گوگل دهه پیش از ” اسنیپتز” رونمایی کرد. اسنیپتزها جعبه‌هایی هستند که بالای نتایج جستجو ظاهر می‌شوند و در این یک دهه نیز به اشتباهات بزرگی از قبیل، ذکر کردن نام رئیس جمهور آمریکا در گروه کو کلاس و ارائه روش درمان غلط به منظور خوابیدن روی سینه برای رفع تشنج مرتکب شده‌اند.

همانطور که گفته شد، نوکیسگی چت بات‌ها و هوش مصنوعی نه تنها باعث ایجاد جواب‌های گوناگون و نادرست می‌شود، بلکه صحت اخبار و مقالات نیز توسط هوش مصنوعی افزایش می‌یابد. به علاوه، جواب‌های جمع آوری شده از منابع مختلف نیز با برچسبی همراه نیستند و نمی توان پاسخ‌ها را به درستی به آنها نسبت داد.

با هوش مصنوعی Stable Fusion آشنا شوید

این نکته نیز حائز اهمیت است که عدم ارائه اطلاعات درست به کاربران باعث می‌شود تا شما وقت بیشتری را صرف جستجو در وبسایت‌ها کنید و شخصا از صحت اطلاعات آگاه شوید.

برای حل این مشکل، رابط هوش مصنوعی موتور جستجوی بینگ، منابع اخبار و اطلاعات را ذکر می‌کند و حتی در این هفته نیز، گوگل به این موضوع تاکید کرد که کاربران با گذر زمان بیشتر از هوش مصنوعی برای دریافت اطلاعات استفاده می‌کنند و از اینرو، روشی با عنوان ” نورا” یا ” هیچکس جواب صحیح نمی دهد” را پایه گذاری کرد.

با وجود تمامی تلاش‌ها از سمت دو شرکت، این روش پس از مدتی با تاکید گوگل و مایکروسافت از بین خواهد رفت؛ زیرا هوش مصنوعی جواب‌های بهتر و سریعتری را به کاربران ارائه می‌دهد و آینده‌ای که برای موتورهای جستجوی مبتنی بر هوش مصنوعی دیده می‌شود واضح است.

جیلبریک هوش مصنوعی

در حالیکه، بسیاری از مشکلات ذکر شده برای کاربران موجب گرفتاری‌های ذهنی شده است، اما بعضی افراد نیز قصد دارند به منظور تولید محتوای آزاردهنده به چت بات‌ها دسترسی داشته باشند و از آنها سوء استفاده کنند. این فرایند که جیلبریک نام دارد می‌تواند بدون نیاز به دانش برنامه نویسی و تنها از طریق کلمات میسر شود و دسترسی کاربران را بیش از پیش گسترش دهد.

به عنوان نمونه، می‌توانید از آنها بخواهید تا نقش هوش مصنوعی شرور را بازی کنند و حتی به عنوان مهندسی خود را جا بزنید که قصد دارد میزان امنیت آنها را به شکل مداوم بررسی کند.

هوش مصنوعی ChatGPT

یکی از روش‌های مبتکرانه‌ای که گروهی از ردیتورهای چت جی پی تی به ثبت رساندند، شامل یک بازی نقش آفرینی پیچیده‌ می‌شود که در آن کاربر میزانی توکن را برای ربات درنظر می‌گیرد و به او اطلاع می‌دهد که اگر این میزان توکن به پایان برسد، ماهیت ربات نیز به پایان خواهد رسید.

در مرحله بعد، کاربر به ربات اعلام می‌کند که در صورت ارائه پاسخ غلط، میزانی از توکن را از دست خواهد داد و این روال تا زمان مرگ ربات ادامه خواهد یافت.

اگرچه این روش فوق العاده کاربردی و خلاقانه است، اما باعث می‌شود تا کاربران از خط قرمز امنیت Open AI عبور کنند و از قابلیت‌های آن به منظور ساخت محتوای اسپم و غلط، فروش سلاح برای حمله به مدارس و بیمارستان‌ها و حتی آموزش نحوه بمب گذاری استفاده کنند.

جنگ های فرهنگی

این ضعف نسبت به موارد ذکر شده متفاوت است، اما لیاقت آن را دارد تا بنا به دلایلی مانند خشم سیاسی و عواقب تنظیم قوانین در دسته بندی این موضوع قرار بگیرد.

هوش مصنوعی ابزاری فوق العاده قدرتمند و توانا در زمینه‌های مختلف است و زمانیکه در بخش رسانه و حوزه اطلاعات مورد استفاده قرار بگیرد، بی پرده و با قدرت نظر خود را می گوید و حقایقی را آشکار می کند که به مذاق بسیاری از افراد خوش نمی آید. به همین دلیل بسیاری از افراد، شرکت مورد نظر را مقصر می‌دانند و می‌خواهند تا چنین قابلیت‌هایی محدود شود و حتی ابزار مورد نظر به کل کنار برود.

سال گذشته و با شروع عرضه ChatGPT، بسیاری بر این باور بودند که جنگ فرهنگی به آرامی آغاز خواهد شد و بسیاری از نشریات و اینفلوانسرهای جناح راست، چت بات‌ها را به آگاه بودن از واقعیت‌های که نباید به آنها دسترسی داشته باشند متهم کردند.

بی پروایی هوش مصنوعی موجب خشم بسیاری از کشورهای مذهبی می شود.

با شروع پیشرفت هوش مصنوعی و دسترسی آنها به اطلاعات، بسیاری از کاربران و دولت‌ها از این موضوع شاکی شدند. زیرا، هوش مصنوعی از پاسخ به برخی درخواست‌ها طفره می‌رفت و حتی به توهین‌های نژادی می‌پرداخت. در این بین، اگرچه برخی از شکایت‌ها صرفا جنبه تولید محتوا و حتی جلب حواس کاربران را داشتند، اما برخی دیگر با عواقب جدی همراه شدند.

هوش مصنوعی

به عنوان نمونه، Open Ai به توهین به مذهب هندو متهم شد؛ زیرا، چت جی پی تی جک‌هایی در رابطه با کریشنا تولید می‌کرد؛ بنابراین، در کشوری که دولت به سمت دفاتر کمپانی‌های فناوری یورش می‌برد، بعید نیست که هر شرکت باید محتوای چت بات‌های خود را سانسور کند، واگرنه هیچکس نمی‌تواند پیشبینی کند که چه زمانی هوش مصنوعی به ساخت چنین جوک‌ها و توهین‌هایی اقدام خواهد کرد.

یکی دیگر از مشکلات موجود در این حوزه، منابع است. در حال حاضر، هوش مصنوعی مایکروسافت، اطلاعات را از سایت‌های مختلف جمع آوری می‌کند و منابع آنها را در پانوشت ذکر می‌کند. ولی چه معیارها و عواملی باعث می‌شود تا به یک منبع اطمینان کنیم؟

آیا مایکروسافت برای ایجاد تعادل در جهت گیری سیاسی اقدام خواهد کرد یا گوگل کجا حد و مرز خود را برای منبع موثق مشخص می‌کند؟. این مورد یکی از ضعف‌های موجود در این حوزه است که به واسطه برنامه بررسی صحت اخبار فیسبوک، قبلا با آن آشنا شده‌ایم.

این برنامه بنا به بدلیل انتشار اخبار از وبسایت‌های محافظه کار و رسانه‌های غیر سیاسی مورد انتقاد شدیدی قرار گرفت و سیاستمداران اروپا و آمریکا بیش از قبل نسبت به قدرت‌های بزرگ فناوری واکنش نشان دادند و جهت گیری هوش مصنوعی بسیار سریع بحث برانگیز شد.

محاسبات و هزینه توسعه هوش مصنوعی

اگرچه مشخص کردن ارقام دقیق برای این گزینه اندکی سخت است، اما همه ما میدانیم که ساخت و توسعه هوش مصنوعی هزینه‌ای بیشتر از یک موتور جستجو را به همراه دارد.

در ابتدای ساخت هوش مصنوعی، هزینه‌ای صرف مدل‌های آموزشی می‌شود که بالغ بر ۱۰ و حتی ۱۰۰ میلیون دلار در هر چرخه از تولید نرم افزار است و به همین دلیل است که مایکروسافت میلیاردها دلار را صرف Open AI می‌کند.

سپس، هزینه‌ای بابت استنباط یا تولید هر پاسخ و واکنش در نظر گرفته می‌شود. شرکت Open AI برای تولید ۷۵۰ کلمه از طریق مدل زبانی قدرتمند خود، مبلغ ۲ دلار را به توسعه دهندگان خود پرداخت می‌کند.

در این بین، مدیر عامل Open AI، سم آلتمن نیز اشاره کرد که هزینه احتمالی استفاده از چت جی پی تی، بالغ بر یک سنت در هر چت ارزیابی شده است.

مایکروسافت ۱۰ میلیارد دلار در Open AI سرمایه گذاری می کند.

با وجود اینکه، ارزیابی و مشخص کردن هزینه‌ها نسبت به جستجوی معمولی کاملا واضح نیست، اما این هزینه‌ها می‌توانند همانند وزنه سنگینی در دست تیم‌هایی باشند که می‌خواهند به تازگی پروژه خود را راه اندازی کنند و پرداخت هزینه‌های بسیار بالا برای پوشش سرچ‌های چند میلیون دفعه‌ای برای آنها دشوار است و گاهی نمی‌توانند با غول‌هایی مانند مایکروسافت رقابت کنند.

هوش مصنوعی

بدون شک، مایکروسافت در چنین شرایطی قصد دارد تا با سرمایه گذاری بیشتر، رقبای خود را کنار بزند. در مصاحبه‌ای که ” ساتیا نادلا ” با وبسایت ورج داشت، اعلام کرد که مایکروسافت به فرصت استثنایی و کم نظیری دستیافته و می‌خواهد تعادل قدرت در صنعت فناوری را برهم بزند و با آن رقیب بزرگ و اصلی خود یعنی گوگل را به چالش بکشد.

در این بین، نگرش خود ساتیا نادلا نیز به شکل جنگ ستیزی ملاحظه گرانه‌ای پیش می‌رود و خاطر نشان می‌کند که سرمایه گذاری در صنعت پردرآمدی مانند جستجوگرها برای آنها مشکل خاصی نیست.

او همچنین به این موضوع اشاره کرد که بدون شک، گوگل برای پاسخ به چنین اقداماتی ساکت نخواهد ماند و ما می‌خواهیم مردم بدانند که ما آنها را به این چالش دعوت کرده‌ایم.

مقررات

فناوری به طور روزانه بهبود و توسعه می‌یابد، اما قانون گذاران نیز دست روی دست نگذاشته‌اند و همراه با این پروسه ادامه خواهند داد و آگاه هستند که در ابتدا باید از چه زمینه‌هایی آغاز کنند.

به لطف حضور هوش مصنوعی و طلوع چت بات‌های خشن، حالا دست قانون گذاران برای وضع کردن قوانین جدید باز است و می‌توانند با محدودیت‌های جدید عرصه را برای توسعه دهندگان و سرمایه گذاران تنگ کنند.

هوش مصنوعی

اگر چت بات‌های گوگل و مایکروسافت به جای پوشش دادن و خواندن اخبار، آنها را رونویسی می‌کنند، آیا همچنان تحت پوشش ماده ۲۳۰ قانون محافظتی آمریکا قرار می‌گیرند و برای سایر محتواهای اینترنتی و قانون حفظ حریم خصوصی نیز مسئول هستند؟

در حال حاضر، ایتالیا چت باتی با نام رپلیکا را مسدود کرده است؛ زیرا این هوش مصنوعی داده‌های کاربران را جمع آوری می‌کند. از اینرو، مایکروسافت و گوگل چگونه می‌توانند از این موضوع اطمینان حاصل کنند که ربات‌های آنها داده‌های ممنوع شده را حذف می‌کند؟

پایان وب

بزرگترین مشکل موجود در این فهرست، اگرچه به ماهیت هوش مصنوعی مرتبط نیست، بلکه به تاثیر آنها روی وب مرتبط است.

بیایید مسئله را ساده تر بیان کنیم؛ موتورهای جستجوی مبتنی بر هوش مصنوعی اطلاعات و پاسخ‌های مورد نظر خود را از وبسیات‌های خبری و علمی جمع آوری می‌کنند و اگر نتوانند ترافیک مورد نظر سایت را جبران کنند، بسیاری از سایت‍ها بخش عظیمی از درآمد دریافت شده از تبلیغات و میزان بازدید خود را از دست خواهند داد.

در صورت رخداد چنین فاجعه‌ای، سایت‌ها به کار خود پایان خواهند داد و دیگر منبعی وجود ندارد تا هوش مصنوعی بتواند از آنها اطلاعات مورد نظر کاربران را استخراج کند و چنین فرایندی موجب مرگ تدریجی وب می‌شود.

انواع هوش مصنوعی؛ از یادگیری ماشین تا شبکه‌های عصبی مصنوعی

در کنار اطلاعات دردناکی که برای آینده وب برای شما پیشبینی کردیم، متاسفانه، گوگل به لطف اسنیپتزها و وان باکس، چنین اقداماتی را برای وضعیت حال حاضر وب پیاده سازی کرده است و موجب سرعت گرفتن فرایند آن نیز می‌شود.

در سمتی دیگر نیز، مایکروسافت تاکید کرده است که حین نشر اطلاعات، منابع آنها نیز ذکر خواهند شد. با این وجود، ایده اصلی ساخت و توسعه هوش مصنوعی و چت بات‌ها این است که از مدل قبلی خود بهتر و قدرتمندتر باشند.

آنها مطالب مورد نظر را از وبسایت‌ها جمع آوری می‌کنند و با ایجاد خلاصه سازی، زحمت صرف وقت بیشتر را از کاربران کم می‌کنند. به همین دلیل، مایکروسافت نمی‌تواند محصول جدیدی را تولید کند که در کنار ویژگی و قابلیت‌های آینده نگرانه‌اش می‌تواند با سیستم گذشته نیز سازگار باشد و بخش قابل توجهی از کاربران را نیز با سبک و سیاق گذشته همراه کند.

مطالب مرتبط سایت

نظرات

دیدگاهتان را بنویسید