برخی از افراد، از جمله رهبران تکنولوژی، در حال حاضر مشغول به ابراز نگرانی و پیامدهای ناگوار هوش مصنوعی در آینده هستند. این به دلیل روشی است که سیستمهای هوش مصنوعی آموزش میبینند و در مواردی انحرافی را از خود نشان دادهاند.
محققان در آزمایشگاه رسانه MIT آنچه را که آنها هوش مصنوعی سایکوپاتی به نام Norman نامیدند، ایجاد کرده اند. این هوش مصنوعی بر اساس شخصیت داستانی نورمن بیتس از فیلم ترسناک Psycho محصول سال ۱۹۶۰ نامگذاری شده است. این هوش مصنوعی طراحی شده است تا نشان دهد که چگونه داده های مورد استفاده برای آموزش الگوریتم می تواند بر رفتار آن تأثیر بگذارد.
در طی تمرین، عکسی از AI Norman در گوشهای از Reddit قرار گرفتند. مجموعه دادهها حاوی تصاویری از زیرمجموعه ای نامعلوم بود که “برای ثبت و مشاهده واقعیتهای هولناک مرگ” اختصاص داده شده بود.
پس از آن هوش مصنوعی تحت آزمایش رورشاخ (یک آزمون روانشناختی است که از تصاویر جوهری برای تجزیه و تحلیل اختلالات فکر استفاده میکند) قرار گرفت که در آن باید کپشنی برای این تصاویر پیشنهاد کند. به یک شبکه عصبی استاندارد کپشن سازی تصویر (که در MSCOCO آموزش داده شده بود) همان تصاویر انتزاعی نشان داده شد و نتایج مقایسه شده تفاوتهای فاحشی داشت.
به گفته محققان، یک نتیجه گیری میتواند این باشد که ما نباید فقط الگوریتمها را سرزنش کنیم. مجموعه دادههای آموزشی که عمدتا مبتنی بر محتوای تولید شده توسط انسان است، به همان اندازه اهمیت دارد.
بنابراین، اگر ما میترسیم که روزی یک آخرالزمان هوش مصنوعی اتفاق بیافتد، دادههای ایجاد شده توسط انسان ممکن است یکی از دلایلی باشد.
اخیرا، مدیر عامل شرکت مایکروسافت ساتیا نادلا در خواستی برای تعیین اخلاقیات و دستورالعملهای توسعه هوش مصنوعی، زمانی که تلاش کرد تا به دیگران اطمینان دهد که روباتها در آینده ما را رها نخواهند کرد،داده است .
نظرات