محققان آیینهای را طراحی کردهاند که با استفاده از دادههای انسانی قابلیت قضاوت چهره و ذات شما را دارد.
اولین نگاه
وقتی ما کسی در نگاه اول میبینیم به طور ناخود آگاه یک قضات سریع در مورد ویژگیهای کلی او میکنیم. این ویژگی دست خود ما نیست، ما فقط به این صورت آفریده شدهایم. بعد از نگاه کردن به فرد مورد نظر فقط برای چند ثانیه، ما احتمالا چیزهایی در مورد جنسیت سن، نژاد و یا اینکه آیا آنها زیبا و یا راست گو و یا مهربان به نظر میرسند یا خیر برای خود قضاوتهایی را انجام میدهیم.
ولی ممکن است بعد از مدتی که با فرد مورد نظر هم دم شدیم، به این نقطه برسیم که قضاوتهای اولیهی خود را رد کرده و به نتیجهگیریهای جدیدی برسیم. این به نظر یک چیز معمول و عمومی در ایجاد روابط اجتماعی، میرسد. ولی وقتی به جایی از پیشرفت در تکنولوژی برسیم که فرضیات و قضاوتهای ما در شکل گرفتن یک هوش مصنوعی دخالت داشته باشد، هوش مصنوعی که در انتخابهای آینده از این طرز تفکرها استفادهی درست یا نادرست کند، آنگاه است که حتی قضاوتهای اولیهی ما از دیگران نیز اهمیت پیدا میکند و دیگر یک مسئلهی پیش پا افتاده تلقی نمیشود.
به دنبال یک تلاش برای به نمایش درآوردن این معضل اجتماعی، دانشمندان و محققین دانشگاه ملبورن یک هوش مصنوعی با نام «آیینهی بیومتریک» ساختند.
ادراک عمومی
آیینهی بیومتریک یک هوش مصنوعی است که صورت شخصیتها را آنالیز کرده و سپس با توجه به عناصری که نسبت به آنها حساس است، و پس از بررسی این عناصر، در مورد ۱۴ ابعاد شخصیتی فرد مورد نظر قضاوتهایی را ارائه میدهد. این ویژگیهای شخصیتی شامل سن، جنس و سطح جذاب بودن شخص مورد بررسی میباشد.
به منظور اینکه دانشمندان دانشگاه ملبورن، چگونه قضاوت کردن چهرهی افراد را به این هوش مصنوعی آموزش دهند، آنها از چندین داوطلب انسانی درخواست کردند تا در مورد تصویر چهرهی هزاران فرد مختلف قضاوتهایی را ارائه دهند. که قضاوت این افراد هم در مورد همان ۱۴ بعد شخصیتی بود که در حال حاضر هوش مصنوعی از آن بهره میبرد. و این دادهها تبدیل به دیتابیسی برای هوش مصنوعی آیینهی بیومتریک شد تا با استفاده از آنها چهرههای جدید را مورد قضاوت قرار دهد. به دلیل اینکه اطلاعات گرفته شده از داوطلبین انسانی تنها وابسته به ذهنیات و تفکرات شخصی خودشان بود پس وقتی هوش مصنوعی هم قضاوتی ارائه میدهد میتوان مخلوطی از برداشت این افراد را در نتیجهی نهایی احساس کرد. به عنوان مثال اگر بیشتر داوطلبین در مورد افرادی با ریشهای بلند بیان میکردند که راست گویی در آنها کمتر است، این داده بر روی قضاوت هوش مصنوعی در مورد افرادی با ریش بلند تاثیر میگذاشت.
خلق و خوی هوش مصنوعی
برای استفاده از آیینهی بیومتریک نیاز است تا فرد داوطلب به مدت کوتاهی در مقابل سیستم بایستد و سیستم به سرعت چهرهی طرف مقابل خود را اسکن کرده و آنگاه با توجه به دادههای قدیمی خود، لیست صفات ۱۴ گانهای را نشان میدهد که از روی چهرهی شخص به دست آورده است. و سپس هوش مصنوعی از داوطلب پرسش میکند در صورتی که این اطلاعات به طور عمومی انتشار یابند چه احساسی خواهند داشت؟ و چه احساسی خواهند داشت به خاطر اینکه یک هوش مصنوعی نمرهی خوبی از نظر قابل اعتماد بودن به آنها نداده باشد و آنها به دلیل این نمرهی کم، یک موقعیت شغلی را از دست بدهند؟ و در سوال پایانی از شخص سوال میشود که چه اتفاقی میافتد اگر نهادهای رسمی مجری قانون به دلیل شناسایی عواطف و رفتار خشونتآمیز در صورت شما به دنبال تشخیص این هوش مصنوعی، اقدام به دستگیری و مجازات شما بکنند؟
مدیر اجرایی این تحقیق، نیلز ووترز (Niels Wouters) در یک کنفرانس خبری این چنین در مورد هوش مصنوعی طراحی شده توضیح میدهد:
هدف از تحقیق ما این بود تا این پرسش را در محفلهای مختلف بر انگیخته کنیم که در واقع حد و مرز هوش مصنوعی در جوامع امروزی در کدام نقطه تعیین میشود؟ ما در این تحقیق به داوطلبین خود نشان دادیم که انتخابهای یک هوش مصنوعی میتواند تا چه حد غیر اخلاقی و مشکلزا باشد. تا حدی که امکان به وجود آمدن پسآمدهای اجتماعی غیر قابل جبرانی برای آن وجود داشته باشد.
ما با انجام این پروژه به دنبال این هدف هستیم تا گفتگوها و نظارتها عمومی را تقویت کرده و امیدواریم که در نهایت به درک مشترک مناسبی از خلق و خوی یک هوش مصنوعی برسیم.
این طرف گیری یک جانبه باید نابود شود
هوش مصنوعیهایی همانند آیینهی بیومتریک که به این شدت جانب گیرانه انتخابهای خود را برمیگزینند، با توجه به اینکه هوش مصنوعیها در جوامع امروزی نقش پر رنگتر و پر رنگتری را ایفاء میکنند، ممکن است عواقب فاجعه باری را در پی داشته باشند. و این موضوعی نیست که ما در آینده نگران آن باشیم، این مفهوم و چالشی است که امروزه گریبانگیر جوامع مدرن شده است. ما در سیستمهای امروز شاهد ظهور مثالهایی از این دسته هوش مصنوعیها هستیم. در حالیکه محققین در حال تلاش برای یافتن راهی به منظور حل چنین مشکلاتی برای سیستمها در آینده هستند، اما این موضوع همچنان از اهمیت بالایی برخوردار است که عموم مردم از تاثیر هوش مصنوعی جانب گیر، و پتانسیل تخریبگری بالای آن اطلاع کامل داشته باشند و نسبت به آن محتاطانهتر عمل کنند. نظر شما چیست؟ آیا میتوان برای اختیارات هوش مصنوعیها حد و مرزی تعریف کرد؟
نظرات