این آیینه‌ی بیومتریک با تقلید، دیگران را قضاوت خواهد کرد (ویدئو) - تکفارس 
این آیینه‌ی بیومتریک با تقلید، دیگران را قضاوت خواهد کرد (ویدئو) - تکفارس 

این آیینه‌ی بیومتریک با تقلید، دیگران را قضاوت خواهد کرد (ویدئو)

امیر مریخ
۱۰ مرداد ۱۳۹۷ - 16:00
این آیینه‌ی بیومتریک با تقلید، دیگران را قضاوت خواهد کرد (ویدئو) - تکفارس 

محققان آیینه‌ای را طراحی کرده‌اند که با استفاده از داده‌های انسانی قابلیت قضاوت چهره و ذات شما را دارد.

 

اولین نگاه

وقتی ما کسی در نگاه اول می‌بینیم به طور ناخود آگاه یک قضات سریع در مورد ویژگی‌های کلی او می‌کنیم. این ویژگی دست خود ما نیست، ما فقط به این صورت آفریده شده‌ایم. بعد از نگاه کردن به فرد مورد نظر فقط برای چند ثانیه، ما احتمالا چیزهایی در مورد جنسیت سن، نژاد و یا اینکه آیا آن‌ها زیبا و یا راست گو و یا مهربان به نظر می‌رسند یا خیر برای خود قضاوت‌هایی را انجام می‌دهیم.

ولی ممکن است بعد از مدتی که با فرد مورد نظر هم دم شدیم، به این نقطه برسیم که قضاوت‌های اولیه‌ی خود را رد کرده و به نتیجه‌گیری‌های جدیدی برسیم. این به نظر یک چیز معمول و عمومی در ایجاد روابط اجتماعی، می‌رسد. ولی وقتی به جایی از پیشرفت در تکنولوژی برسیم که فرضیات و قضاوت‌های ما در شکل گرفتن یک هوش مصنوعی دخالت داشته باشد، هوش مصنوعی که در انتخاب‌های آینده از این طرز تفکر‌ها استفاده‌ی درست یا نادرست کند، آنگاه است که حتی قضاوت‌های اولیه‌ی ما از دیگران نیز اهمیت پیدا می‌کند و دیگر یک مسئله‌ی پیش پا افتاده تلقی نمی‌شود.

به دنبال یک تلاش برای به نمایش درآوردن این معضل اجتماعی، دانشمندان و محققین دانشگاه ملبورن یک هوش مصنوعی با نام «آیینه‌ی بیومتریک» ساختند.

ادراک عمومی

آیینه‌ی بیومتریک یک هوش مصنوعی است که صورت شخصیت‌ها را آنالیز کرده و سپس با توجه به عناصری که نسبت به آن‌ها حساس است، و پس از بررسی این عناصر، در مورد ۱۴ ابعاد شخصیتی فرد مورد نظر قضاوت‌هایی را ارائه می‌دهد. این ویژگی‌های شخصیتی شامل سن، جنس و سطح جذاب بودن شخص مورد بررسی می‌باشد.

به منظور اینکه دانشمندان دانشگاه ملبورن، چگونه قضاوت کردن چهره‌ی افراد را به این هوش مصنوعی آموزش دهند، آن‌ها از چندین داوطلب انسانی درخواست کردند تا در مورد تصویر چهره‌ی هزاران فرد مختلف قضاوت‌هایی را ارائه دهند. که قضاوت این افراد هم در مورد همان ۱۴ بعد شخصیتی بود که در حال حاضر هوش مصنوعی از آن بهره ‌می‌برد. و این داده‌ها تبدیل به دیتابیسی برای هوش مصنوعی آیینه‌ی بیومتریک شد تا با استفاده از آن‌ها چهره‌های جدید را مورد قضاوت قرار دهد. به دلیل اینکه اطلاعات گرفته شده از داوطلبین انسانی تنها وابسته به ذهنیات و تفکرات شخصی خودشان بود پس وقتی هوش مصنوعی هم قضاوتی ارائه می‌دهد می‌توان مخلوطی از برداشت این افراد را در نتیجه‌ی نهایی احساس کرد. به عنوان مثال اگر بیشتر داوطلبین در مورد افرادی با ریش‌های بلند بیان می‌کردند که راست گویی در آن‌ها کمتر است، این داده بر روی قضاوت هوش مصنوعی در مورد افرادی با ریش بلند تاثیر ‌می‌گذاشت.

خلق و خوی هوش مصنوعی

برای استفاده از آیینه‌ی بیومتریک نیاز است تا فرد داوطلب به مدت کوتاهی در مقابل سیستم بایستد و سیستم به سرعت چهره‌ی طرف مقابل خود را اسکن کرده و آنگاه با توجه به داده‌های قدیمی خود، لیست صفات ۱۴ گانه‌ای را نشان می‌دهد که از روی چهره‌ی شخص به دست آورده است. و سپس هوش مصنوعی از داوطلب پرسش می‌کند در صورتی که این اطلاعات به طور عمومی انتشار یابند چه احساسی خواهند داشت؟ و چه احساسی خواهند داشت به خاطر اینکه یک هوش مصنوعی نمره‌ی خوبی از نظر قابل اعتماد بودن به آن‌ها نداده باشد و آن‌ها به دلیل این نمره‌ی کم، یک موقعیت شغلی را از دست بدهند؟ و در سوال پایانی از شخص سوال می‌شود که چه اتفاقی می‌افتد اگر نهاد‌های رسمی مجری قانون به دلیل شناسایی عواطف و رفتار خشونت‌آمیز در صورت شما به دنبال تشخیص  این هوش مصنوعی، اقدام به دستگیری و مجازات شما بکنند؟

مدیر اجرایی این تحقیق، نیلز ووترز (Niels Wouters) در یک کنفرانس خبری این چنین در مورد هوش مصنوعی طراحی شده توضیح می‌دهد:

هدف از تحقیق ما این بود تا این پرسش را در محفل‌های مختلف بر انگیخته کنیم که در واقع حد و مرز هوش مصنوعی در جوامع امروزی در کدام نقطه تعیین می‌شود؟ ما در این تحقیق به داوطلبین خود نشان دادیم که انتخاب‌های یک هوش مصنوعی می‌تواند تا چه حد غیر اخلاقی و مشکل‌زا باشد. تا حدی که امکان به وجود آمدن پس‌آمدهای اجتماعی غیر قابل جبرانی برای آن وجود داشته باشد.

ما با انجام این پروژه‌ به دنبال این هدف هستیم تا گفتگو‌ها و نظارت‌ها عمومی را تقویت کرده و امیدواریم که در نهایت به درک مشترک مناسبی از خلق و خوی یک هوش مصنوعی برسیم.

این طرف گیری یک جانبه باید نابود شود

هوش مصنوعی‌هایی همانند آیینه‌ی بیومتریک که به این شدت جانب گیرانه انتخاب‌های خود را برمی‌گزینند، با توجه به اینکه هوش مصنوعی‌ها در جوامع امروزی نقش پر رنگ‌تر و پر رنگ‌‌تری را ایفاء می‌کنند، ممکن است عواقب فاجعه باری را در پی داشته باشند. و این موضوعی نیست که ما در آینده نگران آن باشیم، این مفهوم و چالشی است که امروزه گریبانگیر جوامع مدرن شده است. ما در سیستم‌های امروز شاهد ظهور مثال‌هایی از این دسته هوش مصنوعی‌ها هستیم. در حالیکه محققین در حال تلاش برای یافتن راهی به منظور حل چنین مشکلاتی برای سیستم‌ها در آینده هستند، اما این موضوع همچنان از اهمیت بالایی برخوردار است که عموم مردم از تاثیر هوش مصنوعی جانب گیر، و پتانسیل تخریب‌‌گری بالای آن اطلاع کامل داشته باشند و نسبت به آن محتاطانه‌تر عمل کنند. نظر شما چیست؟ آیا می‌توان برای اختیارات هوش مصنوعی‌ها حد و مرزی تعریف کرد؟

مطالب مرتبط سایت

نظرات

دیدگاهتان را بنویسید