دستیار صوتی منتخب شما احتمالا دارای صدای زنانه است. شما ممکن است زیاد به آن فکر نکنید اما سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد (یونسکو) معتقد است که دستیاران هوشمند ممکن است کلیشههای جنسیتی منفی را تقویت کنند و همچنین در حالی که نمیتوانند به زبان خشونت آمیز به درستی واکنش نشان دهند که این به نوبهی خود به نتایج مضر منهی میشود.
محققان یونسکو در مقالهای برخی از تعصبات ضمنی در تحقیقات هوش مصنوعی را بررسی کردم. نویسندگان مقاله معتقدند که به طور سنتی با ارائه اسم و صدای زنانه به طور پیش فرض، شرکتها به طور ناخواسته ایدههای منفی و خارج از معیار را در مورد زنان تقویت میکنند. این عمل آنها را به عنوان مستخدم در نظر میگیرد و در نقشهایی قرار میدهند که انتظار میرود تمام کارهای خواسته شده از آنها را انجام دهند.
علاوه بر این، مقاله نگاهی به نحوه پاسخگویی دستیاران صوتی بر مبنای بد زبانی ارائه کرد. آنچه آنها متوجه شدند این است که هوش مصنوعی به جای آنکه اقداماتی را برای جلوگیری از آنها انجام دهد. این نظرات را منحرف میکند. اگر کاربر یک دستیار صوتی را تهدید کند، اغلب جوک احمقانه یا پیام نادرستی را دریافت میکند. محققان یونسکو معتقدند که شرکتهای فناوری باید در این سیستمها ضمانتهایی ایجاد کنند که به کاهش زبان سوء استفاده گرایی در برابر صداهای زنانه کمک کند. محققان بر این باورند که با عدم انجام این کار، شرکتها خطر رفتارهایی مانند تهدید خشونتامیز علیه زنان را عادی میکنند.
طبق گفته یونسکو، بخشی از مشکل این است که بیشتر شرکتهای فناوری دارای تیمهای مهندسی هستند که به طور گسترده و عمدتا توسط مردان اداره میشود. از آنجایی که آنها احتمالا تجربه مستقیم در برخورد با این نوع رفتار را ندارند و قربانی این نوع برداشتهای منفی و نقش جنسیتی (در برابر زنان) نیستند، لزوما در طراحی سیستمهای هوش مصنوعی به این نکات توجهی نشان نمیدهند.
محققان در گزارش خود نوشتند:
شرکتهایی مانند اپل و آمازون که توسط تیمهای مهندسی مردانه توسعه پیدا میکنند سیستم هوش مصنوعی ساختهاند که پذیرای آزارهای کلامی هستند. از آنجا که صدای اکثر دستیارهای صوتی زنانه است، یک سیگنال ارسال میکند که زنان … مشتاق هستند که به تمام درخواستها پاسخ دهند و این کار با یک ” هی “یا” OK ” قابل دسترسی است. دستیار هیچ قدرتی بر روی این موضوع ندارد. بدون توجه به لحن و یا خصومت صدا، دستورات را بر عهده میگیرد و به پرسشها پاسخ میدهد.
یونسکو معتقد است بهترین راه حل برای حل مشکل این است که از صدای بدون جنسیتی برای هوش مصنوعی استفاده کنند. این سازمان همچنین پیشنهاد میکند که پاسخها و سیستمهایی را ایجاد کند که زبان و اعمال خشونت آمیز و توهین را متوقف کند. محققان معتقدند که شرکتهای فناوری همچنین باید موقعیت دستیار صوتی به عنوان یک خدمتکار بدون چون و چرا را برای جلوگیری از گسترش کلیشههای مضر متوقف کنند.
نظرات