این روزها سخنان توهین آمیز در رسانه های اجتماعی به یک امر عادی تبدیل شده است، دلیلش هم مشخص است، کسی که در پشت کامپیوتر نشسته است راحت تر سخنان نفرت انگیز را به زبان میآورد. جلوگیری از حجم عظیمی از کلام های منفور و زننده در رسانه های اجتماعی کاری دشوار است، از این رو برخی ها به هوش مصنوعی جهت این کار مراجعه می کنند.
در یک دنیای ایده آل بهترین چیزی که باعث توقف سخنان منفور می شود، حس نجابت و نزاکت فرد و یا به عبارت دیگر، احترام عمیق افراد نسبت به یکدیگر صرف نظر از تفاوت های نژادی یا جنسیتی است. ولی ما در دنیای ایده آل زندگی نمی کنیم. بنابرین سخنان نفرت انگیز افزایش می یابد و فضای نسبتا آزادی که رسانه های اجتماعی در اختیار ما قرار می دهد امکان چنین اقداماتی را آسان تر کرده است.
سایت های ایجاد و توسعه شبکه های اجتماعی، تلاش هایی در جهت جلوگیری از این مشکل کرده است اما تقریبا بی فایده بوده است. با وجود اینکه می توانید سخنان منفور را گزارش دهید اما نظارت بر همه کلماتی که حاوی نفرت و انزجار است و در مکالمات خصوصی و انجمن های عمومی زده می شود غیر ممکن است. محققان هم در تلاش هستند تا با استفاده از هوش مصنوعی بتوانند بر این مشکل فایق آیند.
حاجی محمد سلیم و همکارانش در دانشگاه مک گیل در مونتریال کانادا، هوش مصنوعی تولید کرده اند که به سخنان نظارت دارد. این یک تاکتیک متفاوت از آنچه شرکت جیگسا(از شرکت های زیرمجموعه آلفابت) قبلا اختراع کرده بود، است. اختراع جیگسا فقط به عبارات یا کلمات کلیدی خاصی تمرکز داشت، که البته نتایج غلطی در پی داشت. مطابق مجله نیو ساینتست، این کار جیگسا اصلا نتیجه ای نداد. مثلا جمله “شما دختر بسیار باهوش هستی” را سخنی منفور تر از جمله “من عاشق فاراح هستم” تشخیص داد.
در یک مقاله ای که در فضای مجازی منتشر شده است، سلیم و تیمش نحوه کار هوش مصنوعی شان را توضیح دادند. طبق گفته آن ها، الگوریتم استفاده شده در هوش مصنوعی با استفاده از مجموعه ای از داده های موجود در پست های گروه های پر طرفداری در ردیت و دیگر انجمن ها و وبسایت ها، بین سال های ۲۰۰۶ و ۲۰۱۶ آموزش دیده اند. آن ها بر سه گروه تمرکز داشتند. این سه گروه که عبارت اند از سیاهپوستان، افراد چاق و زنان که اغلب در اینترنت با گفتار توهین آمیز روبرو می شدند.
محققانی تیم سلیم نوشتند :”ما روشی جهت تشخیص گفتارهای توهین آمیز ارایه دادیم. این روش، فرایند حاشیه نویسی پرهزینه که اغلب در آموزش سیستم های کلیدواژه مورد نیاز است را دور می زند و از این رو پیشرفت قابل توجهی نسبت به پیشرفته ترین روش های امروزی داشته است.”
الگوریتم که این تیم در هوش مصنوعی طراحی کرده اند معانی پنهانی برخی از واژه ها که هوش های مصنوعی مبتنی بر کلیدواژه، قادر به شناسایی آن ها نیستند را توانست تشخیص دهد، و در نتیجه نسبت به متود کلیدواژه، خطاهای شناسایی(False Positive) کمتری داشت. توماس داویدسون، پروفسور دانشگاه کورنل، در صاحبه با مجله نیوساینتست گفت: “مقایسه اجتماع های نفرت انگیز و اجتماع هایی که در آن از نفرت و انزجار خبری نیست برای یافتن زبانی که آنها را متمایز می کند می تواند راه حل مناسبی باشد.” با این وجود، یک سری محدودیت هایی وجود دارد. هوش مصنوعی تیم سلیم در پست های ردیت مورد استفاده قرار گرفت و آموزش دید. ممکن است این هوش مصنوعی در وبسایت های دیگر کارآمد تر عمل می کرد. علاوه بر این همچنین در برخی مواقع نتوانست سخنان کاملا زننده را تشخیص دهد. هوش های مصنوعی دیگر که مبتنی بر کلیدواژه عمل می کنند می توانستند این سخنان را تشخیص دهند ولی هوش مصنوعی تیم سلیم گاهی اوقات در این مورد خوب عمل نکرد. همین باعث غیر قابل درک شدن این هوش مصنوعی است. جلوگیری از سخنان نفرت آمیز مانند جلوگیری از تبلیغات تروریستی کار دشواری است.
در حقیقت گرچه هوش مصنوعی امکان دارد در تشخیص سخنان توهین آمیز بهتر عمل کند ولی ممکن است به تنهایی قادر به چنین کاری نباشد. داویدسون در این رابطه می گوید : ” بالاخره سخنان نفرت انگیز پدیده ای ذهنی است که تشخیص آن نیازمند عقل بشر هست.” در یک کلام می توان گفت هیچ چیزی جز نزاکت خود انسان نمی تواند سخنان نفرت انگیز را متوقف سازد.
نظرات