برای سالهای طولانی، محتواهایی که تروریسم را ترویج میدهند، در عرصههای مختلف رسانههای اجتماعی مانند فیس بوک و توییتر رشد کرده اند و نسبت به آنها برخورد متناسب نشده است، بله مطمئنا شبکههای اجتماعی گاه و بیگاه صفحات این گونه کاربران را مسدود میکردند ولی در نهایت این گروهها می توانستند افکار و اعتقادات خود را با استفاده از این ابزار ترویج دهند و به هدف مورد نظر خود که همانا ترغیب افراد نژاد پرست و ناآگاه است، دست یافتهاند.
البته از حق نیز نباید بگذریم چرا که مبارزه با این دسته از مسائل به نوعی یک نزاع سخت شناخته میشود که شرکتهای فن آوری محور را مجبور به باز کردن اتاقهای فکر مقابله با این دسته از افکار و همچنین استخدام متخصصان جدیدی کرده است. یک راه حل که شرکتهایی مانند فیس بوک در حال حاضر امیدهای خود را به آن بستهاند همانا فن آوری به نام یادگیری ماشینی است. در یکی از جدیدترین پستهایی که شرکت فیسبوک در صفحهی وبلاگ خود قرار داده است، این شبکه اجتماعی عظیم الجثه، نحوه استفاده از تکنولوژی نامبرده را به منظور شناسایی محتواهایی که ممکن است به هر طریقی قصد پشتیبانی و ترویج افکار و عقاید گروههای تروریستی مانند داعش یا القاعده پشتیبانی کند، را توضیح داده است. این شرکت همچنین تضمین این را داده است که هر محتوای مرتبط با این گروهها را با استفاده از این سیستم با گذشت زمان به طور کامل از شبکهی اجتماعی خود پاک خواهد کرد.
در طی این فن آوری جدی، تیم طراح در شرکت فیس بوک یک الگوریتم جدید را طراحی کرده اند که هر پست را که موجب نقض سیاستهای ضدتروریستی شرکت شده است را به طور جدی زیر نظر گرفته و بررسیهای جدیتری را بر روی آن پست به خصوص انجام خواهد داد. مهندسان در طی این الگوریتم یک مقدار از امتیاز را نسبت به مقداری که یک پست قواعد فیسبوک را نقض میکند، به آن میدهند اگر این نمره از یک آستانه خاص عبور کند، پست بلافاصله بدون حتی دخالت اوپراتور انسانی از روی این شبکهی اجتماعی برداشته خواهد شد.
با این حال فیسبوک با به اشتراک گذاشتن این پست وبلاگی ،نخواسته است تا اطلاعات را با جزییات بسیار بالا قرار دهد چرا که این الگوریتم به یکی از رازهای این شرکت تعلق خواهد داشت و فیسبوک تمایل ندارد تا این اطلاعات در دسترس همهی افراد قرار داشته باشد. از همین رو این بسیار قابل درک و منطقی است که فیسبوک نخواهد ریز جزئییات این الگوریتم افزوده شده را در اختیار ما قرار دهد چرا که فیسبوک در حال حاضر در حال اجرای یک بازی به شدت خطرناک و مخاطره برانگیز است و در صورت انتقال این اطلاعات و رسیدن آنها به دست منابع نا مطمئن آیندهی خود شبکه نیز در معرض نابودی قرار خواهد گرفت.
فیس بوک در حال حاضر این مسئله را به طور کامل تایید میکند که هیچ سیستم کاملا مطلوبی برای شناسایی سریع و صد در صدی این دسته از محتویها در شبکهی اجتماعیاش ندارد ولی به این باور دارد که به زودی راه حل مناسب برای این کار را پیدا خواهد کرد. این شرکت خوشبختانه، در ماه آوریل روند تجدید نظر خود را به روز کرد، این اقدام به این دلیل انجام گرفته است تا در صورتی که الگوریتمهای جدید پستهایی را به اشتباه از فیسبوک پاک کردند، بتوانند کار صورت گرفته را جبران و پست مربوطه را بازگردانند.
با تمام کاستیهای موجود در روشهای حال حاضر سیستمهای موجود برای شناسایی محتویهای خطرناک در سطح شبکههای اجتماعی ولی با این حال فیسبوک در مسیر درستی در حال پیش رفتن است و ما نیز به وضوح بر این مسئله واقف هستیم که نه حضور اپراتور انسانی و نه الگوریتمهای یادگیری ماشینی قابلیت این را ندارند که بتوانند به طور کامل تروریسم را از صحنهی روزگار پاک کنند ولی با این حال میتوان به آینده امیدوار بود چرا که ما تا به اینجای کار مسائل زیادی را حل و پشت سرگذاشتهایم و مسیر پیشروی ما صعودی و رو به جلو است. نظرات خود را با ما به اشتراک بگذارید.
نظرات