تصور کنید در یک شهر هوشمند زندگی میکنید که چهره شما را میشناسد و هر حرکت شما را دنبال میکند-مکانهایی که میروید، افرادی که ملاقات میکنید و همه کارهایی که در طول مسیر انجام میدهید. در طول زمان، هوش مصنوعی پروندهای ایجاد میکند که در آن گزارش میشود چه قدر احتمال دارد شما مرتکب جرم شوید. هنگامی که ریسک بالا باشد، پلس دست به اقدام پیشگیرانه میزند.
هند و چین هر دو در حال حاضر این سطح از نظارت را اجرا میکنند تا بتوانند نرخ وقوع جرایم را پایین بیاورند و تروریستها را قبل از اقدام شناسایی کنند. ژاپن نیز به دنبال پیادهسازی سیستمهای پیشبینانه پیش از بازیهای المپیک ۲۰۲۰ توکیو است.
نظارت فراگیر و همزمان به این صورت امکانپذیر است، چون رایانههای قدرتمند و پیچیده میتوانند دادههای هزاران دوربین فیلمبرداری را برای تشخیص حرکت و چهره پردازش کنند، که همگی توسط هوش منصوعی انجام میشود.
قبلاً از گشتهای پلیس برای حفظ امنیت عمومی استفاده میشد. اما این زمانی بود که در جوامع کوچک زندگی میکردیم. با رشد شهرها، افسران پلیس به تنهایی قادر به انجام وظیفه نبودند و از دوربینهای مدار بسته، تشخیص چهره و سیستمهای پیشبینانه استفاده میشود.
حامیان حفظ حریم خصوصی و آزادیخواهان مدنی اگر اعتراض هم نداشته باشند، نگران هستند که این سطح از نظارت ممکن است تبدیل به ابزار تبعیض شود. در همین حال، حامیان امنیت عمومی و ضد تروریسم استدلال دارند که فناوری پیشبینانه دارای پتانسیل بزرگی برای خنثی کردن حملات تروریستی و دیگر تهدیدات امنیت عمومی است.
حالا سؤال این است که دقیقاً چطور میتوانیم مرز بین منافع عمومی و آزادی فردی را مشخص کنیم؟ پاسخ مورد به مورد متفاوت خواهد بود و باید با توجه به تمام مسائل ذینفعان تعیین شود. برای مثال، بعد از حملات تروریستی در یازده سپتامبر در آمریکا، میزان نظارت و بازرسی در فرودگاهها به طرز چشمگیری افزایش یافته است. با این حال، مسافران پذیرفتند که این شرایط به نفع آنها و سایر مسافران است.
شما حق دارید در منزل خود حریم خصوصی داشته باشید. استثناء زمانی است که در خانه هستید، اما درگیر فعالیتهای جنایی میشوید که جامعه را تهدید میکند، اینجاست که بین حقوق فردی و منافع عمومی مرز تعیین میشود.
هنگامی که بیرون میروید، هر کسی میتواند به شما نگاه کند. آنها ممکن است حرفهای شما را هم بشنوند. حق حفظ حریم خصوصی در مقابل نگاه خیره سایر مردم وجود ندارد و هیچ وقت هم وجود نداشته است. اما نگاه به منظور پیشبینی متفاوت است و حقیقت ناخوشایند این است که فناوری نظارت پیشبینانه این پتانسیل را دارد که به عنوان ابزار تعدی مورد استفاده قرار بگیرد. مدیریت این ریسک در جامعه آزاد و دموکراتیک قطعاً یک چالش است، اما غیر قابل کنترل نیست.
با توجه به تجارب به دست آمده، ظاهراً عده زیادی خواستار ادامه به کارگیری نظارت پیشبینانه هستند. برای مثال، در استرالیا ۱۵ حمله تروریستی طی سه سال گذشته به واسطه استفاده پلیس از الگوریتمهای رایانهای خنثی شدهاند. سؤال این است که چطور میتوانیم خطرات را به حداقل برسانیم؟ پاسخ ایجاد چارچوب قانونی است که ضامن شفافیت اخلاقی در شیوههای نظارت پیشبینانه با هوش مصنوعی باشد.
به علاوه بدین ترتیب اطمینان حاصل میشود که دادههای وارد شده به سیستمهای پیشبینانه دقیق و بیغرض هستند. مانند هر سیستم رایانهای، ورودی سیستمهای پیشبینانه خروجی را تعیین میکند. رسیدگی به نگرانیهای موجود راجع به غرضورزی در سیستمهای پیشبینانه یک امر ضروری است.
نظرات