قوانین پیرامون هوش مصنوعی چگونه خواهند بود؟ - تکفارس 
قوانین پیرامون هوش مصنوعی چگونه خواهند بود؟ - تکفارس 

قوانین پیرامون هوش مصنوعی چگونه خواهند بود؟

محمدرضا نصیرزاده
۱ شهریور ۱۴۰۲ - 10:19
قوانین هوش مصنوعی

کنگره چگونه می‌تواند با وضع قوانین جدید هوش مصنوعی را چارچوب‌مند کند؟

خلاصه:

  • سیاست‌های جدید فدرال برای قانون مندکردن هوش مصنوعی شکل بیسار مناسبی دارند؛ اما این امکان وجود دارد تحت‌تأثیر شرکت‌های فناوری این اصلاحات نادیده گرفته شوند. معضلی که می‌تواند توسط کنگره با قانونی کردن مسئولیت‌پذیری از میان برداشته شود.
  • راه‌حل دیگر این است که کنگره به‌جای صدور مجوز به شرکت‌ها برای انتشار فناوری‌های پیشرفته هوش مصنوعی آنها را برای ایجاد هیئت‌های بازبینی تحت‌فشار قرار دهد.
  • دولت در مهار و جلوگیری از انحصارگرایی در حوزه تکنولوژی موفق چندانی نداشته است؛ اما قوانین مربوط به داده‌های حریم شخصی و الزام به شفافیت بیشتر می‌تواند به بررسی اثرگذاری شرکت‌ها کمک کند.

سام آلتمن Sam Altman مدیرعامل شرکت Open AI در اظهاراتی که در طول شهادتش در سنا روز ۱۶ می ۲۰۲۳ داشته است از قانون‌گذاران خواسته بود تا نظارت بر هوش مصنوعی را جدی بگیرند. راه‌حل‌های پیشنهادی آلتمن در این باره از تشکیل یک آژانس نظارتی بر هوش مصنوعی و همچنین الزام به داشتن مجوز برای شرکت‌های فعال در این حوزه است. در کنار سخنان آلتمن پیشنهاد افراد خبره دیگر این حوزه نیز به همان اندازه مهم است. این پیشنهادها شاملِ نیاز به شفافیت در داده‌های آموزشی training data و ایجاد یک چارچوب کاملاً مشخص برای درنظرگرفتن خطرات مرتبط با هوش مصنوعی است.

مطالب مرتبط:

همچنین یکی دیگر از نکته‌هایی که کم‌تر به آن توجه شده بود این است که باتوجه‌ به اقتصاد پیرامون ساخت مدل‌های هوش مصنوعی در مقیاس بزرگ، این صنعت نوپا می‌تواند شاهد نوع جدیدی از انحصار (Monopoly) در حوزه فناوری باشد.

از نظر یک محققی رسانه‌های اجتماعی و هوش مصنوعی, به نظر می‌رسد پیشنهادهای آلتمن مسئله‌های مهمی را برجسته کرده است. هرچند که او در جواب راهکار و پاسخی ارائه نمی‌دهد.این محقق ادامه می‌دهد با این که وجود چنین مقرراتی مفید است؛ اما این که این مقررات به چه شکلی باشند نیز همانقدر مهم هستند. صدور مجوز هم یک راه حل منطقی به نظر می‌رسد؛ اما برای چه کسی؟ در ضمن در هرگونه تلاشی برای ایجاد چارچوب قانونی برای تنظیم صنعت هوش مصنوعی باید قدرت اقتصادی و تأثیر شرکت هارا نیز در نظر گرفت.

آژانسی برای تنظیم هوش مصنوعی؟

قانون‌گذاران و سیاست‌گذاران در سراسر دنیا از مدت ها قبل شروع به رسیدگی به برخی از مسائل مطرح شده توسط آلتمن کرده بودند. قانون هوش مصنوعی اروپا مبتنی بر یک مدل ریسک است که کاربردهای هوش مصنوعی را به سه دسته تقسیم‌بندی می‌کند: غیرقابل‌قبول، ریسک بالا و ریسک کم یا حداقلی. این دسته‌بندی تفاوت میان خطرات ابزارهایی که برای دولت‌ها به امتیازدهی و یا استخدام خودکار می‌پردازد را در مقابل ابزارهایی که از هوش مصنوعی برای مواردی مثل فیلترکردن اسپم می‌پردازد را نشان می‌دهد.

مؤسسه ملی استانداردها و فناوری ایالات متحده نیز دارای چارچوبی مشخص برای مدیریت خطرات هوش مصنوعی است که با نظرات گسترده ذی‌نفعان متعدد، از جمله اتاق بازرگانی ایالات متحده و فدراسیون دانشمندان آمریکایی، و همچنین سایر انجمن‌های تجاری و حرفه‌ای، شرکت‌های فناوری و اتاق‌های فکر مختلف همراه است. همچنین آژانس‌های فدرال مانند کمیسیون فرصت‌های شغلی برابر و کمیسیون تجارت فدرال از پیش دستورالعمل‌هایی را در مورد برخی از خطراتِ ذاتی هوش مصنوعی صادر کرده‌اند. کمیسیون ایمنی محصولات مصرف‌کننده و سایر آژانس‌ها نیز باید در این راستا نقشی ایفا کنند.

کنگره به‌جای ایجاد یک آژانس جدید که ممکن است توسط همان صنعت فناوری که قصد چارچوب‌مند کردنش را دارد مورد تهدید قرار گیرد می‌تواند از یک سری چهارچوب‌های خصوصی و عمومی حمایت کند و لوایحی مثل قانون پاسخگویی الگوریتمی را تصویب کند. این حرکت می‌تواند با تحمیل مسئولیت به شرکت‌ها و تصویب قوانین جامعی در مورد حریم خصوصی کمک زیادی به چارچوب‌مندی در این حوزه‌ها داشته باشد.

چارچوب‌مند کردن هوش مصنوعی باید شامل همکاری بین دانشگاهیان، صنعت، کارشناسان حوزه سیاست‌گذاری و آژانس‌های بین‌المللی باشد. کارشناسان این رویکرد را به سازمان‌های بین‌المللی مانند سازمان اروپایی تحقیقات هسته‌ای معروف به سرن CERN و هیئت بین‌دولتی تغییرات آب‌وهوا تشبیه کرده‌اند. این مثال‌ها مدل‌هایی را برای سیاست‌گذاران امروزی برای چگونگی برخورد با صنعت هوش مصنوعی ارائه می‌کنند.

صدور مجوز به اشخاص، نه شرکت‌ها

آلتمن پیشنهاد کرد که شرکت‌ها می‌توانند مجوز انتشار فناوری‌های هوش مصنوعی را برای استفاده های عمومی دریافت کنند، او تصریح کرد که منظور او یک نوع هوش مصنوعی عمومی است، و این خود به این معنی است که ما باید انتظار یک هوش مصنوعی با قدرت برابری با هوش انسان را در آینده داشته باشیم. موردی که کنترل کردن آن شبیه به شرکت‌هایی خواهد بود که مجوز استفاده از سایر فناوری‌های بالقوه خطرناک مانند انرژی هسته‌ای را دریافت می‌کنند. و صدور چنین مجوزهایی می‌تواند نقش مهمی قبل از تحقق سناریویی آینده‌نگر مانند سلطه هوش مصنوعی بر ما را داشته باشد.

آنچه حسابرسی الگوریتمی نامیده می‌شود نیازمند اعتبار، استانداردهای مشخص و اعمال شده و آموزش گسترده است. ضرورت پاسخ‌گویی تنها متوجه و مربوط به صدور مجوز برای افراد نیست، بلکه نیازمند به استانداردهای همه‌جانبه و عملی است.

متخصصان حوزه عدالت هوش مصنوعی معتقد هستند موضوعاتی که مرتبط با سوگیری و بی طرفی در هوش مصنوعی هستند را نمی‌توان تنها با روش‌های فنی مورد بررسی قرارداد و در راستای کاهش خطر هوش مصنوعی نیاز به اقدامات جامع‌تری خواهیم داشت. در همین راستا و برای استفاده مسئولانه از هوش مصنوعی، در حوزه پزشکی نهادهای دانشگاهی و انجمن‌های حرفه‌ای نیز استانداردهایی را برای نویسندگی متون تولید شده توسط هوش مصنوعی و همچنین برای اشتراک‌گذاری داده‌ها اتخاذ کرده‌اند.

تقویت قوانین موجود در مورد حریم خصوصی و حفاظت از حریم شخصی مصرف‌کننده معرف آن چیزی است که ما از پاسخگویی الگوریتمی انتظار داریم که به ابهام‌زدایی از پیچیدگی‌های هوش مصنوعی کمک می‌کند. همچنین مهم است که بدانیم درخواست شفافیت بیشتر در مورد داده‌ها ممکن است محدودیت‌های جدیدی را بر سازمان‌ها تحمیل کند.

محققانی که در حوزه حریم خصوصی داده‌ها و اخلاق هوش مصنوعی در حال مطالعه هستند خواستار «فرایند قانونی فناوری» و چارچوب‌هایی برای شناسایی آسیب‌های فرایندهای شده‌اند که منجر به پیش‌بینی‌هایی در آینده می‌شود. استفاده گسترده از تصمیم‌گیری‌هایی که مبتنی بر هوش مصنوعی است در زمینه‌هایی مانند استخدام، بیمه و مراقبت‌های بهداشتی نیازمند صدور مجوز و الزامات خاصی برای اطمینان از انتخاب بر پایه عدالت و حفاظت از حریم خصوصی است. بااین‌حال، الزام چنین مقرراتی برای پاسخگویی، مستلزم یک بحث و گفت‌وگوی جدی بین توسعه‌دهندگان هوش مصنوعی، سیاست‌گذاران و کسانی است که تحت‌تأثیر استفاده گسترده هوش مصنوعی قرار دارند. در غیاب شیوه‌های پاسخگویی الگوریتمی قوی، این خطر وجود دارد که برخی ممیزی‌ها و حدود نادیده گرفته شوند.

یکه‌تازی هوش مصنوعی؟

مورد دیگری که در جلسه پرسش‌وپاسخ آلتمن بررسی نشد میزان سرمایه‌گذاری موردنیاز برای آموزش مدل‌های هوش مصنوعی در مقیاس‌های بزرگ از جمله GPT-4 که یکی از پایه‌های ChatGPT است بود. چرا که تنها تعداد انگشت شماری از شرکت‌ها مانند گوگل، متا، مایکروسافت و آمازون توانایی توسعه بزرگ‌ترین مدل‌های زبانی در جهان را دارند.

باتوجه‌به نبود شفافیت در داده‌های آموزشی مورداستفاده این شرکت‌ها، چندین نفر از کارشناسان درگیر در حوزه اخلاق هوش مصنوعی همچون تیم‌نیت گبرو Timnit Gebru، امیلی بندر Emily Bender و دیگران هشدار داده‌اند که استفاده در مقیاس بزرگ از چنین فناوری‌هایی بدون نظارت مربوطه، باعث افزایش سوگیری ماشین‌ها در مقیاسی بزرگ همچون تصمیم‌گیری‌های اجتماعی می‌شود.

همچنین مهم است که اذعان کنیم که داده‌های آموزشی برای ابزارهایی مانند ChatGPT شامل کار فکری تعداد زیادی از افراد مانند مشارکت‌کنندگان ویکی‌پدیا، وبلاگ‌نویسان و نویسندگان کتاب‌های دیجیتالی و مقالات می‌شود. با این‌حال، منافع اقتصادی این ابزارها فقط نصیب شرکت‌های فناوری می‌شود و نه این اشخاص.

در آخر همان‌طور که پرونده وزارت دادگستری علیه مایکروسافت نشان داد، اثبات قدرت انحصاری شرکت‌های فناوری می‌تواند کار بسیار دشواری باشد. به نظر می‌رسد که عملی‌ترین گزینه برای نظارت کنگره در مورد رسیدگی به آسیب‌های بالقوه ناشی از هوش مصنوعی الزام به شفافیت بیشتر برای شرکت‌های هوش مصنوعی و کاربرانش باشد. این امر باید به پذیرش جامع چارچوب‌های ارزیابیِ خطرات هوش مصنوعی و حفظ داده‌های فردی و حریم خصوصی ختم شود.

منبع: Gizmodo.com

مطالب مرتبط سایت

نظرات

دیدگاهتان را بنویسید