کنگره چگونه میتواند با وضع قوانین جدید هوش مصنوعی را چارچوبمند کند؟
خلاصه:
- سیاستهای جدید فدرال برای قانون مندکردن هوش مصنوعی شکل بیسار مناسبی دارند؛ اما این امکان وجود دارد تحتتأثیر شرکتهای فناوری این اصلاحات نادیده گرفته شوند. معضلی که میتواند توسط کنگره با قانونی کردن مسئولیتپذیری از میان برداشته شود.
- راهحل دیگر این است که کنگره بهجای صدور مجوز به شرکتها برای انتشار فناوریهای پیشرفته هوش مصنوعی آنها را برای ایجاد هیئتهای بازبینی تحتفشار قرار دهد.
- دولت در مهار و جلوگیری از انحصارگرایی در حوزه تکنولوژی موفق چندانی نداشته است؛ اما قوانین مربوط به دادههای حریم شخصی و الزام به شفافیت بیشتر میتواند به بررسی اثرگذاری شرکتها کمک کند.
سام آلتمن Sam Altman مدیرعامل شرکت Open AI در اظهاراتی که در طول شهادتش در سنا روز ۱۶ می ۲۰۲۳ داشته است از قانونگذاران خواسته بود تا نظارت بر هوش مصنوعی را جدی بگیرند. راهحلهای پیشنهادی آلتمن در این باره از تشکیل یک آژانس نظارتی بر هوش مصنوعی و همچنین الزام به داشتن مجوز برای شرکتهای فعال در این حوزه است. در کنار سخنان آلتمن پیشنهاد افراد خبره دیگر این حوزه نیز به همان اندازه مهم است. این پیشنهادها شاملِ نیاز به شفافیت در دادههای آموزشی training data و ایجاد یک چارچوب کاملاً مشخص برای درنظرگرفتن خطرات مرتبط با هوش مصنوعی است.
مطالب مرتبط:
همچنین یکی دیگر از نکتههایی که کمتر به آن توجه شده بود این است که باتوجه به اقتصاد پیرامون ساخت مدلهای هوش مصنوعی در مقیاس بزرگ، این صنعت نوپا میتواند شاهد نوع جدیدی از انحصار (Monopoly) در حوزه فناوری باشد.
از نظر یک محققی رسانههای اجتماعی و هوش مصنوعی, به نظر میرسد پیشنهادهای آلتمن مسئلههای مهمی را برجسته کرده است. هرچند که او در جواب راهکار و پاسخی ارائه نمیدهد.این محقق ادامه میدهد با این که وجود چنین مقرراتی مفید است؛ اما این که این مقررات به چه شکلی باشند نیز همانقدر مهم هستند. صدور مجوز هم یک راه حل منطقی به نظر میرسد؛ اما برای چه کسی؟ در ضمن در هرگونه تلاشی برای ایجاد چارچوب قانونی برای تنظیم صنعت هوش مصنوعی باید قدرت اقتصادی و تأثیر شرکت هارا نیز در نظر گرفت.
آژانسی برای تنظیم هوش مصنوعی؟
قانونگذاران و سیاستگذاران در سراسر دنیا از مدت ها قبل شروع به رسیدگی به برخی از مسائل مطرح شده توسط آلتمن کرده بودند. قانون هوش مصنوعی اروپا مبتنی بر یک مدل ریسک است که کاربردهای هوش مصنوعی را به سه دسته تقسیمبندی میکند: غیرقابلقبول، ریسک بالا و ریسک کم یا حداقلی. این دستهبندی تفاوت میان خطرات ابزارهایی که برای دولتها به امتیازدهی و یا استخدام خودکار میپردازد را در مقابل ابزارهایی که از هوش مصنوعی برای مواردی مثل فیلترکردن اسپم میپردازد را نشان میدهد.
مؤسسه ملی استانداردها و فناوری ایالات متحده نیز دارای چارچوبی مشخص برای مدیریت خطرات هوش مصنوعی است که با نظرات گسترده ذینفعان متعدد، از جمله اتاق بازرگانی ایالات متحده و فدراسیون دانشمندان آمریکایی، و همچنین سایر انجمنهای تجاری و حرفهای، شرکتهای فناوری و اتاقهای فکر مختلف همراه است. همچنین آژانسهای فدرال مانند کمیسیون فرصتهای شغلی برابر و کمیسیون تجارت فدرال از پیش دستورالعملهایی را در مورد برخی از خطراتِ ذاتی هوش مصنوعی صادر کردهاند. کمیسیون ایمنی محصولات مصرفکننده و سایر آژانسها نیز باید در این راستا نقشی ایفا کنند.
کنگره بهجای ایجاد یک آژانس جدید که ممکن است توسط همان صنعت فناوری که قصد چارچوبمند کردنش را دارد مورد تهدید قرار گیرد میتواند از یک سری چهارچوبهای خصوصی و عمومی حمایت کند و لوایحی مثل قانون پاسخگویی الگوریتمی را تصویب کند. این حرکت میتواند با تحمیل مسئولیت به شرکتها و تصویب قوانین جامعی در مورد حریم خصوصی کمک زیادی به چارچوبمندی در این حوزهها داشته باشد.
چارچوبمند کردن هوش مصنوعی باید شامل همکاری بین دانشگاهیان، صنعت، کارشناسان حوزه سیاستگذاری و آژانسهای بینالمللی باشد. کارشناسان این رویکرد را به سازمانهای بینالمللی مانند سازمان اروپایی تحقیقات هستهای معروف به سرن CERN و هیئت بیندولتی تغییرات آبوهوا تشبیه کردهاند. این مثالها مدلهایی را برای سیاستگذاران امروزی برای چگونگی برخورد با صنعت هوش مصنوعی ارائه میکنند.
صدور مجوز به اشخاص، نه شرکتها
آلتمن پیشنهاد کرد که شرکتها میتوانند مجوز انتشار فناوریهای هوش مصنوعی را برای استفاده های عمومی دریافت کنند، او تصریح کرد که منظور او یک نوع هوش مصنوعی عمومی است، و این خود به این معنی است که ما باید انتظار یک هوش مصنوعی با قدرت برابری با هوش انسان را در آینده داشته باشیم. موردی که کنترل کردن آن شبیه به شرکتهایی خواهد بود که مجوز استفاده از سایر فناوریهای بالقوه خطرناک مانند انرژی هستهای را دریافت میکنند. و صدور چنین مجوزهایی میتواند نقش مهمی قبل از تحقق سناریویی آیندهنگر مانند سلطه هوش مصنوعی بر ما را داشته باشد.
آنچه حسابرسی الگوریتمی نامیده میشود نیازمند اعتبار، استانداردهای مشخص و اعمال شده و آموزش گسترده است. ضرورت پاسخگویی تنها متوجه و مربوط به صدور مجوز برای افراد نیست، بلکه نیازمند به استانداردهای همهجانبه و عملی است.
متخصصان حوزه عدالت هوش مصنوعی معتقد هستند موضوعاتی که مرتبط با سوگیری و بی طرفی در هوش مصنوعی هستند را نمیتوان تنها با روشهای فنی مورد بررسی قرارداد و در راستای کاهش خطر هوش مصنوعی نیاز به اقدامات جامعتری خواهیم داشت. در همین راستا و برای استفاده مسئولانه از هوش مصنوعی، در حوزه پزشکی نهادهای دانشگاهی و انجمنهای حرفهای نیز استانداردهایی را برای نویسندگی متون تولید شده توسط هوش مصنوعی و همچنین برای اشتراکگذاری دادهها اتخاذ کردهاند.
تقویت قوانین موجود در مورد حریم خصوصی و حفاظت از حریم شخصی مصرفکننده معرف آن چیزی است که ما از پاسخگویی الگوریتمی انتظار داریم که به ابهامزدایی از پیچیدگیهای هوش مصنوعی کمک میکند. همچنین مهم است که بدانیم درخواست شفافیت بیشتر در مورد دادهها ممکن است محدودیتهای جدیدی را بر سازمانها تحمیل کند.
محققانی که در حوزه حریم خصوصی دادهها و اخلاق هوش مصنوعی در حال مطالعه هستند خواستار «فرایند قانونی فناوری» و چارچوبهایی برای شناسایی آسیبهای فرایندهای شدهاند که منجر به پیشبینیهایی در آینده میشود. استفاده گسترده از تصمیمگیریهایی که مبتنی بر هوش مصنوعی است در زمینههایی مانند استخدام، بیمه و مراقبتهای بهداشتی نیازمند صدور مجوز و الزامات خاصی برای اطمینان از انتخاب بر پایه عدالت و حفاظت از حریم خصوصی است. بااینحال، الزام چنین مقرراتی برای پاسخگویی، مستلزم یک بحث و گفتوگوی جدی بین توسعهدهندگان هوش مصنوعی، سیاستگذاران و کسانی است که تحتتأثیر استفاده گسترده هوش مصنوعی قرار دارند. در غیاب شیوههای پاسخگویی الگوریتمی قوی، این خطر وجود دارد که برخی ممیزیها و حدود نادیده گرفته شوند.
یکهتازی هوش مصنوعی؟
مورد دیگری که در جلسه پرسشوپاسخ آلتمن بررسی نشد میزان سرمایهگذاری موردنیاز برای آموزش مدلهای هوش مصنوعی در مقیاسهای بزرگ از جمله GPT-4 که یکی از پایههای ChatGPT است بود. چرا که تنها تعداد انگشت شماری از شرکتها مانند گوگل، متا، مایکروسافت و آمازون توانایی توسعه بزرگترین مدلهای زبانی در جهان را دارند.
باتوجهبه نبود شفافیت در دادههای آموزشی مورداستفاده این شرکتها، چندین نفر از کارشناسان درگیر در حوزه اخلاق هوش مصنوعی همچون تیمنیت گبرو Timnit Gebru، امیلی بندر Emily Bender و دیگران هشدار دادهاند که استفاده در مقیاس بزرگ از چنین فناوریهایی بدون نظارت مربوطه، باعث افزایش سوگیری ماشینها در مقیاسی بزرگ همچون تصمیمگیریهای اجتماعی میشود.
همچنین مهم است که اذعان کنیم که دادههای آموزشی برای ابزارهایی مانند ChatGPT شامل کار فکری تعداد زیادی از افراد مانند مشارکتکنندگان ویکیپدیا، وبلاگنویسان و نویسندگان کتابهای دیجیتالی و مقالات میشود. با اینحال، منافع اقتصادی این ابزارها فقط نصیب شرکتهای فناوری میشود و نه این اشخاص.
در آخر همانطور که پرونده وزارت دادگستری علیه مایکروسافت نشان داد، اثبات قدرت انحصاری شرکتهای فناوری میتواند کار بسیار دشواری باشد. به نظر میرسد که عملیترین گزینه برای نظارت کنگره در مورد رسیدگی به آسیبهای بالقوه ناشی از هوش مصنوعی الزام به شفافیت بیشتر برای شرکتهای هوش مصنوعی و کاربرانش باشد. این امر باید به پذیرش جامع چارچوبهای ارزیابیِ خطرات هوش مصنوعی و حفظ دادههای فردی و حریم خصوصی ختم شود.
منبع: Gizmodo.com
نظرات