شرکت متا در سند جدید خود اعلام کرد این شرکت توسعه سیستمهای هوش مصنوعی پرخطر را متوقف خواهد کرد.
متا محدودیتهای جدیدی را در توسعه مدلهای هوش مصنوعی پیشرفته خود تعیین کرده و معیارهایی را برای محدود سازی سیستمهایی که در دسته خطر بحرانی قرار دارند، تعیین کرده است.
این شرکت در سند جدید خود دو دسته را برای سیستمهای هوش مصنوعی تعریف کرده است: دسته اول سیستم هوش مصنوعی پرخطر و دسته دوم سیستم هوش مصنوعی با ریسک بحرانی. سیستمهای پرخطر میتوانند به حملات سایبری یا حملات شیمیایی و بیولوژیکی کمک کنند، اما پیامدهای آنها غیرقابل کنترل نیست. سیستمهای با ریسک بحرانی ممکن است پیامدهای فاجعهباری را به بار آورد به طوی که امکان جلوگیری یا کاهش خطرات آنها وجود ندارد.
از تهدیدهای بالقوه سیستمهای با ریسک بحرانی میتوان به حملات سایبری به سازمانهای هوش مصنوعی و گسترش سلاحهای بیولوژیکی با تاثیر بالا اشاره کرد. متا تاکید کرده است این فهرست جامع نیست، اما شامل مهمترین نگرانی های عرضه مدلهای قدرتمند هوش مصنوعی است.
این غول رسانههای اجتماعی با اعلام این که این رویکرد مبتنی بر آزمون تجربی نبوده بلکه مدلها را با تکیه بر برآوردهای محققان داخلی و خارجی و با نظارت تصمیم گیرندگان ارشد ارزیابی میکند، گفت روشهای ارزیابی فعلی برای سنجش میزان ریسک پیشرفته نیستند.
علاوه بر این، متا خبر داد دسترسی داخلی به مدلهای پرخطر را محدود میکند و انتشار آن را تا زمانی که میزان خطر به سطح متوسط نرسد، به تعویق میاندازد. به گفته این شرکت، در صورتی که مدل هوش مصنوعی در دسته ریسک بحرانی قرار داشته باشد، توسعه آن را متوقف خواهد کردو اقدامات امنیتی را جهت جلوگیری از سو استفاده و نشت آن اتخاذ خواهد کرد.
ظاهراً استراتژی جدید متا در واکنش به بررسی های فزاینده سیاستهای هوش مصنوعی این شرکت به کار گرفته شده است. متا خود را حامی توسعه هوش مصنوعی باز میداند و بر خلاف رقبایی مانند OpenAI که سیستمهای خود را از طریق API محدود نگه می دارد، مدلهایی هوش مصنوعی Llama خود را به صورت باز در دسترس قرار داده است. با وجود اینکه رویکرد متا با استقبال گسترده همراه بوده است اما انتقاداتی را نیز به دنبال داشته است. گزارشهایی منتشر شده است مبنی بر اینکه دشمنان ایالات متحده از مدلهای Llama برای توسعه ابزارهای دفاعی مبتنی بر هوش مصنوعی استفاده کردهاند.
متا گفته است سند جدید این شرکت با تغییر قابلیتهای هوش مصنوعی و خطرات تکامل خواهد یافت. احتمالاً هدف از استراتژی جدید متا متمایز کردن خود از شرکت چینی هوش مصنوعی DeepSeek باشد . این شرکت چینی نیز مدل هوش مصنوعی خود را به صورت باز منتشر کرده اما با انتقادهایی به دلیل عدم رعایت پادمانهای مدلها مواجه شده است.
متا در این سند اعلام کرد:
ما معتقدیم با در نظر گرفتن تمامی مزایا و خطرات ناشی از تصمیمگیری در خصوص نحوه توسعه و استقرار هوش مصنوعی پیشرفته، میتوان آن فناوری را به گونهای به جامعه ارائه داد که هم منافع مردم حفظ شود و هم سطح ریسک مدیریت شود.
این شرکت جزئیات مربوط به اقدامات امنیتی خاصی را برای سیستمهای هوش مصنوعی با ریسک بحرانی ارائه نکرده است و هنوز مشخص نیست آیا ممیزیهای خارجی در فرآیند ارزیابی ریسک آن نقشی خواهند داشت یا خیر.
دیدگاه ها