شرکت متا در سند جدید خود اعلام کرد این شرکت توسعه سیستم‌های هوش مصنوعی پرخطر را متوقف خواهد کرد.

متا محدودیت‌های جدیدی را در توسعه مدل‌های هوش مصنوعی پیشرفته خود تعیین کرده و معیارهایی را برای محدود سازی سیستم‌هایی که در دسته خطر بحرانی قرار دارند، تعیین کرده است.

این شرکت در سند جدید خود دو دسته را برای سیستم‌های هوش مصنوعی تعریف کرده است: دسته اول سیستم هوش مصنوعی پرخطر و دسته دوم سیستم هوش مصنوعی با ریسک بحرانی. سیستم‌های پرخطر می‌توانند به حملات سایبری یا حملات شیمیایی و بیولوژیکی کمک کنند، اما پیامدهای آن‌ها غیرقابل کنترل نیست. سیستم‌های با ریسک بحرانی ممکن است پیامدهای فاجعه‌باری را به بار آورد به طوی که امکان جلوگیری یا کاهش خطرات آن‌ها وجود ندارد.

از تهدیدهای بالقوه سیستم‌های با ریسک بحرانی می‌توان به حملات سایبری به سازمان‌های هوش مصنوعی و گسترش سلاح‌های بیولوژیکی با تاثیر بالا اشاره کرد. متا تاکید کرده است این فهرست جامع نیست، اما شامل مهم‌ترین نگرانی های عرضه مدل‌های قدرتمند هوش مصنوعی است.

این غول رسانه‌های اجتماعی با اعلام این که این رویکرد مبتنی بر آزمون تجربی نبوده بلکه مدل‌ها را با تکیه بر برآوردهای محققان داخلی و خارجی و با نظارت تصمیم گیرندگان ارشد ارزیابی می‌کند، گفت روش‌های ارزیابی فعلی برای سنجش میزان ریسک پیشرفته نیستند.

علاوه بر این، متا خبر داد دسترسی داخلی به مدل‌های پرخطر را محدود می‌کند و انتشار آن را تا زمانی که میزان خطر به سطح متوسط نرسد، به تعویق می‌اندازد. به گفته این شرکت، در صورتی که مدل هوش مصنوعی در دسته ریسک بحرانی قرار داشته باشد، توسعه آن را متوقف خواهد کردو اقدامات امنیتی را جهت جلوگیری از سو استفاده و نشت آن اتخاذ خواهد کرد.

توسعه هوش مصنوعی پرخطر

ظاهراً استراتژی جدید متا در واکنش به بررسی های فزاینده سیاست‌های هوش مصنوعی این شرکت به کار گرفته شده است. متا خود را حامی توسعه هوش مصنوعی باز می‌داند و بر خلاف رقبایی مانند OpenAI که سیستم‌های خود را از طریق API محدود نگه می دارد، مدل‌هایی هوش مصنوعی Llama خود را به صورت باز در دسترس قرار داده است. با وجود اینکه رویکرد متا با استقبال گسترده همراه بوده است اما انتقاداتی را نیز به دنبال داشته است. گزارش‌هایی منتشر شده است مبنی بر اینکه دشمنان ایالات متحده از مدل‌های Llama برای توسعه ابزارهای دفاعی مبتنی بر هوش مصنوعی استفاده کرده‌اند.

متا گفته است سند جدید این شرکت با تغییر قابلیت‌های هوش مصنوعی و خطرات تکامل خواهد یافت. احتمالاً هدف از استراتژی جدید متا متمایز کردن خود از شرکت چینی هوش مصنوعی DeepSeek باشد . این شرکت چینی نیز مدل هوش مصنوعی خود را به صورت باز منتشر کرده اما با انتقادهایی به دلیل عدم رعایت پادمان‌های مدل‌ها مواجه شده است.

متا در این سند اعلام کرد:

ما معتقدیم با در نظر گرفتن تمامی مزایا و خطرات ناشی از تصمیم‌گیری در خصوص نحوه توسعه و استقرار هوش مصنوعی پیشرفته، می‌توان آن فناوری را به گونه‌ای به جامعه ارائه داد که هم منافع مردم حفظ شود و هم سطح ریسک مدیریت شود.

این شرکت جزئیات مربوط به اقدامات امنیتی خاصی را برای سیستم‌های هوش مصنوعی با ریسک بحرانی ارائه نکرده است و هنوز مشخص نیست آیا ممیزی‌های خارجی در فرآیند ارزیابی ریسک آن نقشی خواهند داشت یا خیر.