در بهروزسانی جدید اپرا، امکان اجرای مدل هوش مصنوعی بزرگ (LLM) به صورت لوکال در رایانهها برای کاربران فراهم شده است.
شرکت اپرا اعلام کرده کاربران میتوانند مدلهای زبان بزرگ (LLM) را به صورت محلی در رایانه خود دانلود و استفاده کنند. این قابلیت ابتدا قرار است در اختیار کاربران اپرا وان که بهروزرسانیهای استریم توسعهدهنده را نصب کرده باشند قرار گیرد. با این قابلیت امکان دسترسی کاربران به بیش از ۱۵۰ مدل زبانی از بیش از ۵۰ خانواده میسر خواهد شد.
مدلهای زبانی که اپرا وان استفاده خواهد کرد عبارتند از Llama شرکت متا، Gemma شرکت گوگل و Vicuna. این قابلیت به عنوان بخشی از برنامههای اپرا برای استفاده کاربران از سیستمهای هوش مصنوعی میباشد.
به گفته شرکت اپرا، از چارچوب متن باز Ollama در مرورگر برای اجرای این مدلها بر روی رایانه استفاده میشود. در حال حاضر، تمام مدلهای موجود زیرمجموعهای از کتابخانه Ollama هستند، اما این شرکت در صدد است در آینده مدلهایی از منابع مختلف را اضافه کند.
بنا به اعلام اپرا هر نسخه از این مدلها بیش از ۲ گیگابایت فضای سیستم را اشغال میکند. بنابراین باید مراقب فضای خالی خود باشید تا فضای ذخیره سازی تمام نشود. لازم به ذکر است اپرا برنامهای برای افزودن قابلیت ذخیره فضای ذخیره سازی در حین دانلود یک مدل ندارد.
جان استندال، معاون اپرا در گفتگو با پایگاه خبری TechCrunch اعلام کرد:
اپرا برای اولین بار دسترسی به مجموعه عظیمی از LLMهای لوکال شخص ثالث را مستقیماً در مرورگر فراهم کرده است. انتظار میرود اندازه آنها با تخصصیتر شدن در حل کارهای مورد نظر، کاهش یابد.
این قابلیت در صورتی میتواند مفید باشد که بخواهید به صورت لوکال از مدلهای مختلف استفاده کنید.اما اگر صرفه جویی در فضا برایتان اولویت داشته باشد، میتوانید از ابزارهای آنلاین موجود از قبیل Quora’s Poe و HuggingChat بهرهمند شوید.
اپرا از سال گذشته قابلیتهای مبتنی بر هوش مصنوعی را در سیستمهای خود اعمال کرده است. این شرکت در ماه می گذشته دستیاری صوتی به نام Aria را در نوار کناری خود راه اندازی کرد و در ماه آگوست به نسخه iOS اضافه کرد. در ژانویه، اپرا اعلام کرد در صدد ساخت مرورگر مبتنی بر هوش مصنوعی با موتور خود برای iOS است، زیرا قوانین بازار دیجیتال اتحادیه اروپا (DMA) از اپل خواسته است که الزامات موتور WebKit را برای مرورگرهای تلفن همراه کنار بگذارد.
نظرات