کوالکام و متا ظاهرا قصد دارند برای بهینهسازی اجرای مستقیم مدلهای زبانی بزرگ Llama 2 متا روی دستگاهها باهم همکاری کنند. اجرای مستقیم هوش مصنوعی روی دستگاه، نیاز به خدمات ابری را از بین خواهد برد. همچنین با اجرای مدلهای هوش مصنوعی مولد مثل Llama 2 روی گوشیهای هوشمند، کامپیوترها، هدستهای VR/AR و خودروها، توسعهدهندگان میتوانند تجربیات شخصیسازی شدهتری را در اختیار کاربران قرار دهند و در هزینههای ابری صرفهجویی کنند.
هدف از این همکاری مشترک، ارائه هوش مصنوعی مبتنی بر مدل زبانی Llama 2 روی دستگاههای مختلف است و توسعهدهندگان را قادر خواهد ساخت تا اپلیکیشنهای هوش مصنوعی نوآورانهتری ارائه کنند. شرکتها نیز خواهند توانست از این تجربیات برای ساخت دستیارهای مجازی هوشمند، پلتفرمهای تولید محتوا و برنامههای سرگرمی استفاده کنند. یکی از مزایای هوش مصنوعی روی دستگاه، امکان استفاده از آن در مناطقی است که دسترسی به اینترنت وجود ندارد.
متا و کوالکام سابقه طولانی در همکاری مشترک باهم دارند و انتظار میرود که پیشتازی کوالکام در زمینه هوش مصنوعی روی دستگاه، امکان ارائه این فناوری بر پایه مدل زبانی Llama 2 متا را برای میلیونها گوشی هوشمند، خودرو، هدست XR، عینک، کامپیوتر و دستگاههای IoT فراهم کند.
این فناوری احتمالا از سال ۲۰۲۴ به بعد در دسترس کاربران قرار خواهد گرفت. اما توسعهدهندگان اپلیکیشن از همین امروز میتوانند با استفاده از پلتفرم Qualcomm AI Stack، بهینهسازی اپلیکیشنهای خود را برای هوش مصنوعی روی دستگاه شروع کنند. این پلتفرم مجموعهای از ابزارهای پردازشی اختصاصی است که امکان ارائه هوش مصنوعی روی دستگاه را حتی برای دستگاههای کوچک و نازک فراهم میکند.
منبع: Gizmochina
نظرات