سامسونگ ظاهرا استفاده از چتبات ChatGPT را توسط کارکنان خود ممنوع کرده است. بلومبرگ یک سند داخلی از شرکت سامسونگ منتشر کرده است که نشان میدهد این شرکت نگران نحوه ذخیرهسازی اطلاعات توسط پلتفرمهایی مثل ChatGPT و Google Bard است. سامسونگ متذکر شده است که اطلاعات وارد شده در پلتفرمهای هوش مصنوعی، همگی روی سرورهای خارجی ذخیره میشوند و امکان پاک کردن این اطلاعات بسیار دشوار است.
در ماههای اخیر، تمایل کاربران برای استفاده از چتهایی مثل ChatGPT افزایش یافته است و کارکنان سامسونگ نیز جزو آنها میشوند. سامسونگ در اسناد فاش شده گفته است که هرچند تمرکز پلتفرمهای هوش مصنوعی جدید روی کارآمدی و مفید بودن است اما نگرانیهای فزایندهای نسبت به ریسکهای امنیتی آنها وجود دارد.
- ChatGPT یک حالت Incognito معرفی کرد
- مایکروسافت: در ساخت چت بات ChatGPT از هزاران کارت گرافیکی انویدیا استفاده شده است
طبق سیاست جدید سامسونگ، کارکنان این شرکت نمیتوانند از محصولات هوش مصنوعی مولد روی گوشیها، تبلتها، کامپیوترها و شبکه داخلی سامسونگ استفاده کنند. البته این سیاست، مشتریان سامسونگ را تحتتاثیر قرار نخواهد داد و در حال حاضر، ابزار BingAI که بر پایه ChatGPT توسعه یافته است، روی گوشیهای سامسونگ با کیبورد SwiftKey ادغام شده و کاربران میتوانند از آن استفاده کنند.
بلومبرگ در گزارش خود فاش کرده است که سامسونگ روی ابزارهای هوش مصنوعی اختصاصی خودش کار میکند تا از آنها در خلاصهسازی و ترجمه اسناد و همچنین توسعه نرمافزارها استفاده کند. این ابزارها ظاهرا فقط برای کارکنان خود سامسونگ قابل دسترس خواهند بود. هنوز مشخص نیست که آیا سامسونگ محصولات هوش مصنوعی خود را برای کاربران عادی نیز ارائه خواهد کرد یا نه.
اخیرا موسسه امنیتی Europol و آژانس اطلاعاتی انگلیس نیز به کاربران توصیه کردهاند که مراقب اطلاعاتی که در هنگام تعامل با ChatGPT به اشتراک میگذارند باشند. حتی خالق این چت بات، یعنی شرکت OpenAI نیز از کاربران خواسته است که اطلاعات حساس خود را در گفتگو با چت بات این شرکت به اشتراک نگذارند. شرکتای آمازون و چیپی مورگان نیز چنین توصیههایی به کارکنان خود کردهاند و حتی از آنها خواستهاند که تا جای ممکن از ChatGPT استفاده نکنند.
منبع: Androidauthority
نظرات