هوش مصنوعی و پیشرفتهای چشمگیر آن در بسیاری از عرصهها توجهها را به خود جلب کرده است؛ البته قابلیتهای مخرب آن را نیز نمیتوان نادیده گرفت، برای ادامه خبر و آشنایی بیشتر با قابلیتهای این فناوری با تکفارس همراه باشید.
شاید در مورد وبسایت ThisPersonDoesNotExist.Com (این شخص وجود ندارد) شنیده باشید که با بهره بردن از هوش مصنوعی موفق به خلق چهرههای جعلی حیرتانگیزی شده است. اکنون در ادامه این موضوع وبسایت دیگری به نام WhichFaceIsReal.Com (کدام چهره واقعی است) به شما اجازه میدهد که چهرههای تقلبی و واقعی را از هم تشخیص دهید. میتوانید اکنون به این وبسایت مراجعه کنید و تشخیص دهید کدام چهرهها واقعی هستند.
البته وبسایت WhichFaceIsReal هدف بالاتری دارد. این وبسایت توسط دو پژوهشگر دانشگاه واشنگتن که جِوین وست (Jevin West) و کارل برگستورم (Carl Bergstorm) نام دارند، تأسیس شد. این دو در حوزه چگونگی پخش اخبار در جامعه پژوهش میکنند. اشخاص مذکور عقیده دارند رشد تولید محتویات جعلی توسط هوش مصنوعی ممکن است مشکلاتی را به وجود آورد و اعتماد جامعه را به شواهد و مدارک واقعی سلب کنند؛ قصد آنها آموزش به مردم است.
برگستورم در مصاحبه با ورج گفت:
خطرناکترین برهه زمانی پس از ظهور فناوریهای نوین وقتی است که تکنولوژی وجود دارد و مردم از آن و قابلیتهای آن بیاطلاعاند، در این زمان میشود بیشترین بهره را از آن برد پس قصد ما آموزش به مردم و آگاه کردن آنها از وجود چنین فناوریهایی است مثل زمانی که مردم بالاخره متوجه شدند که میتوان یک عکس را فتوشاپ کرد
هر دو سایت از یک روش یادگیری ماشینی که بهعنوان شبکه مولد تخاصمی Generative adversarial network) GAN) شناخته میشود، بهره میبرند. این شبکه با مشاهده و بررسی تودههای عظیم داده، الگوهای آنها را یاد میگیرد و سعی میکند آنها را بازتولید کنند.
دلیل کیفیت بالای GAN، آزمایشهایی است که از قسمتهای مختلف آن از یکدیگر میگیرند. یک بخش از این شبکه چهرهای تولید میکند و بخش دیگر آن را با سوژه مقایسه میکند سپس اگر قادر به تشخیص تفاوت شد، بخش تولیدکننده را مطلع میکند که کار خود را بهبود ببخشد؛ درست مثل یک معلم هنر سختگیر که به شاگردانش اجازه ترک کلاس را نمیدهد تا نقاشی ایدهال را رسم کنند.
با بهره بردن از این تکنیکها میتوان فیلم، عکس و یا صوت را دستکاری کرد. محدودیتهایی برای قابلیتهای این سیستمها وجود دارد که البته مدام در حال پیشرفتاند. برنامههای جعل عمیق (Deepfakes) میتوانند در فیلمها، سیاستمداران را به عروسکهای خیمهشببازی تبدیل کنند و یا شما را در حال رقصیدن نشان دهند.
برگستورم و وست معتقدند با استفاده مغرضانه از این فناوری میشود اخبار نادرستی را بهعنوان مثال پس از حملهای تروریستی منتشر کرد که پیامدهای ویرانگری ممکن است داشته باشد. هوش مصنوعی میتواند مجرمی مجازی خلق کند که در اینترنت جولان دهد.
در این سناریوها خبرنگاران معمولاً برای تائید یک تصویر از ابزار خاصی همچون جستوجوی برعکس در گوگل استفاده میکنند؛ اما این برنامهها برای تصاویر تولید شده هوش مصنوعی کاربردی ندارند. برگ استورم گفت
اگر شما قصد تزریق اخبار غلط به یک موقعیت را داشته باشید و برای این منظور تصویری از یک شخص بیگناه منتشر و ادعا کنید که او مجرم است، سرویسهای امنیتی سریعاً متوجه میشوند اما اگر ادعا کنید شخصی که اصلاً وجود خارجی ندارد مجرم است چه؟ دشواری ردیابی این موضوع را در حالت عادی تصور کنید.
آنها در ادامه گفتند که آکادمیها و پژوهشگران درحال توسعه ابزار زیادی هستند که توانایی به تشخیص جعل عمیق را دارند. وست گفت:
به نظر ما اکنون بهراحتی میشود جعل عمیق را تشخیص داد
با توجه به تصاویر بالا شما احتمالاً قادر به تشخیص تفاوت میان تصویرهای تولید هوش مصنوعی و افراد واقعی شدهاید. با دقت به چهرههای نامتقارن، دندانهای نامنظم، موهای غیرطبیعی و گوشهایی که شبیه گوش واقعی به نظر نمیآیند، میتوان متوجه این تفاوت شد.
اما این تصاویر جعلی بهبود خواهند یافت و تا سه سال دیگر تشخیص تفاوتشان در حالت عادی غیرممکن خواهد شد. در آن زمان دانستن تنها کافی نیست.”
برگستورم اظهار داشت:
پیام ما این نیست که هیچ چیز را باور نداشته باشید، پیام ما این است که زودباور نباشید.
شما میتوانید نظر خود را به اشتراک بگذارید و همچنین کانال تکفارس را در تلگرام با شناسه techfarscom@ دنبال کنید.
نظرات