بسیاری از محققان اکنون از قابلیت یادگیری ماشینی یا machine learning به منظور تجزیه و تحلیل دادهها استفاده میکنند. فقط یک مشکل بزرگ در این میان وجود دارد، در ادامهی خبر برای دریافت جزییات بیشتر همراه تکفارس باشید.به تازگی جامعه شناسان خبر از وقوع احتمالی یک بحران در جهان علم، دادهاند. جامعه شناس فعال در دانشگاه Rice، خانم جنیورا آلن (Genevera Allen) در طی کنفرانس علمی هفتهی گذشته به یک هشدار جدی متزکر شد و موضوع بحث خود را هول آن متمرکز کرد. مشکل مورد بحث از این قرار بود: از آنجایی که دانشمندان در حال حاضر برای پیدا کردن الگوی مورد نظر خود در دادهها، به مقدار بیش از حدی الگوریتمهای بر پایهی یادگیری ماشین متکی هستند، حتی زمانی که این الگوریتمها الگوهای بسیار سادهای را در خود دارند، دانشمندان همچنان به این گونه هوش مصنوعیها برای پیشبرد هدف خود وابسته هستند.
این جامعه شناس به خبر گزاری BBC نسبت به کنفرانس اخیر خود ابراز داشت:
در حال حاضر در جهان علم یک بحران عمومی مورد نظر قرار گرفته است و آن چیزی نیست جز بحران تکثیر پذیری در علم. من میتوانم تصور کنم که عامل بزرگ موثر در گسترش این بحران در ارتباط نزدیک با استفاده از تکنیکهای یادگیری ماشینی در علم میباشد.
طبق گفتههای این جامعه شناس قابلیت تکرارپذیری (reproducibility)، به یکی از دردسرهای موجود بر راه دانشمندان تبدیل شده است. با توجه به گفتههای آلن، این مشکل میتواند زمانی رخ دهد که دانشمندان مقدار زیادی از اطلاعات ژن را جمع آوری کرده و سپس از الگوریتم یادگیری ماشینی ضعیفی به منظور یافتن پروفایل خوشههای مشابه استفاده میکنند. او در ادامهی مصاحبه توضیح میدهد:
در این دسته از مطالعات دریافتن اینکه روش مورد استفاده، روشی اشتباه بوده است، کاری سخت است چرا که به منظور پی بردن به این موضوع باید یک مطالعهی مشابه دیگر با دادههای اولیه و الگوریتم یادگیری ماشینی مشابه صورت گیرد و تنها در صورتی که نتایج نهایی به دست آمده، با یکدیگر همپوشانی نداشته باشند میتوان به این موضوع پی برد که از روش یادگیری ماشینی اشتباهی در موضوع مورد مطالعتان استفاده کردهاید.
بر طبق گفته آلن، مشکلی که در یادگیری ماشین وجود دارد، این است که در این روش هوش مصنوعی آموزش دیده است تا الگوهای مورد نظر را جستجو کند، حتی در صورتی که این الگوها در دادهی مرجع وجود نداشته باشد. وی راه حل مشکلات موجود در روشهای قابل استفاده حال حاضر را، الگوریتمهای نسل آینده میپندارد. این الگوریتمها که در توانایی ارزیابی خبرهتر هستند، این امکان را به دانشمندان و محققان خواهند داد تا میزان قابل اتکا بودن احتمالات محاسبه شده را به آنها یادآور شوند. آلن در یک نشریه مطبوعاتی اظهار داشت:
سوال اینجا است: آیا در حال حاضر میتوانیم به اکتشافهایی که با استفاده از تکنیکهای یادگیری ماشینی از روی مجموعه دادههای بزرگ به دست آمده است، اعتماد کنیم؟ پاسخ در بسیاری از موارد به این صورت است: باید درستی عملیات و صحت عملکرد یادگیری ماشینی و نتایج به دست آمده بررسی و با موارد مشابه خود مقایسه شود، در صورت همپوشانی اطلاعات خروجی میتوانیم اذعان داشته باشیم که این الگوریتم یادگیری ماشینی واقعا برای مطالعهی مورد نظر ما مناسب واقع شده است. با این حال اما در الگوریتمهای نسل آینده سیستمهای یادگیری ماشینی به وجود خواهد آمد که میزان قابل اتکا بودن نتایج به دست آمده توسط خودشان را اعلام کرده و به این ترتیب در صورت احتمالات کم میتوانیم دست به انجام مقایسه زده و کاربردی بودن الگوریتم را بسنجیم.
نظرات خود را با ما به اشتراک بگذارید.
نظرات