اخبار

خلق یک عضو خیالی مغز توسط هوش مصنوعی گوگل
طبق اطلاعات جدید مدل پیشرفته پزشکی گوگل Med-Gemini در یک مقاله تحقیقی به وجود یک عضو غیرواقعی در مغز انسان اشاره کرده است. همچنین آزمایشهای دیگر نشان دادهاند که این مدل با تغییرات جزئی در نحوه پرسش پاسخهای کاملاً متناقضی ارائه میدهد. این اشتباهات جدی نگرانیهایی را در خصوص استفاده از این تکنولوژیها در محیطهای بالینی به وجود آورده است.
در مقالهای که توسط خود گوگل برای به نمایش گذاشتن قابلیتهای مدل هوش مصنوعی Med-Gemini منتشر شده این مدل در تحلیل سیتیاسکن سر یک ناهنجاری را در «گانگلیون بازیلر» تشخیص داد؛ بخشی از مغز که اصولاً وجود خارجی ندارد. این هوش مصنوعی دو ساختار کاملاً مجزا در مغز یعنی «گانگلیونهای پایه» و «شریان بازیلر» را با هم ترکیب کرده و نام جدیدی برای آن اختراع کرده است.
محققان و پزشکان این خطا را «فوقالعاده خطرناک» توصیف میکنند و میگویند: «این دو کلمه مختلف یک دنیا تفاوت ایجاد میکنند.» تشخیص نادرست میان این دو ناحیه میتواند به پروتکلهای درمانی کاملاً متفاوت و بالقوه مرگبار برای بیماران منجر شود.
پس از آنکه دکتر «برایان مور» عصبشناس این اشتباه فاحش را به گوگل گزارش کرد این شرکت در ابتدا سعی کرد با ویرایش پنهانی پست وبلاگ خود موضوع را به یک «غلط تایپی» ساده تقلیل دهد. اما پس از فشارهای بیشتر گوگل با بازگرداندن عبارت اشتباه در توضیح جدیدی اعلام کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از دادههای آموزشی خود یاد گرفته است.
مشکلات به همین جا ختم نمیشود. آزمایشهای انجام شده توسط متخصصان دیگر ضعف اساسی دیگری را در این مدلهای هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخدهی. دکتر «جودی گیچویا» از دانشگاه اموری در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل MedGemma نشان داد. زمانی که دکتر سؤالش را با جزئیات کامل مطرح کرد هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال سادهتر پرسید پاسخ کاملاً متفاوت بود و مشکل بهطور کامل نادیده گرفته شد.
این قضیه نشان میدهد که کوچکترین تغییر در نحوه تعامل با هوش مصنوعی میتواند منجر به نتایج کاملاً متضاد و خطرناک شود. کارشناسان معتقدند بزرگترین خطر این سیستمها اشتباهات گاهبهگاه آنها نیست بلکه اعتماد به لحن متقاعدکنندهای است که اطلاعات نادرست را به عنوان حقیقت علمی بیان میکند.
دکتر «جاناتان چن» از دانشگاه استنفورد این پدیده را به رانندگی خودکار تشبیه میکند و میگوید: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم میگیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق میافتد.»
در کل پدیدهای به نام «سوگیری اتوماسیون» میتواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان تأکید میکنند که این مدلها ذاتاً تمایل به ساختن اطلاعات دارند و هرگز نمیگویند «من نمیدانم» که این یک مشکل بزرگ در حوزههای پرخطری مانند پزشکی محسوب میشود. به نقل از بازار
انتهای پیام/