اخبار

خلق یک عضو خیالی مغز توسط هوش مصنوعی گوگل
خبرگزاری بازار
1
1404-05-16 08:47:44

خلق یک عضو خیالی مغز توسط هوش مصنوعی گوگل

طبق اطلاعات جدید مدل پیشرفته پزشکی گوگل Med-Gemini در یک مقاله تحقیقی به وجود یک عضو غیرواقعی در مغز انسان اشاره کرده است. همچنین آزمایش‌های دیگر نشان داده‌اند که این مدل با تغییرات جزئی در نحوه پرسش پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات جدی نگرانی‌هایی را در خصوص استفاده از این تکنولوژی‌ها در محیط‌های بالینی به وجود آورده است.

در مقاله‌ای که توسط خود گوگل برای به نمایش گذاشتن قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده این مدل در تحلیل سی‌تی‌اسکن سر یک ناهنجاری را در «گانگلیون بازیلر» تشخیص داد؛ بخشی از مغز که اصولاً وجود خارجی ندارد. این هوش مصنوعی دو ساختار کاملاً مجزا در مغز یعنی «گانگلیون‌های پایه» و «شریان بازیلر» را با هم ترکیب کرده و نام جدیدی برای آن اختراع کرده است.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند و می‌گویند: «این دو کلمه مختلف یک دنیا تفاوت ایجاد می‌کنند.» تشخیص نادرست میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیماران منجر شود.

پس از آنکه دکتر «برایان مور» عصب‌شناس این اشتباه فاحش را به گوگل گزارش کرد این شرکت در ابتدا سعی کرد با ویرایش پنهانی پست وبلاگ خود موضوع را به یک «غلط تایپی» ساده تقلیل دهد. اما پس از فشارهای بیشتر گوگل با بازگرداندن عبارت اشتباه در توضیح جدیدی اعلام کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر ضعف اساسی دیگری را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی. دکتر «جودی گیچویا» از دانشگاه اموری در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل MedGemma نشان داد. زمانی که دکتر سؤالش را با جزئیات کامل مطرح کرد هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر پرسید پاسخ کاملاً متفاوت بود و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییر در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود. کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها اشتباهات گاه‌به‌گاه آنها نیست بلکه اعتماد به لحن متقاعدکننده‌ای است که اطلاعات نادرست را به عنوان حقیقت علمی بیان می‌کند.

دکتر «جاناتان چن» از دانشگاه استنفورد این پدیده را به رانندگی خودکار تشبیه می‌کند و می‌گوید: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

در کل پدیده‌ای به نام «سوگیری اتوماسیون» می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان تأکید می‌کنند که این مدل‌ها ذاتاً تمایل به ساختن اطلاعات دارند و هرگز نمی‌گویند «من نمی‌دانم» که این یک مشکل بزرگ در حوزه‌های پرخطری مانند پزشکی محسوب می‌شود. به نقل از بازار

انتهای پیام/

خانه خدیمات وبلاگ جستجو اخبار درباره ما تماس با ما