اخطار آکسفورد در رابطه با پزشکان دیجیتال تشخیص چت باتها چقدر حقیقی است؟
کوتاه کننده لینک: محققان دانشگاه آکسفورد با انجام پژوهشی نشان دادند که استفاده غیرمحتاطانه از هوش مصنوعی در پزشکی می تواند نابرابری اطلاعاتی و فشار بر نظام درمان ایجاد نماید.
به گزارش کوتاه کننده لینک به نقل از مهر، رشد شتابان هوش مصنوعی طی سالهای اخیر، انتظارات گسترده ای را در رابطه با تحول در سیستم سلامت بوجود آورده است. از تشخیص زودهنگام بیماری ها تا بهینه سازی فرآیندهای درمانی، خیلی از مفسرین، هوش مصنوعی را به عنوان موتور محرک نسل بعدی خدمات پزشکی معرفی کرده اند. در عین حال، مطالعات اخیر از طرف محققان نشان داده است که استفاده از چت بات های مبتنی بر مدلهای زبانی بزرگ برای دریافت مشاوره پزشکی می تواند «خطرناک» باشد؛ هشداری که بار دیگر شکاف میان ظرفیتهای فناورانه و آمادگی عملیاتی این ابزارها را برجسته می کند.
پژوهش مشترک اخیر محققان مؤسسه اینترنت آکسفورد (Oxford Internet Institute) و دپارتمان علوم بهداشتی مراقبت های اولیه نافیلد (Nuffield Department of Primary Care Health Sciences) در دانشگاه آکسفورد، تصویری واقع گرایانه از وضعیت کنونی هوش مصنوعی در حوزه سلامت عرضه می کند. نتایج این مطالعه بزرگ، نشان داده است که هیجان رسانه ای پیرامون پزشکان دیجیتال نباید سیاستگذاران، ارایه دهندگان خدمات درمانی و حتی بیماران را از مخاطرات بالقوه این فناوری غافل کند.
طراحی مطالعه: سنجشهوش مصنوعیدر برابر تصمیم های حقیقی سلامت
در این تحقیق، نزدیک به ۱۳۰۰ نفر از شرکت کنندگان در معرض سناریوهای مختلف در حوزه سلامت قرار گرفتند و از آنها خواسته شد وضعیت های احتمالی بالینی و مسیر اقدام مناسب را شناسایی کنند. بخشی از این افراد برای دریافت تشخیص اولیه و سفارش های بعدی از نرم افزارهای هوش مصنوعی مبتنی بر مدلهای زبانی بزرگ استفاده کردند، در صورتیکه گروه دیگر از روشهای سنتی تر مانند مراجعه به پزشک عمومی بهره بردند.
ارزیابی نتایج نشان داد که پاسخ های تولیدشده توسط هوش مصنوعی اغلب تلفیقی از اطلاعات صحیح و نادرست بوده است؛ مسئله ای که کاربران عادی در تفکیک آن با دشواری مواجه بودند. به بیان دیگر، مشکل فقط در خطاهای سیستم های هوش مصنوعی خلاصه نمی گردد، بلکه در توهم دقت نیز ریشه دارد؛ وضعیتی که در آن خروجی های روان و قاطعانه مدل، حس اعتماد کاذب در بیمار بوجود می آورد.
پارادوکس توانمندی: موفق در آزمون، پرریسک در واقعیت
یکی از نکات کلیدی این مطالعه، وجود شکافی معنادار میان عملکرد هوش مصنوعی در آزمون های استاندارد دانش پزشکی و کار آمدی آن در موقعیت های حقیقی است. بر همین اساس، چت بات ها ممکنست در جواب سوالات ساختاریافته عملکردی چشم گیر داشته باشند، اما هنگامی که پای علایم حقیقی، ابهامات در علایم بالینی و تفاوت های فردی به میان می آید، قابلیت اتکا به آنها کاسته می شود.
دکتر ربکا پین، از نویسندگان این تحقیق، تصریح می کند که «با وجود تمام هیاهوها، هوش مصنوعی هنوز آماده ایفای نقش پزشک نیست». بگفته او، بیماران باید آگاه باشند که طرح علایم بیماری با یک مدل زبانی می تواند به تشخیص های نادرست منجر شود و حتی در تشخیص موقعیت های اورژانسی نیز ناکارآمد باشد.
چالش تعامل انسانی: نقطه ضعف پنهان مدلهای زبانی
اندرو بین، نویسنده اصلی این مطالعه، به مسئله مهم دیگری اشاره می کند و مدعی است که تعامل با انسان ها همچنان برای پیشرفته ترین مدلهای زبانی امری چالش برانگیز است. پزشکی حوزه ای است که در آن داده های ناقص، توصیف های مبهم و متغیرهای رفتاری نقش تعیین کننده دارند. برعکس محیط های آزمایشگاهی، بیماران اغلب علایم خویش را به شکل غیرساختاریافته بیان می کنند و همین مساله احتمال سوءبرداشت الگوریتمی را بیشتر می کند.
کارشناسان براین باورند که این مسئله نشان داده است طراحی سیستم های هوش مصنوعی برای حوزه های حساس و پرریسک فقط به افزایش دقت مدل وابسته نیست، بلکه به درک عمیق تر از زمینه، قضاوت بالینی و مدیریت عدم قطعیت نیاز دارد.
ریسک های راهبردی برای نظام سلامت
در ادامه، نتایج این مطالعه چند پیام راهبردی برای آینده حکمرانی سلامت دیجیتال به همراه دارد. نخست آنکه استفاده خودسرانه از هوش مصنوعی برای خودتشخیصی چالش های سلامتی می تواند فشار مضاعفی بر نظام درمان وارد کند. تشخیص های اشتباه ممکنست موجب رجوع های غیرضروری یا بالعکس و تأخیر در دریافت مراقبت های حیاتی شود.
مسئله دوم، خطر تشکیل نابرابری اطلاعاتی است. بر همین اساس، اشخاصی که توانایی ارزیابی انتقادی خروجی های هوش مصنوعی را ندارند، بالاتر از دیگران در معرض تصمیم های پرریسک قرار می گیرند. در نهایت مورد بعدی اینکه یافته ها ضرورت تدوین چارچوب های تنظیم گری دقیق تر را برجسته می کند. بااینکه خیلی از کشورها درحال توسعه مقررات برای هوش مصنوعی در قسمت پزشکی هستند، اما سرعت نوآوری اغلب از سرعت قانونگذاری پیشی می گیرد.
بازتعریف جایگاههوش مصنوعی: دستیار هوشمند بخش پزشکی
برداشت کلیدی از این مطالعه آنست که ارزش حقیقی هوش مصنوعی اکنون نه در جایگزینی پزشکان، بلکه در تقویت قابلیت آنها نهفته است. فناوری هوش مصنوعی می تواند در غربالگری اولیه داده ها، خلاصه سازی پرونده های پزشکی، یا ارایه هشدارهای تصمیم یار ایفای نقش کند؛ اما انتقال مسئولیت تشخیص به الگوریتم ها هنوز زودهنگام بنظر می رسد.
به عبارت دیگر، در واقع آینده محتمل تر برای سلامت دیجیتال، مدل «همکاری انسان و ماشین» است؛ مدلی که در آن فناوری هوش مصنوعی به عنوان لایه ای تحلیلی عمل می کند و تصمیم نهائی همچنان در اختیار متخصص انسانی باقی می ماند.
این مطالعه برای سیاستگذاران یادآور یک اصل بنیادین است. در حوزه های پرمخاطره، نوآوری بدون حکمرانی دقیق می تواند به تهدید تبدیل گردد. از همین روی، توسعه استانداردهای ارزیابی بالینی، الزام به شفافیت الگوریتمی و تعریف مسئولیت حقوقی ارایه دهندگان هوش مصنوعی همچون اقداماتی هستند که باید در اولویت قرار گیرد. از طرف دیگر، برای شرکتهای فناوری نیز پیام روشن است و بر همین مبنا، رقابت بر سر عرضه سریع تر محصولات نباید جایگزین ایمنی شود. اعتماد عمومی در حوزه سلامت سرمایه ای است که به آسانی به دست نمی آید و با یک خطای پرهزینه می تواند از بین برود.
عبور از هیجان به بلوغ فناورانه
مطالعه دانشگاه آکسفورد را میتوان هشداری جدی به اکوسیستم فناوری و خصوصاً بازیگران حوزه سلامت دیجیتال دانست؛ هشداری که نشان داده است مسیر تبدیل هوش مصنوعی به یک بازیگر قابل اتکا در پزشکی، بمراتب پیچیده تر و طولانی تر از آن چیزی است که داستانهای تبلیغاتی و گفتمان های فناورمحور ترسیم می کنند.
طی سالهای اخیر، نوعی خوشبینی افراطی نسبت به کاربردهای پزشکی هوش مصنوعی شکل گرفته است؛ گویی افزایش توان محاسباتی و دسترسی به داده های بزرگ، به تنهایی برای خلق یک نظام تصمیم یار ایمن کافی است. در عین حال، حقیقت آنست که پزشکی فقط یک مسئله داده محور نیست، بلکه تلفیقی از قضاوت بالینی، تجربه انسانی، درک زمینه ای و مدیریت عدم قطعیت محسوب می شود؛ مؤلفه هایی که بازتولید کامل آنها در چارچوب مدلهای زبانی هنوز با چالش های بنیادین روبروست.
هوش مصنوعی بدون تردید ظرفیت بازآفرینی سیستم سلامت را دارد و می تواند در بین مدت به یکی از پیشران های اصلی راندمان در این بخش، از کاهش خطاهای اداری و تسریع فرآیندهای تشخیصی گرفته تا شخصی سازی درمان و بهبود مدیریت منابع بیمارستانی، تبدیل گردد. اما در مقطع کنونی، فاصله ای معنادار میان قابلیت نظری این فناوری و آمادگی عملیاتی آن در محیط های حقیقی درمان وجود دارد. خیلی از مدلها در شرایط کنترل شده عملکرد قابل قبولی دارند اما هنگامی که با پیچیدگی های دنیای حقیقی، مانند علایم دارای همپوشانی، سوابق پزشکی ناقص، تفاوت های فرهنگی در توصیف درد یا حتی خطاهای ورودی کاربر، مواجه می شوند، سطح اطمینان پذیری آنها کاسته می شود.
از همین روی، تا آن زمان که این شکاف ساختاری پر نشود، اتکا به هوش مصنوعی برای اتخاذ تصمیمات حوزه پزشکی باید با احتیاط حداکثری، نظارت تخصصی و استقرار چارچوب های حرفه ای و تنظیم گرانه همراه باشد؛ چارچوب هایی که مسئولیت پذیری، قابلیت ممیزی و شفافیت الگوریتمی را تضمین کنند.
این یافته ها یادآور ضرورت عبور از فاز «هیجان فناورانه» و ورود به مرحله «بلوغ نهادی» در به کارگیری هوش مصنوعی است. نظام های سلامت نمی توانند فقط مصرف کننده فناوری باشند؛ آنها باید سازوکارهای ارزیابی بالینی، استانداردهای ایمنی و پروتکلهای ادغام هوش مصنوعی در فرآیندهای درمانی را به شکل فعال طراحی نمایند. در غیر این صورت، خطر تشکیل وابستگی زودهنگام به ابزارهایی که هنوز به سطح کافی از قابلیت اتکا نرسیده اند، افزایش خواهد یافت.
در نهایت، شاید مهم ترین درس این تحقیق آن باشد که در فناوری های حساس و پرمخاطره، «توانستن» الزاماً به مفهوم «آماده بودن» برای یک امر نیست. تاریخ تحول فناوری بارها نشان داده است که فاصله میان امکان فنی و پذیرش ایمن اجتماعی می تواند قابل توجه باشد. بنابراین، آینده موفق هوش مصنوعی در پزشکی نه در شتاب زدگی برای جایگزینی پزشکان، بلکه در توسعه تدریجی، آزمون های میدانی سخت گیرانه و شکل گیری به مدلهای همکاری انسان و ماشین رقم خواهد خورد.
منبع: gph.ir
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان gph در مورد این مطلب