نتایج یک پژوهش و نظرسنجی از هزار پزشک عمومی نشان میدهد که از هر پنج پزشک بریتانیایی، یک نفر از ابزار هوش مصنوعی مولد مانند ChatGPT یا جمینای گوگل برای کمک به تمرینات و تشخیصهای بالینی استفاده میکند.
به گزارش ایسنا، با توجه به تبلیغات پیرامون هوش مصنوعی همراه با چالشهایی که سیستمهای بهداشتی با آن مواجه هستند، جای تعجب نیست که پزشکان و سیاستگذاران به طور یکسان هوش مصنوعی را کلیدی در مدرنسازی و تغییر خدمات بهداشتی بدانند.
پزشکان گزارش کردهاند که از هوش مصنوعی مولد برای تولید گزارش پس از ویزیت، کمک به تصمیمگیری بالینی و ارائه اطلاعات به بیماران مانند گزارش ترخیص و برنامههای درمانی استفاده میکنند.
پزشکان میگویند هوش مصنوعی مولد(GenAI) یک نوآوری جدید است که اساساً نحوه تفکر ما در مورد ایمنی بیمار را به چالش میکشد. هنوز چیزهای زیادی در مورد آن وجود دارد که بتوانیم آن را به طور ایمن در تمرینات بالینی روزمره استفاده کنیم.
مشکلات هوش مصنوعی مولد
برنامههای کاربردی هوش مصنوعی در اصل برای انجام یک کار بسیار خاص توسعه یافتهاند. به عنوان مثال، شبکههای عصبی یادگیری عمیق برای طبقهبندی در تصویربرداری و تشخیص طراحی شدهاند. چنین سیستمهایی در تجزیه و تحلیل ماموگرافی برای کمک به غربالگری سرطان پستان موثر هستند.
اما هوش مصنوعی مولد برای انجام یک کار با تعریف محدود آموزش ندیده است. این فناوریها بر اساس مدلهای به اصطلاح بنیادی بنا شدهاند که دارای قابلیتهای عمومی هستند. این بدان معناست که آنها میتوانند متن، تصویر، صدا یا حتی ترکیبی از اینها را تولید کنند.
سپس این قابلیتها برای برنامههای مختلف مانند پاسخ به سؤالات کاربر، تولید کد یا ایجاد تصاویر به خوبی تنظیم میشوند. به نظر میرسد که امکانات تعامل با این نوع هوش مصنوعی تنها با تخیل کاربر محدود میشود.
این نکته بسیار مهم است، زیرا این فناوری برای استفاده در یک زمینه خاص یا برای استفاده برای یک هدف خاص توسعه نیافته است و ما در واقع نمیدانیم که چگونه پزشکان میتوانند به طور ایمن از آن استفاده کنند. این دلیلی برای نمایش آن است که هوش مصنوعی مولد هنوز برای استفاده گسترده در مراقبتهای بهداشتی مناسب نیست.
یکی دیگر از مشکلات استفاده از هوش مصنوعی مولد در مراقبتهای بهداشتی، پدیده مستند «توهم»(hallucination) است. این توهمات، نتایج بیمعنی یا غیرواقعی بر اساس ورودیهای ارائه شده است.
توهمات در زمینه ایجاد خلاصه متن توسط هوش مصنوعی مولد مورد مطالعه قرار گرفتهاند. یک مطالعه نشان داد که ابزارهای مختلف هوش مصنوعی مولد خروجیهایی تولید میکنند که بر اساس آنچه در متن گفته شده است، اما پیوندهای نادرستی ایجاد میکند یا خلاصهها شامل اطلاعاتی میشوند که حتی در متن به آنها اشاره نشده است.
این توهمات به این دلیل اتفاق میافتند که هوش مصنوعی مولد بر اساس اصل احتمال(مانند پیشبینی اینکه کدام کلمه در یک زمینه خاص بکار گرفته میشود) کار میکند، نه اینکه مبتنی بر «درک» به معنای انسانی باشد. این بدان معناست که خروجیهای تولید شده توسط هوش مصنوعی مولد به جای اینکه لزوماً صادقانه باشند، قابل قبول هستند.
این قابل قبول بودن دلیل دیگری بر آن است که برای استفاده ایمن از هوش مصنوعی مولد در امور معمول پزشکی خیلی زود است.
یک ابزار هوش مصنوعی مولد را تصور کنید که به مشاوره دادن به بیمار گوش میدهد و سپس یک یادداشت خلاصه الکترونیکی تولید میکند. از یک طرف، این کار پزشک عمومی یا پرستار را تسهیل میکند تا بهتر با بیمار خود ارتباط برقرار کند، اما از سوی دیگر، هوش مصنوعی مولد به طور بالقوه میتواند یادداشتهایی را بر اساس آنچه که فکر میکند قابل قبول است، تولید کند، نه آنچه واقعی و درست است.
به عنوان مثال، این خلاصه تولید شده توسط هوش مصنوعی مولد ممکن است شدت علائم بیمار را تغییر دهد یا علائمی را اضافه کند که بیمار هرگز از آنها شکایت نکرده است یا شامل اطلاعاتی باشد که بیمار یا پزشک هرگز ذکر نکردهاند.
پزشکان و پرستاران باید تمام یادداشتهای تولید شده توسط هوش مصنوعی را با چشمی مانند عقاب تصحیح کنند و حافظهای عالی داشته باشند تا اطلاعات واقعی را از اطلاعات قابل قبول اما ساختگی متمایز کنند.
این ممکن است در یک محیط سنتی برای پزشکان خانواده خوب باشد، جایی که پزشک عمومی بیمار را به خوبی میشناسد تا اطلاعات نادرست را به درستی شناسایی کند. اما در سیستم بهداشتی پراکنده عمومی که بیماران اغلب توسط کارکنان مراقبتهای بهداشتی مختلف ویزیت میشوند، هرگونه نادرستی در یادداشتهای بیمار میتواند خطرات قابل توجهی از جمله تاخیر، درمان نامناسب و تشخیص اشتباه برای سلامتی آنها ایجاد کند.
خطرات مرتبط با توهم قابل توجه است، اما شایان ذکر است که محققان و توسعه دهندگان در حال حاضر روی کاهش احتمال توهم هوش مصنوعی مولد کار میکنند.
ایمنی بیماران
یکی دیگر از دلایلی که برای استفاده از هوش مصنوعی مولد در مراقبتهای بهداشتی خیلی زود است، این است که ایمنی بیمار به تعامل با هوش مصنوعی برای تعیین میزان عملکرد آن در یک زمینه و محیط خاص بستگی دارد. نگاهی به نحوه کار این فناوری در رابطه با مردم، نحوه انطباق آن با قوانین و فشارها و فرهنگ و اولویتها در یک سیستم سلامت بزرگتر این را نشان میدهد. چنین دیدگاه سیستمی تعیین میکند که آیا استفاده از هوش مصنوعی مولد ایمن است یا خیر.
از آنجایی که هوش مصنوعی مولد برای کاربرد خاصی طراحی نشده است، به این معنی است که قابل انطباق است و میتواند به گونهای استفاده شود که ما نمیتوانیم به طور کامل پیشبینی کنیم. علاوه بر این، توسعه دهندگان به طور مرتب فناوری خود را بهروز میکنند و قابلیتهای عمومی جدیدی را به آن اضافه میکنند که رفتار برنامه هوش مصنوعی مولد را تغییر میدهد.
همچنین حتی اگر به نظر برسد که این فناوری ایمن است و همانطور که در نظر گرفته شده کار میکند، باز هم بسته به زمینه استفاده خود کار میکند و ممکن است آسیبی رخ دهد.
به عنوان مثال، معرفی عوامل مکالمه هوش مصنوعی مولد برای تریاژ میتواند بر تمایل بیماران مختلف برای تعامل با سیستم مراقبتهای بهداشتی تأثیر بگذارد. بیماران با سواد دیجیتال پایینتر، افرادی که زبان اصلی آنها انگلیسی نیست و بیمارانی که سخن نمیگویند ممکن است استفاده از هوش مصنوعی مولد را دشوار بدانند. بنابراین در حالی که ممکن است این فناوری اصولاً کار کند، اما اگر این فناوری برای همه کاربران به طور یکسان کار نکند، همچنان میتواند آسیبزا باشد.
نکته اینجاست که پیشبینی چنین خطرهایی با هوش مصنوعی مولد از طریق رویکردهای تحلیل ایمنی سنتی بسیار دشوارتر است. این رویکردها به درک این موضوع میپردازند که چگونه یک اختلال در این فناوری میتواند باعث آسیب در زمینههای خاص شود.
در مجموع، مراقبتهای بهداشتی میتوانند از پذیرش هوش مصنوعی مولد و سایر ابزارهای هوش مصنوعی بهرهمند شوند، اما قبل از اینکه این فناوری بتواند به طور گستردهتر در مراقبتهای بهداشتی مورد استفاده قرار گیرد، تضمین ایمنی و مقررات باید به پیشرفتها در مکان و نحوه استفاده از این فناوری پاسخگوتر باشند.
همچنین برای توسعه دهندگان ابزارها و تنظیم کنندههای هوش مصنوعی مولد ضروری است که با جوامعی که از این فناوریها استفاده میکنند برای توسعه ابزارهایی که میتوانند به طور منظم و ایمن در عمل بالینی استفاده شوند، کار کنند.