Оксфордський аналіз вказує на ризики залучення штучного інтелекту до консультацій з питань здоров’я.

Дослідження, проведене в Оксфордському університеті, продемонструвало, що чат-боти, які використовують штучний інтелект, надають неточні та непослідовні медичні поради. Це становить ризик для безпеки хворих через невірне трактування обмежених даних.

Оксфордське дослідження попередило про небезпеку використання ШІ для медичних порад

Вчені з Оксфордського університету встановили, що чат-боти на базі штучного інтелекту пропонують невірні та суперечливі поради щодо здоров’я, що загрожує здоров’ю пацієнтів. Дослідження наголошує на тому, що нездатність алгоритмів вірно розшифровувати неповні відомості від користувачів робить самостійну діагностику за допомогою ШІ дуже небезпечною. Про це інформує УНН.

Деталі

Експеримент, в якому взяли участь 1300 осіб, виявив, що наслідки взаємодії з ШІ вкрай залежать від побудови питань. Людям пропонували оцінити симптоми, такі як сильний біль голови або знесилення, але чат-боти часто генерували список діагнозів, з яких людині доводилося вибирати навмання. Доктор Адам Махді, головний автор дослідження, відзначив у коментарі для BBC: “Коли штучний інтелект представляв три можливі хвороби, людям необхідно було самим вгадувати, яка з них підходить. Саме в цьому випадку все й ламається”.

Провідний лікар дослідження доктор Ребекка Пейн охарактеризувала практику консультування з ШІ як “небезпечну”. Вона пояснила, що користувачі зазвичай діляться інформацією поступово і можуть не згадувати основні деталі, які кваліфікований медик виявив би під час особистого огляду. У підсумку люди, які використовували ШІ, отримували набір корисних та шкідливих рекомендацій, що ускладнювало прийняття рішення про необхідність відвідування сімейного лікаря або термінової медичної допомоги.

Упередження алгоритмів та перспективи галузі

Крім технічних недоліків, експерти вказують на системні вади технології. Докторка Ембер В. Чайлдс з Єльського університету підкреслила, що ШІ навчається на медичних даних, які вже містять десятилітні упередження.

Чат-бот є настільки ж добрим діагностом, наскільки добрими є досвідчені клініцисти, що також не ідеально

– додала вона.

Це створює додатковий ризик повторення помилок, закладених у поточну медичну практику.

Незважаючи на критику, фахівці бачать потенціал у спеціалізованих моделях. Доктор Берталан Меско зауважив, що нові версії чат-ботів від OpenAI та Anthropic, розроблені спеціально для сфери охорони здоров’я, можуть продемонструвати кращі результати. Однак основною умовою безпеки залишається впровадження чітких національних норм, регуляторних обмежень та офіційних медичних рекомендацій для вдосконалення таких систем.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *