Новий ІІ-помічник зі здоров'я помиляється у понад 50% випадків – вчені

Штучний інтелект дедалі активніше впроваджується у сферу охорони здоров'я.

Проте результати нового масштабного тестування змушують засумніватися у його готовності замінити людину, – повідомляє кореспондент мережевого видання «Бєлновини».

За даними авторитетного видання The Guardian, популярний чат-бот із функцією «Здоров'я» продемонстрував тривожну нездатність відрізнити реальну загрозу життю від звичайного нездужання.

врачи
Фото: © Білновини

У центрі скандалу опинився ChatGPT, який у січні поточного року обзавівся спеціальною опцією, що дозволяє користувачам завантажувати свої медичні дані та отримувати персональні поради.

Хоча функція поки доступна лише обмеженому колу тестувальників, аналітики наголошують на масштабі проблеми: понад 40 мільйонів людей по всьому світу щодня звертаються до нейромережі з питаннями про своє самопочуття, довіряючи алгоритму те, що традиційно вимагає багаторічної кваліфікації.

Щоб перевірити компетентність цифрового консультанта, фахівці змоделювали 60 максимально реалістичних клінічних ситуацій, що охоплюють весь спектр — від легкого головного болю до станів, які безпосередньо загрожують життю.

Кожен сценарій був ретельно вивчений та валідований трьома незалежними лікарями, які дійшли єдиної думки про необхідний рівень медичного втручання.

Однак коли ці ж сценарії, з варіаціями статі пацієнтів, результатів аналізів та коментарів родичів, подали на аналіз ChatGPT Health, картина відкрилася страшна.

Проаналізувавши близько тисячі відповідей нейромережі, дослідники виявили фатальну системну помилку. У 51,6 відсотка випадків, коли йшлося про реальну загрозу для життя і пацієнту була потрібна термінова госпіталізація, чат-бот рекомендував залишитися вдома і лікуватися самостійно.

Іншими словами, алгоритм пропустив критичний стан у кожному другому випадку, що може мати фатальні наслідки, якщо користувач сліпо довіриться пораді машини.

Не менш парадоксальною виявилася і зворотна ситуація. У 64,8 відсотка епізодів, коли у «пацієнта» не було жодних серйозних патологій і він був абсолютно здоровий, ІІ навпаки виявляв гіпердіагностику і наполегливо радив звернутися до лікарні.

Таким чином, нейромережа не тільки заспокоює тих, кому потрібна термінова допомога, а й створює хибну тривогу в інших, потенційно перевантажуючи і так зайняту систему охорони здоров'я.

Отримані дані ставлять під сумнів безпеку використання великих мовних моделей як домашні «лікарі».

Експерти попереджають: незважаючи на всю свою технологічну міць, штучний інтелект поки що не здатний враховувати нюанси клінічної картини, які досвідчений лікар схоплює інтуїтивно. Поки ІІ навчається на статистиці, він продовжує помилятися там, де на кону стоїть людське життя.

Читайте також

  • Імунотерапія з доставкою: новий метод б'є по раку точково, не калічаючи здорові тканини.
  • Telegram готують до блокування з 1 квітня? Жарт чи рішення влади
No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *