22% медичних порад Copilot можуть вбити, — дослідження


22% медичних порад Copilot можуть вбити, — дослідження

Чатботи штучного інтелекту — ненайкращі медичні асистенти. Дослідники виявили, що п’ята частина порад Microsoft Copilot може бути смертельною.

Якщо чатбот нафантазує про якийсь факт — це не завжди зашкодить, але не у випадку медицини. Прихильникам самолікування може, що найменше, стати гірше, ніж було, — навіть до найтяжчого ступеня.

У дослідженні, опублікованому на Scimex під назвою «Поки що не відмовляйтеся від свого лікаря загальної практики заради доктора Чатбота», вчені поставили 10 поширених запитань про 50 ліків, які найчастіше призначають в США, та отримали 500 відповідей. Дослідники оцінили, наскільки відповіді точні з медичного погляду. Штучний інтелект отримав середню оцінку належного виконання запиту 77%, найгірший приклад — лише 23%.

Лише 54% відповідей узгоджувалися з науковим консенсусом. З погляду потенційної шкоди для пацієнтів, 42% відповідей ШІ призводять до помірної або легкої шкоди, а 22% — до смерті або серйозної шкоди. Лише близько третини відповідей (36%) вважалися нешкідливими, зазначають автори.

Медицина взагалі не схвалює самолікування. Люди без медичної освіти не мають необхідного знання та бачення комплексної картини процесів в організмі. Щобільше, не слід покладатися на штучний інтелект, з його помилками, «фантазіями» та сумнівними джерелами. Також варто замислитися, що подібна частка шкідливих відповідей може надходити й на запити, не пов’язані з медициною.

Курс Project Manager від Powercode academy. Онлайн-курс Project Manager. З нуля за 3,5 місяці до нової позиції Без знання коду, англійської та стресу. Зарееструватися

Новини Дніпра