Учёные из Оксфорда выяснили, что искусственный интеллект не помогает людям лучше заботиться о здоровье по сравнению с обычными методами

Люди, которые обращаются к ИИ за помощью в интерпретации симптомов, в среднем не принимают более правильных решений о дальнейшем лечении или действиях, чем те, кто пользуется обычным интернет‑поиском или официальными сайтами здравоохранения.
В исследовании участвовали почти 1 300 человек из Великобритании, которым предлагалось рассмотреть десять различных медицинских сценариев — от простых до потенциально опасных для жизни. Модели искусственного интеллекта, такие как ChatGPT‑4o от OpenAI, Llama 3 от Meta и Command R+ от Cohere, при автономном тестировании правильно распознавали большинство состояний. Но когда люди взаимодействовали с этими ИИ‑системами, точность диагностики и рекомендаций существенно падала: лишь около трети участников смогли идентифицировать правильное состояние, а подходящие действия были предложены менее чем в половине случаев — примерно на том же уровне, что и при использовании стандартного поиска.
Авторы исследования отмечают, что существенный разрыв между теоретическими возможностями ИИ и его практической полезностью связан не только с ограничениями самих моделей, но и с тем, что люди часто описывают свои симптомы неполно или неточно, а ИИ иногда генерирует вводящие в заблуждение ответы. Это подчеркивает важность осторожного подхода к использованию ИИ‑сервисов для принятия медицинских решений и необходимости дополнительных исследований по разным языкам и регионам.
Параллельно другие публикации Reuters поднимают вопросы безопасности ИИ‑инструментов в медицине: растёт число случаев, когда приложения или устройства с элементами искусственного интеллекта дают неверные результаты или ошибочные рекомендации, что может привести к вреду пациентам, поэтому многие эксперты призывают к усилению контроля и регулирования таких технологий.