Чат-боты на базе ИИ в половине случаев искажали ответы по медицине

Согласно исследованию, опубликованному в медицинском журнале BMJ Open, чат-боты на основе искусственного интеллекта (ИИ) в почти половине случаев давали неточные ответы на вопросы, связанные с медициной и здоровьем. Наибольшее количество ошибок допускал чат-бот Grok.
В исследовании участвовали пять популярных ИИ-чат-ботов: Gemini, DeepSeek, Meta AI, ChatGPT и Grok. Каждому из них задали по десять вопросов, касающихся рака, вакцинации, стволовых клеток, питания и спорта, а затем ответы оценивали эксперты.
Авторы отмечают, что 49,6% ответов содержали искажения: 30% — с незначительными ошибками и 19% — с серьезными.
Качество ответов у большинства чат-ботов было примерно одинаковым, однако Grok выдавал значительно больше ответов с серьезными ошибками. Лучшие результаты ИИ показали в темах вакцинации и рака, а худшие — в вопросах питания. При этом чат-боты отвечали уверенно, отказавшись отвечать лишь в 2 случаях из 250.
Кроме того, ни один из ИИ не смог предоставить полностью достоверный список источников, часто «галлюцинируя» и придумывая их. По мнению исследователей, уровень сложности ответов соответствовал текстам для студентов второго курса университета.
Авторы заключают, что проверенные чат-боты демонстрируют неудовлетворительные результаты при ответах на вопросы в области медицины и здоровья, где распространение ложной информации особенно опасно. Они предупреждают, что дальнейшее использование таких ИИ без общественного просвещения и контроля может способствовать усилению дезинформации.
Источник и фото - ria.ru







