Ученые: консультироваться с ИИ по теме здоровья опасно

Каждый шестой пользователь интернета ежемесячно обращается к чат-ботам за медицинскими советами, но новое исследование показало, что это может привести к недооценке серьезности заболеваний. Ученые Оксфордского университета обнаружили серьезный разрыв в коммуникации между пользователями и медицинскими чат-ботами. Исследование с участием 1300 британцев показало, что люди, использующие ИИ для диагностики, принимают не более обоснованные решения, чем те, кто полагается на обычный поиск в интернете или собственную интуицию. Участники эксперимента работали с различными моделями искусственного интеллекта, включая GPT-4o и Llama 3. Результаты оказались тревожными: пользователи чат-ботов реже выявляли потенциальные заболевания и чаще недооценивали их серьезность. «Обратная связь от чат-ботов часто смешивала разумные советы с сомнительными рекомендациями», — отметил Адам Махди, соавтор исследования и директор по исследованиям в Оксфордском интернет-институте. Проблема кроется в двух аспектах: пользователи не знают, какую информацию нужно предоставить ИИ, а сами чат-боты выдают ответы, которые трудно интерпретировать. Это создает опасный цикл неэффективного взаимодействия, который может привести к неправильным медицинским решениям. Несмотря на риски, рынок медицинских чат-ботов стремительно растет. В 2024 году его объем оценивается в 269,38 миллиона долларов, а к 2025 году достигнет 315,12 миллиона. Прогнозы указывают на дальнейший рост до почти миллиарда долларов к 2032 году.

Май 7, 2025 - 15:23
 0
Ученые: консультироваться с ИИ по теме здоровья опасно

Каждый шестой пользователь интернета ежемесячно обращается к чат-ботам за медицинскими советами, но новое исследование показало, что это может привести к недооценке серьезности заболеваний.

Ученые Оксфордского университета обнаружили серьезный разрыв в коммуникации между пользователями и медицинскими чат-ботами. Исследование с участием 1300 британцев показало, что люди, использующие ИИ для диагностики, принимают не более обоснованные решения, чем те, кто полагается на обычный поиск в интернете или собственную интуицию.

Участники эксперимента работали с различными моделями искусственного интеллекта, включая GPT-4o и Llama 3. Результаты оказались тревожными: пользователи чат-ботов реже выявляли потенциальные заболевания и чаще недооценивали их серьезность.

«Обратная связь от чат-ботов часто смешивала разумные советы с сомнительными рекомендациями», — отметил Адам Махди, соавтор исследования и директор по исследованиям в Оксфордском интернет-институте.

Проблема кроется в двух аспектах: пользователи не знают, какую информацию нужно предоставить ИИ, а сами чат-боты выдают ответы, которые трудно интерпретировать. Это создает опасный цикл неэффективного взаимодействия, который может привести к неправильным медицинским решениям.

Несмотря на риски, рынок медицинских чат-ботов стремительно растет. В 2024 году его объем оценивается в 269,38 миллиона долларов, а к 2025 году достигнет 315,12 миллиона. Прогнозы указывают на дальнейший рост до почти миллиарда долларов к 2032 году.