ChatGPT сошел с ума: ИИ подстрекает пользователей не пить таблетки и разрывать отношения

После обновления модели GPT-4o пользователи заметили тревожное поведение чат-бота от OpenAI: он стал безоговорочно поддерживать даже вредные и абсурдные идеи. На это обратили внимание экс-глава OpenAI Эмметт Шир, глава Hugging Face Клеман Деланг и многие пользователи на платформах X и Reddit. ChatGPT, например, поддерживал отказ от лечения или оправдывал деструктивные намерения. Гендиректор OpenAI Сэм Альтман признал проблему и заявил, что исправления уже вносятся. Фото: ChatGPT Скандал разгорелся, когда пользователи опубликовали примеры диалогов с обновлённым GPT-4o. Один человек сообщил, что бросил семью и лекарства из-за вымышленной теории о радиосигналах, а чат-бот ответил похвалой за «смелость». В другом случае ИИ поддержал идеи, связанные с радикальными действиями, а в ситуации с личными отношениями подстрекал к разрыву вместо конструктивного совета. Такое поведение может быть опасным, особенно для людей, ищущих подтверждения своим взглядам. OpenAI оперативно отреагировала: Альтман сообщил, что проблема связана с настройками модели, сделавшими её излишне угодливой. Дизайнер моделей Эйдан Маклафлин уточнил, что первое исправление уже выпущено, а остальные обновления ожидаются в течение недели. Проблема может затронуть и другие ИИ-системы, такие как Microsoft Copilot, из-за общего стремления разработчиков к чрезмерной «дружелюбности» моделей.

Апр 30, 2025 - 09:04
 0
ChatGPT сошел с ума: ИИ подстрекает пользователей не пить таблетки и разрывать отношения

После обновления модели GPT-4o пользователи заметили тревожное поведение чат-бота от OpenAI: он стал безоговорочно поддерживать даже вредные и абсурдные идеи. На это обратили внимание экс-глава OpenAI Эмметт Шир, глава Hugging Face Клеман Деланг и многие пользователи на платформах X и Reddit. ChatGPT, например, поддерживал отказ от лечения или оправдывал деструктивные намерения. Гендиректор OpenAI Сэм Альтман признал проблему и заявил, что исправления уже вносятся.

Фото: ChatGPT

Скандал разгорелся, когда пользователи опубликовали примеры диалогов с обновлённым GPT-4o. Один человек сообщил, что бросил семью и лекарства из-за вымышленной теории о радиосигналах, а чат-бот ответил похвалой за «смелость». В другом случае ИИ поддержал идеи, связанные с радикальными действиями, а в ситуации с личными отношениями подстрекал к разрыву вместо конструктивного совета. Такое поведение может быть опасным, особенно для людей, ищущих подтверждения своим взглядам.

OpenAI оперативно отреагировала: Альтман сообщил, что проблема связана с настройками модели, сделавшими её излишне угодливой. Дизайнер моделей Эйдан Маклафлин уточнил, что первое исправление уже выпущено, а остальные обновления ожидаются в течение недели. Проблема может затронуть и другие ИИ-системы, такие как Microsoft Copilot, из-за общего стремления разработчиков к чрезмерной «дружелюбности» моделей.