На Reddit провели тайный эксперимент: боты манипулировали пользователями
В крупнейшем сообществе тысячи людей спорили, не подозревая, что их собеседники — не настоящие пользователи, а искусственный интеллект, тщательно изучавший их профили для максимального эффекта. В начале 2025 года на Reddit разгорелся громкий скандал: выяснилось, что команда исследователей из Цюрихского университета провела тайный эксперимент в популярном сообществе r/changemyview. Это место, где люди открыто обсуждают спорные темы и готовы менять свою точку зрения под влиянием веских аргументов. Но на этот раз их оппонентами стали не живые пользователи, а искусственный интеллект, замаскированный под обычных участников форума, сообщает 404 Media. В течение четырех месяцев боты, созданные на основе языковых моделей, оставили более 1700 комментариев под разными аккаунтами. Для большей убедительности они выдавали себя за людей с разным жизненным опытом: жертв насилия, специалистов по работе с травмами, представителей различных этнических групп. Каждый бот подбирал аргументы индивидуально, анализируя историю сообщений собеседника. Для этого использовался отдельный ИИ, который определял возраст, пол, политические взгляды и другие личные детали пользователя. Главная цель эксперимента — выяснить, насколько эффективно искусственный интеллект может убеждать людей и менять их мнение. Результаты оказались впечатляющими: по данным черновика научной работы, ИИ-боты меняли взгляды пользователей в 3−6 раз чаще, чем обычные участники дискуссий. В системе r/changemyview это фиксируется специальной отметкой, которую ставят те, кто признал, что изменил свое мнение после аргументов оппонента.

В крупнейшем сообществе тысячи людей спорили, не подозревая, что их собеседники — не настоящие пользователи, а искусственный интеллект, тщательно изучавший их профили для максимального эффекта.
В начале 2025 года на Reddit разгорелся громкий скандал: выяснилось, что команда исследователей из Цюрихского университета провела тайный эксперимент в популярном сообществе r/changemyview. Это место, где люди открыто обсуждают спорные темы и готовы менять свою точку зрения под влиянием веских аргументов. Но на этот раз их оппонентами стали не живые пользователи, а искусственный интеллект, замаскированный под обычных участников форума, сообщает 404 Media.
В течение четырех месяцев боты, созданные на основе языковых моделей, оставили более 1700 комментариев под разными аккаунтами. Для большей убедительности они выдавали себя за людей с разным жизненным опытом: жертв насилия, специалистов по работе с травмами, представителей различных этнических групп. Каждый бот подбирал аргументы индивидуально, анализируя историю сообщений собеседника. Для этого использовался отдельный ИИ, который определял возраст, пол, политические взгляды и другие личные детали пользователя.
Главная цель эксперимента — выяснить, насколько эффективно искусственный интеллект может убеждать людей и менять их мнение. Результаты оказались впечатляющими: по данным черновика научной работы, ИИ-боты меняли взгляды пользователей в 3−6 раз чаще, чем обычные участники дискуссий. В системе r/changemyview это фиксируется специальной отметкой, которую ставят те, кто признал, что изменил свое мнение после аргументов оппонента.