Китайская «машина цензуры» использует ИИ — что раскрылось из утечек
«Великий файрвол» уже не тот — он становится технологичнее и изощреннее. Как помощь ИИ скажется на социальном рейтинге местных, пока загадка, однако очевидно, что Си Цзиньпин планирует развертывать слежки за нежелательным в соцсетях. Китай разрабатывает новую систему цензуры на основе искусственного интеллекта. Из утечки данных понятно, что власти тестируют алгоритмы для автоматического выявления запрещенных тем. В базу загружены более 133 тыс. примеров контента, который считается нежелательным. Система анализирует сообщения о коррупции, проблемах в экономике, бедности и других вопросах, способных вызвать общественный резонанс. Программа работает на основе большой языковой модели. Она не просто ищет запрещенные слова, а понимает контекст и даже распознает скрытые намеки. Например, алгоритм реагирует на политическую сатиру, обсуждения военных тем и упоминания Тайваня, из-за которого Китай конфликтует с США. Система может отслеживать жалобы на чиновников, скандалы, связанные с безопасностью продуктов, и недовольство социальными проблемами. Она находит обходные выражения и саркастические комментарии, которые раньше могли ускользнуть от автоматических фильтров. Также ИИ вживую модерирует наполнение социальных сетей, блокируя нежелательный контент до того, как он станет вирусным.

«Великий файрвол» уже не тот — он становится технологичнее и изощреннее. Как помощь ИИ скажется на социальном рейтинге местных, пока загадка, однако очевидно, что Си Цзиньпин планирует развертывать слежки за нежелательным в соцсетях.
Китай разрабатывает новую систему цензуры на основе искусственного интеллекта. Из утечки данных понятно, что власти тестируют алгоритмы для автоматического выявления запрещенных тем. В базу загружены более 133 тыс. примеров контента, который считается нежелательным. Система анализирует сообщения о коррупции, проблемах в экономике, бедности и других вопросах, способных вызвать общественный резонанс.
Программа работает на основе большой языковой модели. Она не просто ищет запрещенные слова, а понимает контекст и даже распознает скрытые намеки. Например, алгоритм реагирует на политическую сатиру, обсуждения военных тем и упоминания Тайваня, из-за которого Китай конфликтует с США. Система может отслеживать жалобы на чиновников, скандалы, связанные с безопасностью продуктов, и недовольство социальными проблемами. Она находит обходные выражения и саркастические комментарии, которые раньше могли ускользнуть от автоматических фильтров. Также ИИ вживую модерирует наполнение социальных сетей, блокируя нежелательный контент до того, как он станет вирусным.