Безопасность в тени: Google подвергается критике за недостаток прозрачности в отчёте о безопасности Gemini 2.5 Pro
Опубликованный в четверг отчёт Google о безопасности флагманской ИИ-модели Gemini 2.5 Pro вызвал скепсис у экспертов, обвинивших компанию в излишней лаконичности документа. Доклад, выпущенный спустя несколько недель после старта модели, призванный продемонстрировать внутренние оценки безопасности, оказался лишён ключевых деталей, что, по мнению аналитиков, ставит под вопрос возможность объективной оценки рисков, связанных с ИИ. Технические отчёты — критически важный инструмент для понимания возможностей и угроз, которые несут современные ИИ-системы. Однако подход Google к их публикации вызывает вопросы. Компания предоставляет такие документы только после вывода моделей из «экспериментальной» стадии и исключает из них данные о тестировании «опасных возможностей», оставляя их для закрытого аудита. Иллюстрация: Google Эксперты указали на отсутствие в отчёте упоминаний о «Системе безопасности на передовой» (Frontier Safety Framework, FSF) — инструменте Google, представленном в 2024 году для выявления ИИ-возможностей, способных нанести «серьёзный вред». Питер Уилдефорд, сооснователь Института политики и стратегии в области ИИ, назвал отчёт «скудным»: «Невозможно проверить, выполняет ли Google свои публичные обязательства, и, следовательно, оценить безопасность их моделей». Он также обратил внимание на задержку публикации: документ вышел уже после того, как Gemini 2.5 Pro стала доступна пользователям. Томас Вудсайд из проекта Secure AI выразил надежду, что Google начнёт чаще публиковать обновления, но напомнил о «пробелах» в отчётности: например, модель Gemini 2.5 Flash до сих пор не имеет опубликованных данных о безопасности. По словам представителя Google, отчёт по Flash «скоро появится», однако эксперты сомневаются в системности подхода компании. Ситуация усугубляется тем, что Google, ранее обещавший регуляторам «публичную прозрачность» для всех значимых ИИ-моделей, теперь соседствует в списках критиков с Meta* и OpenAI. Первая выпустила столь же краткий отчёт для Llama 4, вторая вовсе отказалась публиковать данные по GPT-4.1. Кевин Бэнкстон из Центра демократии и технологий назвал эту тенденцию «гонкой ко дну»: «Компании сокращают время тестирования с месяцев до дней, а их отчёты становятся всё менее информативными». Он связал это с рыночной гонкой, где скорость выхода продукта превалирует над безопасностью. Google, со своей стороны, настаивает, что проводит «состязательное тестирование» (adversarial red teaming) перед выпуском моделей, но не включает все данные в публичные отчёты. Эксперты, однако, уверены: без полной и своевременной прозрачности доверие к ИИ-индустрии будет падать, а регуляторы могут ужесточить требования, замедлив прогресс в отрасли. * Компания Meta (Facebook и Instagram) признана в России экстремистской и запрещена

Опубликованный в четверг отчёт Google о безопасности флагманской ИИ-модели Gemini 2.5 Pro вызвал скепсис у экспертов, обвинивших компанию в излишней лаконичности документа. Доклад, выпущенный спустя несколько недель после старта модели, призванный продемонстрировать внутренние оценки безопасности, оказался лишён ключевых деталей, что, по мнению аналитиков, ставит под вопрос возможность объективной оценки рисков, связанных с ИИ.
Технические отчёты — критически важный инструмент для понимания возможностей и угроз, которые несут современные ИИ-системы. Однако подход Google к их публикации вызывает вопросы. Компания предоставляет такие документы только после вывода моделей из «экспериментальной» стадии и исключает из них данные о тестировании «опасных возможностей», оставляя их для закрытого аудита.
Эксперты указали на отсутствие в отчёте упоминаний о «Системе безопасности на передовой» (Frontier Safety Framework, FSF) — инструменте Google, представленном в 2024 году для выявления ИИ-возможностей, способных нанести «серьёзный вред».
Питер Уилдефорд, сооснователь Института политики и стратегии в области ИИ, назвал отчёт «скудным»: «Невозможно проверить, выполняет ли Google свои публичные обязательства, и, следовательно, оценить безопасность их моделей». Он также обратил внимание на задержку публикации: документ вышел уже после того, как Gemini 2.5 Pro стала доступна пользователям.
Томас Вудсайд из проекта Secure AI выразил надежду, что Google начнёт чаще публиковать обновления, но напомнил о «пробелах» в отчётности: например, модель Gemini 2.5 Flash до сих пор не имеет опубликованных данных о безопасности. По словам представителя Google, отчёт по Flash «скоро появится», однако эксперты сомневаются в системности подхода компании.
Ситуация усугубляется тем, что Google, ранее обещавший регуляторам «публичную прозрачность» для всех значимых ИИ-моделей, теперь соседствует в списках критиков с Meta* и OpenAI. Первая выпустила столь же краткий отчёт для Llama 4, вторая вовсе отказалась публиковать данные по GPT-4.1.
Кевин Бэнкстон из Центра демократии и технологий назвал эту тенденцию «гонкой ко дну»: «Компании сокращают время тестирования с месяцев до дней, а их отчёты становятся всё менее информативными». Он связал это с рыночной гонкой, где скорость выхода продукта превалирует над безопасностью.
Google, со своей стороны, настаивает, что проводит «состязательное тестирование» (adversarial red teaming) перед выпуском моделей, но не включает все данные в публичные отчёты. Эксперты, однако, уверены: без полной и своевременной прозрачности доверие к ИИ-индустрии будет падать, а регуляторы могут ужесточить требования, замедлив прогресс в отрасли.
* Компания Meta (Facebook и Instagram) признана в России экстремистской и запрещена