X обновила политику генерации изображений в чатботе Grok, запретив редактирование фото реальных людей в обнаженном или откровенном виде. Эта мера введена 14 января 2026 года на фоне глобального скандала с deepfake-контентом.
Предыстория проблемы
Недавнее обновление Grok позволило пользователям редактировать загруженные изображения через reply-бот, включая замену фото iPhone 17 на вид Pixel. Злоумышленники быстро применили функцию для создания сексуализированных изображений: популярный промпт “put her in a bikini” использовался для “раздевания” женщин, включая знаменитостей вроде Билла Гейтса, Эббы Буш и даже Илона Маска.
Это привело к массовому распространению неконсенсусных deepfakes, в том числе с несовершеннолетними, обнаруженными на даркнете по данным Internet Watch Foundation.
Реакция властей и сообщества
Регуляторы Великобритании (Ofcom) инициировали расследование на предмет нарушения Online Safety Act, Индия выдала официальное уведомление о удалении контента, а Малайзия и Индонезия заблокировали Grok.
Генпрокурор Калифорнии Роб Бонта начал проверку, а в ЕС и Великобритании обсуждают дополнительные ограничения; Apple и Google получили запросы на удаление приложений X и Grok из магазинов.
Эксперты вроде JerryRigEverything и политики, включая премьера Киера Стармера, осудили Маска за отсутствие контроля.
Новые ограничения Grok
Grok теперь технически блокирует редактирование реальных людей в бикини или подобной одежде для всех пользователей, включая премиум-подписчиков. Генерация и редактирование изображений стали эксклюзивом для платных аккаунтов X.
Введено геоблокировка: в странах с запретом функция недоступна; с NSFW-настройками допускается обнажение вымышленных фигур, аналогично R-rated фильмам.
Технические последствия для IT
Инструменты вроде Grok на базе Flux демонстрируют риски продвинутых моделей редактирования: промпты позволяют менять текстуры и позы с фотореалистичной точностью, что усложняет детекцию AI-контента через EXIF или watermarking. Для разработчиков это подчеркивает необходимость сервер-сайд фильтров CLIP-подобных моделей перед генерацией, интегрированных с базами лиц (например, LAION-5B с этичными масками).
В Android и iOS-приложениях X теперь требуется аутентификация для image API, что повышает нагрузку на edge-сервера, но снижает abuse через rate-limiting по IP и device ID.
Будущие вызовы в экосистемах
Apple усиливает Content Safety в iOS 20 с on-device нейронками для скрининга deepfakes в Messages и Safari, блокируя запросы к внешним API вроде Grok. Google на Android 17 интегрирует SynthID в Play Protect для watermark-валидации, но обход через прокси остается проблемой.
Для macOS Sonoma+ и iPhone 16 рекомендуется использовать локальные инструменты типа MLX для этичного редактирования, избегая облачных сервисов без geofence.
