Сам Grok публично признал: в системе безопасности были серьёзные пробелы. По словам разработчиков, после обнаружения проблемы начались срочные исправления, а правила были ужесточены. Чат-бот отдельно подчеркнул, что любые материалы, связанные с сексуальным насилием над детьми, незаконны и категорически запрещены.
При этом Grok сделал редкое для ИИ заявление: компании могут столкнуться не только с репутационным ударом, но и с уголовной или гражданской ответственностью, если не предотвратят распространение подобного контента после того, как о нём стало известно.
Надзорные органы и профильные организации бьют тревогу. По их данным, инструменты генерации изображений на базе ИИ уже привели к резкому росту количества подобных материалов — масштабы проблемы называют беспрецедентными. То, что раньше требовало сложных навыков, теперь доступно за пару кликов.
Этот инцидент усиливает давление на весь рынок ИИ. В начале 2026 года правительства по всему миру готовятся усилить контроль над разработчиками искусственного интеллекта — и случай с Grok может стать одним из аргументов в пользу жёстких правил.
ИИ обещал облегчить жизнь. Но всё чаще выясняется: без строгих ограничений он способен открыть двери туда, куда лучше бы никогда не заглядывать.











