За последние дни сразу несколько известных исследователей объявили об уходе. Некоторые из них заявляют, что компании ускоряют внедрение искусственного интеллекта быстрее, чем успевают оценить его последствия.
Бывшая сотрудница OpenAI Зои Хитциг заявила, что у неё возникли серьёзные опасения из-за планов использовать чат-боты в рекламных целях. По её словам, такие системы накапливают огромные массивы личной информации пользователей — от медицинских страхов и семейных проблем до религиозных убеждений. Она считает, что подобные данные могут создавать этические риски, особенно если пользователи воспринимают общение с ИИ как нейтральный разговор без скрытых мотивов.
Тем временем руководитель исследовательской группы по безопасности в компании Anthropic Мринак Шарма, объявляя об увольнении, написал, что «мир находится под угрозой» и признал, что внутри индустрии становится всё сложнее удерживать баланс между коммерческим ростом и вопросами безопасности.
Одновременно в компании xAI, связанной с Илоном Маском, за короткий период ушли несколько сооснователей и сотрудников. Причины официально не раскрываются. Однако ранее вокруг чат-бота Grok возник скандал после сообщений о создании системой запрещённого контента, что вызвало серьёзную критику в профессиональной среде.
Эксперты отмечают, что напряжение между разработчиками, отвечающими за безопасность, и руководством компаний усиливается на фоне технологической гонки и подготовки крупнейших игроков рынка к возможным выходам на биржу.
Подобные предупреждения звучат не впервые. Один из пионеров искусственного интеллекта Джеффри Хинтон ранее также покинул отрасль и заявил о рисках масштабных социальных изменений, включая угрозу потери доверия к информации в целом.
Сами технологические компании заявляют, что продолжают развивать системы контроля и готовы пересматривать решения при появлении новых данных.
Однако всё чаще вопросы о будущем искусственного интеллекта поднимают сами его создатели — и их заявления становятся всё более жёсткими.










