Это здорово, но, создавая такие инновации, мы должны помнить, что искусственный интеллект может нарушать основные права, в том числе дискриминировать людей, если не будет соблюден ряд условий. Например, используемые данные должны быть высокого качества и заслуживать доверия, люди должны четко осознавать, что они находятся в контакте с системой ИИ, где бы она ни использовалась, и она должна быть такой, чтобы человек мог в любой момент взять ее под контроль, – полагает Бюро омбудсмена, заказавшее проведение исследования Ирене Баркане, научному сотруднику Латвийского университета.
В исследовании «Системы ИИ и аспекты дискриминации» анализируется, как системы ИИ уже нарушают основные права человека в таких областях, как трудоустройство, образование, биометрическая идентификация и доступ к базовым услугам. Это четыре из восьми областей повышенного риска, определенных новым Постановлением ЕС об искусственном интеллекте.
Международная практика показывает, что ИИ может дискриминировать людей
Вот несколько показательных примеров из международной практики:
В Нидерландах система выявления системных рисков для борьбы с мошенничеством ошибочно обвинила около 26 000 родителей в мошенничестве при оформлении пособий по уходу за ребенком. Некоторым родителям приостановили выплату пособий, а других попросили вернуть деньги. Во многих случаях сумма составляла десятки тысяч евро, что создавало для семей значительные финансовые трудности. В данном случае система искусственного интеллекта допустила ошибку при оценке аспекта двойного гражданства. Суд установил, что имело место нарушение, и в 2021 году скандал с выплатой пособий заставил правительство Нидерландов уйти в отставку.
В США алгоритм подбора персонала онлайн-ритейлера Amazon считал мужчин лучшими кандидатами и отклонял резюме, в которых фигурировало слово «женщина». В результате Amazon отказался от своего инструмента подбора персонала с помощью ИИ.
Исследование Стэнфордского университета, проведенное в прошлом году, показало, что детекторы Chat GPT классифицируют текст, написанный не носителями английского языка, как созданный искусственным интеллектом. На самом деле это не так – у этих людей ограниченный словарный запас и грамматика по объективным причинам. Из-за ошибок ИИ они могут столкнуться с необоснованными обвинениями в мошенничестве или плагиате в академической и профессиональной среде.
Что должно измениться, чтобы ИИ стал другом, а не угрозой?
Во-первых, необходимо обратить внимание на качество данных и управление ими. Если система ИИ не была «обучена» на высококачественных данных, точна и протестирована перед «выходом на рынок», велика вероятность того, что она будет дискриминировать людей.
Во-вторых, системы ИИ должны быть разработаны таким образом, чтобы людям было абсолютно ясно, что они взаимодействуют с системой ИИ, а не, например, с сотрудником какого-либо учреждения. Люди также должны быть проинформированы о своих правах.
В-третьих, эти системы должны быть способны работать таким образом, чтобы их мог должным образом контролировать и направлять человек.
В-четвертых, речь также идет о подотчетности и мониторинге. Это означает, что системы ИИ с высоким уровнем риска должны иметь тщательно разработанные процедуры оценки качества данных, документации, человеческого надзора, точности, кибербезопасности и т. д. Например, в области биометрии такая проверка должна осуществляться третьей стороной.
«Несомненно, системы ИИ могут быть другом и помощником. Однако исследование показывает, какими могут быть последствия, если система ошибается. Если ошибка человека причиняет вред другому (конкретному) человеку, то ошибка, допущенная системой ИИ, автоматически приписывается той группе общества, которая соответствует критериям, установленным системой ИИ. Таким образом, последствия оказываются гораздо шире.
Я надеюсь, что призыв политиков к тому, чтобы Латвия могла создавать системы искусственного интеллекта мирового класса, сбудется и в том смысле, что соблюдение основных прав станет в них приоритетом», - сказала Анете Ильвес, руководитель Отдела по борьбе с дискриминацией Бюро омбудсмена.
Для справки
Летом этого года в Европейском союзе вступило в силу постановление Европейского парламента и Совета (Регула 2), устанавливающее новые стандарты в области ИИ. Через два года, то есть со 2 августа 2026 года, оно начнет действовать непосредственно во всех странах-членах ЕС, включая Латвию (за исключением некоторых положений, которые будут применяться раньше).