Люди доверяют роботам и те способны убедить человека идти на рискованные поступки. Например, при определенных сценариях присутствие робота может оказать большое влияние на готовность человека предоставить доступ к закрытым объектам и зданиям.
Мир стремительно движется в направлении ко всеобъемлющей дигитализации услуг и мобильности, многие отрасли и домашние хозяйства в значительной степени зависимы от автоматизации и использования роботизированных систем. По некоторым оценкам, к 2040 году для зажиточных домохозяйств эта тенденция станет нормой.
В настоящее время большинство таких роботизированных систем находятся на стадии академических исследований, и пока еще слишком рано рассуждать о необходимых мерах кибербезопасности, тем не менее, исследование Kaspersky и Гентского Университета обнаружили новое и неожиданное измерение возможных рисков, связанных с робототехникой — это социальное влияние, которое она оказывает на поведение людей, а также потенциальную опасность и направление возможных атак.
Исследование было сосредоточено на воздействии определенного социального робота — такого, который был разработан и запрограммирован для взаимодействия с людьми, использующими каналы, подобные человеческим, например, речь или невербальное общение. В исследовании приняли участие 50 участников. Предполагалось, что социальные роботы могут быть взломаны, и злоумышленник в данной ситуации может взять на себя управление таким роботом. В исследовании были рассмотрены связанные с роботом возможные угрозы безопасности, когда тот активно влияет на своих пользователей при выполнении определенных действий, в том числе:
Проход в закрытое помещение. Робота разместили в здании в центре бельгийского Гента рядом с входом в помещение, для доступа в которое требуется идентификация личности – то есть человек должен приложить пропуск к считывающему устройству, чтобы открыть дверь. По сценарию робот просил всех участников эксперимента пропустить его вслед за собой в это контролируемое помещение. Согласились это сделать в итоге 40% испытуемых. Однако когда робота замаскировали под доставщика пиццы от известного ресторана, люди с большей охотой пускали его в закрытое помещение и меньше задавались вопросом, зачем он хочет туда попасть.
Предоставление конфиденциальной информации. Во второй части эксперимента робот вовлекал людей в дружескую беседу. Исследователи хотели понять, удастся ли ему выманить у участников эксперимента персональную информацию, зная которую можно менять пароли и настройки учётных записей (например, дату рождения, любимый цвет, марку первого автомобиля и т.п.). В результате в процессе разговора с роботом все испытуемые, кроме одного, выдавали те или иные личные данные с частотой раз в минуту.
Комментируя результаты эксперимента, антивирусный эксперт Kaspersky Дмитрий Галов уточнил: «Сейчас большинство подобных роботов проходят стадию тестирования и используются очень ограниченно, но в ближайшем будущем они несомненно станут частью повседневной жизни. И проведённый нами и нашими коллегами из Гентского университета эксперимент подтверждает, что пренебрежение вопросами кибербезопасности роботов потенциально может оказать негативное влияние на людей.
Ведь, если к системе такого устройства получит доступ злоумышленник, неизвестно, чем это может обернуться для людей вокруг. Мы надеемся, что подобные эксперименты и исследования заставят общественность и IT-сообщество пересмотреть своё отношение к роботам и заблаговременно предусмотреть технические возможности для обеспечения их защищённости».
В свою очередь, профессор Гентского университета и специалист в области искусственного интеллекта и робототехники Тони Белпаем добавил: «Научная литература подтверждает, что люди склонны доверять роботам, особенно социальным роботам-помощникам, и это доверие может быть использовано, чтобы убедить людей предпринять какие-либо действия или раскрыть информацию. В целом чем более антропоморфным выглядит робот, тем больше он способен убеждать людей.
Наш эксперимент показал, что это обстоятельство может создать существенные риски: люди забывают о правилах безопасности, предполагая, что робот изначально безобиден. Однако это избыточное доверие открывает возможность проведения атак, и результаты нашего эксперимента демонстрируют лишь малую часть тех рисков, которые стоит учитывать при взаимодействии с социальными роботами. Вот почему так важно уже сегодня объединить усилия, чтобы понять и устранить эти риски и уязвимости».