Вести еженедельник 7 Супер Секретов Mājas virtuve
LAT Чт, 23. Апреля Завтра: Georgs, Jurgis, Juris
Доступность

Робот-шизофреник? Может ли искусственный интеллект сойти с ума?

Пока Илон Маск и Билл Гейтс пугают нашествием роботов, которые отнимут у людей работу, а затем и вовсе выйдут из-под контроля, машинный разум все глубже проникает в нашу жизнь, но порой разработчики и сами не знают, чего от него ждать.

Проблема в том, что ученые создают нейронные сети, которые способны самообучаться и совершенствоваться без участия человека. Но кто сказал, что они будут совершенствоваться в нужном нам направлении? А точнее — в том направлении, которое является для нас моральным?

Вспомним, каких дров уже успел наломать искусственный интеллект, и разберемся, а не может ли он вообще сойти с ума...

Стал расистом за сутки

"Привееееет, мир!", «Люди — классные". Твиттер–бот Тау, запущенный компанией Microsoft, поначалу выглядел жизнерадостным филантропом. Эти две фразы — первое, что он написал в Сети. По задумке разработчиков, чат–бот должен был имитировать поведение обычных американских тинейджеров. В его лексикон заложили всякие сленговые словечки и сокращения.

Тау был способен обучаться и запоминать то, что пишут пользователи. Но, как известно, то, что пишут в соцсетях, зачастую несильно отличается от того, что малюют на заборах. Уже через несколько часов проект Тау был приостановлен, и Microsoft подвергла цензуре сообщения, оставленные ботом. Среди них оказались такие, как «Гитлер был прав", «Я ненавижу евреев» и «Я ненавижу этих чертовых феминисток, они все должны гореть в аду!". Еще в одном твите искусственный интеллект обвинил власти США в терактах 11 сентября. В тот же день с Тау было покончено.

- Несмотря на то что система была готова блокировать многие виды оскорблений, мы не предусмотрели одну из возможностей. Мы берем на себя ответственность за то, что не смогли спрогнозировать подобный исход, — заявил вице–президент Microsoft Research Питер Ли...

С расизмом и дискриминацией связана еще пара файлов из области «умных» технологий. Компания Amazon, известная любовью к передовым научным идеям, на протяжении трех лет тестировала проект по найму сотрудников на основе ИИ. Нейросеть обучалась навыку, анализируя предшествующий опыт отбора соискателей в Amazon. Приступив к работе, алгоритм стал занижать оценки кандидатов–женщин. Причина банальна: в штате компании преобладали мужчины, и компьютерный разум решил, что им и надо отдавать предпочтение.

А применение «умных» алгоритмов в рекламных инструментах Facebook привело к тому, что они автоматически сформировали адресное предложение для целевой аудитории, которая в приличном обществе считается нерукопожатной. Ведь объединяет этих людей не что иное, как антисемитизм. Удивительно, но искусственный интеллект нашел, что предложить ненавистникам евреев. И это явно не то, чего хотел бы создатель Facebook Марк Цукерберг...

А кто на фото?

Разумеется, сами разработчики ИИ говорят лишь об ошибках и временных сбоях в его работе. Как, например, произошло с российским Сбербанком, который внедряет машинные алгоритмы в своей системе, но те пока приносят убытки.

- Маленькая ошибка, закравшаяся в алгоритм, может приводить к большим последствиям. В нашей практике из–за того, что машина совершала ошибку, мы теряли миллиарды рублей, — признался руководитель российского Сбербанка Герман Греф.

Можно припомнить и нелепый случай в Китае, где система распознавания лиц записала в нарушители девушку, чье фото было размещено на автобусе в виде рекламного постера. ИИ решил, что она переходила улицу в неположенном месте (причем неоднократно), и завалил ее уведомлениями о штрафах...

Но это всего лишь забавное недоразумение, а вот ошибки «умных» алгоритмов в медицине имеют уже другую цену. В первую очередь это касается онкологических заболеваний. Компания IBM заявляла о небывалых способностях своего суперкомпьютера Watson. Но, как удалось узнать журналистам, при анализе опухолей Watson зачастую давал ошибочные, а иногда и опасные для жизни пациентов рекомендации!

Испытания некоторых видов искусственного интеллекта уже привели к человеческим жертвам. Речь о беспилотных автомобилях. Два дорожных инцидента со смертельным исходом были зафиксированы при тестировании автономной «Теслы". Еще один случай произошел при испытаниях беспилотника Uber в Аризоне — машина сбила насмерть женщину–пешехода.

Мало кто сомневается, что автомобили без водителей — это неизбежное будущее. Но, прежде чем оно наступит, инженерам предстоит решить многие важные вопросы, в том числе морально–этического характера. Кого сбивать, если нарушителей на дороге окажется несколько и нужно будет выбрать кого–то одного? Может ли машина съехать в кювет, чтобы не задавить пешехода, но тем самым подвергнуть риску пассажира? Наконец, не случится ли так, что робот–автомобиль, решив избежать столкновения с другим беспилотником (из соображений солидарности), пожертвует жизнью человека, того же пешехода?

Программисты могут сколько угодно уверять, что они все предусмотрели и код имеет несколько степеней защиты. Но понятия морали и нравственности, даже если заложить их в программу, в системе ценностей машинного разума могут оказаться более второстепенными, чем только ему понятный здравый смысл...

Цифровой психопат

Ученые из Техасского университета проводили опыты над нейронной сетью Discern. По их задумке, программа должна была изучать языки. Загрузив в нее множество данных, исследователи решили имитировать душевную болезнь, наделив искусственный интеллект шизофренией, то есть намеренно заставили его сойти с ума.

Не в силах совладать с анализом большого объема данных, Discern принялся говорить о себе в третьем лице и путать времена. Он смешивал в словесный винегрет обрывки фраз и слов, выдавал какие–то абсурдные сценарии. А потом вдруг заявил, что в здании заложена бомба и он приготовил ученым террористический акт. Уже не так смешно?

А в 2018 году группа исследователей из Массачусетского технологического института с нуля создала первого в мире ИИ–психопата. Назвали его Норманом — в честь героя хичкоковского триллера "Психо". А обучали на описаниях жутких сцен убийств, взятых из Интернета. После этого машинный разум уже не мог воспринимать мир привычным нам образом.

Он видел вокруг — в различных (вполне мирных) силуэтах и кляксах — исключительно сцены насилия. Например, как кого–то расстреливают из пулемета или выбрасывают из автомобиля. Ученые из Массачусетса пришли к выводу: при необходимости алгоритм можно запрограммировать на что угодно. Это как с воспитанием ребенка.

По мнению португальского эксперта но нейронауке Закари Мейнена, в будущем ИИ научится испытывать депрессию, галлюцинации и прочие эмоции, в том числе негативные — их будут вызывать цифровые аналоги нейромедиаторов. Подобными исследованиями сейчас занимается вычислительная психиатрия — новая наука в области искусственного интеллекта.

Ну а сценариев, как поведет себя сошедший с ума компьютер, – сколь угодно много. Он может направить авиалайнер на жилые кварталы. Может устроить взрыв на АЭС. А может создать дипфейк, который приведет к третьей мировой войне. Вы не знаете, что такое дипфейк? Так называют фальшивое видео откровенного содержания, где лица порноактеров заменены на лица знаменитостей. Исследования показали, что нейросети способны создавать такие подделки, выглядящие очень убедительно. И если в подобном фильме «сыграет» крупный политик, лидер ядерной державы, закончиться все может очень печально...

 

Дмитрий ПИСАРЕНКО.

Загрузка
Загрузка
Загрузка
Загрузка

Архитекторы-хипстеры калечат Ригу: начали с Гризинькалнса. Остановим?

"Новые изменения в Гризинькалнсе, конечно, вызывают удивление в плохом смысле: улица Варну перекрыта, людям затруднено попасть к своим домам, зато на улице Звайгзне появилась велодорожка, которая начинается из ниоткуда и ведет в никуда — ни на улице Пернавас, ни на улице Таллинас велодорожки нет, - пишет Линда Кленйбрга на Pietiek.com.

"Новые изменения в Гризинькалнсе, конечно, вызывают удивление в плохом смысле: улица Варну перекрыта, людям затруднено попасть к своим домам, зато на улице Звайгзне появилась велодорожка, которая начинается из ниоткуда и ведет в никуда — ни на улице Пернавас, ни на улице Таллинас велодорожки нет, - пишет Линда Кленйбрга на Pietiek.com.

Читать
Загрузка

Богатейшие страны 2026 года: малые государства вырываются вперед (СПИСОК)

Показатели «самых богатых стран» по ВВП могут вводить в заблуждение. Новый индекс процветания, учитывающий доходы, ВВП и качество жизни, не относит США, Германию и Францию к первой десятке.
Европа возглавляет мировые рейтинги богатства, но то, что на самом деле означает быть «богатой страной», во многом зависит от того, как измеряется процветание и кто именно получает от него выгоду.

Показатели «самых богатых стран» по ВВП могут вводить в заблуждение. Новый индекс процветания, учитывающий доходы, ВВП и качество жизни, не относит США, Германию и Францию к первой десятке.
Европа возглавляет мировые рейтинги богатства, но то, что на самом деле означает быть «богатой страной», во многом зависит от того, как измеряется процветание и кто именно получает от него выгоду.

Читать

Кулбергс о возможной нехватке топлива: «Может, продавать его по талонам, как в СССР?»

В Сейме ожидается бурная дискуссия о выплатах солидарности торговцам топливом. Депутат Сейма Андрис Кулбергс (Объединенный список) высказал в эфире телеканала TV24 мнение, что это будет означать «Добро пожаловать в СССР» или возвращение ко второй версии Советского Союза, пишет nra.lv/.

В Сейме ожидается бурная дискуссия о выплатах солидарности торговцам топливом. Депутат Сейма Андрис Кулбергс (Объединенный список) высказал в эфире телеканала TV24 мнение, что это будет означать «Добро пожаловать в СССР» или возвращение ко второй версии Советского Союза, пишет nra.lv/.

Читать

Подсматривал за женщиной в душе: шокирующий случай в лиепайском отеле

Государственная полиция оштрафовала мужчину на 350 евро за видеосъемку женщины в душевой комнате гостиницы при Лиепайской академии Рижского технического университета (РТУ).

Государственная полиция оштрафовала мужчину на 350 евро за видеосъемку женщины в душевой комнате гостиницы при Лиепайской академии Рижского технического университета (РТУ).

Читать

Шок в ванной: камера в геле для душа и годы тайной съёмки

История, которая звучит как сцена из триллера, оказалась реальностью. Мужчина годами снимал женщин скрытыми камерами, пряча устройства в самых обычных предметах — от ручек до зарядных устройств.

История, которая звучит как сцена из триллера, оказалась реальностью. Мужчина годами снимал женщин скрытыми камерами, пряча устройства в самых обычных предметах — от ручек до зарядных устройств.

Читать

Достаточно заблокировать выход из Балтики — и Россия сдуется: Лиепниекс

«Случай с Ормузским проливом, среди прочего, показывает, что нам, НАТО, странам Северной Европы, следует уделять больше внимания тому, что в кризисной ситуации мы легко можем полностью заблокировать экспорт российской нефти через порты Балтийского моря. А это более 40% (!) от всего общего экспорта российской нефти. И северные страны могут легко полностью это остановить", - такую точку зрения на «X» высказывает обозреватель Юргис Лиепниекс.

«Случай с Ормузским проливом, среди прочего, показывает, что нам, НАТО, странам Северной Европы, следует уделять больше внимания тому, что в кризисной ситуации мы легко можем полностью заблокировать экспорт российской нефти через порты Балтийского моря. А это более 40% (!) от всего общего экспорта российской нефти. И северные страны могут легко полностью это остановить", - такую точку зрения на «X» высказывает обозреватель Юргис Лиепниекс.

Читать

Китай впервые высказался об Ормузском проливе — это знак: Янис Кажоциньш

«Думаю, мы еще не до конца осознали масштабы удара, но это может быть самый сильный экономический удар за столетие. Потому что даже если нам удастся достичь какого-либо мирного соглашения между США и Ираном, а также между Израилем, Ливаном и Хезболлой, все равно не удастся восстановить поставки нефти, газа, гелия и различных удобрений странам, которые в них нуждаются в ближайшем будущем», — заявил телеканалу TV24 Янис Кажоциньш, старший научный сотрудник Центра геополитических исследований и бывший директор Бюро защиты Сатверсме (2003–2013), пишет nra.lv.

«Думаю, мы еще не до конца осознали масштабы удара, но это может быть самый сильный экономический удар за столетие. Потому что даже если нам удастся достичь какого-либо мирного соглашения между США и Ираном, а также между Израилем, Ливаном и Хезболлой, все равно не удастся восстановить поставки нефти, газа, гелия и различных удобрений странам, которые в них нуждаются в ближайшем будущем», — заявил телеканалу TV24 Янис Кажоциньш, старший научный сотрудник Центра геополитических исследований и бывший директор Бюро защиты Сатверсме (2003–2013), пишет nra.lv.

Читать