Вести еженедельник 7 Супер Секретов Mājas virtuve
LAT Пн, 4. Мая Завтра: Vijolite, Viola, Vizbulite
Доступность

Американским военным роботам «прошьют» нормы морали, чтобы они не были убийцами типа Терминатора

70 лет назад писатель-фантаст Айзек Азимов сформулировал три закона робототехники, которые являются своего рода "моральным компасом", направляющим действия высокоразвитого искусственного интеллекта (ИИ). Однако до сих пор уровень развития современных технологий ИИ не позволяет робототехническим системам воспринимать полную информацию об окружающей их среде, и до появления первых роботов, способных осознавать и руководствоваться законами Азимова, похоже, пройдет еще очень много времени. Между тем, как сообщает Defense Оne, исследовательское подразделение ВМС США попробует ускорить этот процесс, выдав пятилетний грант на 7,5 млн долларов ученым из ряда университетов, которые будут заниматься решением данной проблемы. Об этом пишет Newsru.com. Например, исследователи из Университета Тафтса, возглавляемые профессором Мэттиасом Шюцем, занимаются проблемами робототехнической морали и этики уже достаточно давно, пишет DailyTechInfo. Они пытаются разложить принципы человеческой морали на набор более простых основных правил, соблюдение которых позволит роботам подражать поведению высокоморального человека. Разрабатываемая учеными система правил формализуется в структуру алгоритмов, которые могут быть включены в систему ИИ. Внедрение этих алгоритмов позволит автоматической системе оправдывать свои действия и обходить набор четких правил в тех случаях, если поведение системы может выйти за рамки общепринятых моральных норм. Примером может послужить следующая ситуация. Допустим, роботу-санитару поручено доставить раненого бойца к ближайшему медицинскому пункту для оказания ему там помощи. Но в момент транспортировки раненого на пути робота встречается еще один раненый человек, находящийся в критической ситуации. "Моральный компас" позволит роботу прервать выполнение текущего основного задания, оценить имеющуюся ситуацию и принять решение о немедленном оказании помощи найденному человеку или о продолжении выполнения первоначальной задачи по транспортировке первого человека. Двухступенчатый заслон от ротобов-убийц Одной из главных мыслей, которые можно почерпнуть из романов Айзека Азимова, является то, что никакой, пусть даже очень обширный набор четких правил, не сможет обеспечить правильную работу робототехнической системы в каждом из возможных сценариев развития событий. В любой цепочке событий рано или поздно произойдет неожиданное отклонение, которое введет робототехническую систему в ступор и послужит причиной совершения роботом "необдуманных" действий. Профессор Шюц и его коллеги полностью соглашаются с этим постулатом, и для преодоления ограничений ими была разработана двухступенчатая система принятия решений. С точки зрения исследователей, все решения, принятые системой робота, должны проходить предварительную "моральную оценку", реализацию которой уже можно видеть в системе искусственного интеллекта суперкомпьютера Watson компании IBM. Если принятое решение удовлетворяет моральным нормам, то оно принимается к исполнению. В обратном случае вырабатывается еще одно решение, источником которого является система, разработанная группой профессора Шюца, которая учитывает сложности человеческой этики. Так как работы исследователей в данном направлении проводятся по заказу и финансируются армией США, первые роботы, которые получат наборы моральных правил и ограничений, будут боевыми роботами, а также оказывающими солдатам всевозможную помощь. И это, в свою очередь, сможет послужить гарантией того, что сценарии наподобие сюжета фильма "Терминатор" станут попросту невозможными, отмечает DailyTechInfo. В Женеве проходит конференция ООН по теме использования роботов-убийц В Женеве открылась первая в истории экспертная конференция, посвященная теме использования боевых автономных роботизированных систем. Четырехдневный форум, проводящийся под эгидой ООН, проходит с 13 по 16 мая в рамках Конвенции о "негуманном" оружии с участием делегаций 117 стран - участниц конвенции. Делегаты конференции попытаются разобраться в том, насколько опасно может быть для человека массовое введение в эксплуатацию роботов-убийц, самостоятельно принимающих решения об уничтожении целей, передает ИТАР-ТАСС. "Роботы-убийцы представляют угрозу основным положениям международного гуманитарного права", - сообщил журналистам директор отдела вооружений правозащитной организации Human Rights Watch Стив Гуз. По его словам, "как при полицейской операции, так и на войне чрезвычайно важно, чтобы человек принимал решение, когда применять оружие", - заметил Гуз. По различным оценкам, Соединенные Штаты - лидер в этой области - уже сегодня используют в военных целях около 11 тысяч беспилотных летательных аппаратов и более 12 тысяч наземных роботов. По словам принимающего участие в дискуссиях британского ученого, профессора Шеффилдского университета Ноэля Шарки, разработки в этой сфере ведутся также в Китае, Израиле, Тайване, России, Южной Корее, Великобритании. "Полностью автономное оружие непредсказуемо, и в этом заключается проблема", - сообщил журналистам Шарки. Он подчеркнул, что речь не идет о том, чтобы запретить автономных роботов. "Мы не хотим лишь одного - чтобы у них была функция убийства", - подчеркнул эксперт, по словам которого уровень развития техники на настоящий момент не делает такое автономное оружие безопасным. По оценкам маркетинговой компании Global Industry Analysts, к 2018 году мировые расходы на производство военной робототехники увеличатся до 7,5 млрд долларов по сравнению с 5,6 млрд долларов в 2012 году.
Загрузка
Загрузка
Загрузка

Альтернативный план обороны: начались военные учения „Твердыня Пяркунаса» в Литве

В понедельник в Литве начались одни из главных военных учений „Твердыня Пяркунаса 2026“, направленные на совершенствование планирования оперативного уровня, процедур управления войсками и укрепление сотрудничества с союзниками по НАТО.

В понедельник в Литве начались одни из главных военных учений „Твердыня Пяркунаса 2026“, направленные на совершенствование планирования оперативного уровня, процедур управления войсками и укрепление сотрудничества с союзниками по НАТО.

Читать
Загрузка

Новое дерево на месте срубленного: Юрмала не поддержала идею «Сажать, а не рубить!»

Юрмальская дума на прошлой неделе не поддержала инициативу о высадке новых деревьев в городе вместо каждого срубленного.

Юрмальская дума на прошлой неделе не поддержала инициативу о высадке новых деревьев в городе вместо каждого срубленного.

Читать

Историческое здание сносят, построят очередной «шедевр»: жители Лиепаи возмущены (ВИДЕО)

В Лиепае начались работы по сносу здания — на месте бывшего Лиепайского молочного комбината на улице Jaunā Ostmala, вероятно, появится новый ресторан быстрого питания «McDonald’s», сообщает портал "liepajniekiem.lv".

В Лиепае начались работы по сносу здания — на месте бывшего Лиепайского молочного комбината на улице Jaunā Ostmala, вероятно, появится новый ресторан быстрого питания «McDonald’s», сообщает портал "liepajniekiem.lv".

Читать

Оскар: объявлены новые правила. ИИ-актёры и сценарии не получат наград

Киноакадемия обновила правила использования ИИ: теперь все сценарии обязаны быть написаны людьми. А вот формулировки, касающиеся актёрской игры, куда менее однозначны... Американская академия кинематографических искусств и наук впервые официально отреагировала на использование искусственного интеллекта в актерской игре и сценариях в контексте «Оскара»-2027.

Киноакадемия обновила правила использования ИИ: теперь все сценарии обязаны быть написаны людьми. А вот формулировки, касающиеся актёрской игры, куда менее однозначны... Американская академия кинематографических искусств и наук впервые официально отреагировала на использование искусственного интеллекта в актерской игре и сценариях в контексте «Оскара»-2027.

Читать

«Это не подарок»: Силиня обратилась к нации в День восстановления независимости

Латвия сильна, когда мы едины, заявила премьер-министр Эвика Силиня (JV), поздравляя жителей с 36-й годовщиной восстановления независимости страны.

Латвия сильна, когда мы едины, заявила премьер-министр Эвика Силиня (JV), поздравляя жителей с 36-й годовщиной восстановления независимости страны.

Читать

Суровая реальность: рабочая сила в Латвии стремительно исчезает

Как отмечает Латвийская торгово-промышленная палата (LTRK), свежее исследование демографических процессов центра LaSER указывает на суровую реальность: в течение ближайших 15 лет Латвия может лишиться примерно пятой части рабочей силы. Это означает, что бизнесу придется развиваться при меньшем числе работников, а уровень знаний и компетенций сотрудников становится не просто преимуществом, а ключевым условием конкурентоспособности.

Как отмечает Латвийская торгово-промышленная палата (LTRK), свежее исследование демографических процессов центра LaSER указывает на суровую реальность: в течение ближайших 15 лет Латвия может лишиться примерно пятой части рабочей силы. Это означает, что бизнесу придется развиваться при меньшем числе работников, а уровень знаний и компетенций сотрудников становится не просто преимуществом, а ключевым условием конкурентоспособности.

Читать

«Делают матрицы судьбы!» От безысходности пойдем в продавцы надежды?

Сегодня всё больше людей говорят о том, что их доходов не хватает даже на базовые расходы, не говоря уже о комфортной жизни. Цены растут, появляются новые финансовые тревоги — например, уже сейчас советуют откладывать деньги на следующий отопительный сезон. В результате многие задумываются о смене работы, поиске подработки или даже полном переходе в другую сферу.

Сегодня всё больше людей говорят о том, что их доходов не хватает даже на базовые расходы, не говоря уже о комфортной жизни. Цены растут, появляются новые финансовые тревоги — например, уже сейчас советуют откладывать деньги на следующий отопительный сезон. В результате многие задумываются о смене работы, поиске подработки или даже полном переходе в другую сферу.

Читать