Роботы не смогут сами убивать людей

Роботы не смогут сами убивать людей

Американская армия, которая скоро вооружается самыми передовыми боевыми роботами, объявила, что любой раз, в то время, когда робот будет убивать людей, ответ на открытие огня будет приниматься вторым человеком.

В соответствии с заявлению Пентагона, американцы несобираются отправлять в бой всецело автоматические военные машины, каковые самостоятельно будут решать: жить том либо иному человеку либо умирать.

Бессчётные организации по защите прав человека и отдельные граждане опасаются, что технический прогресс в области робототехники приведет к тому, что бездушные автомобили станут главным инструментом войны. Это поспособствует легкому развязыванию распрей и приведет к громадным людским жертвам.

К счастью, по крайней мере, публично Пентагон одумался, и 21 ноября помощник военного министра Эштон Картер подписал последовательность руководств по минимизации последствий и вероятности сбоев в работе независимых либо полуавтономных вооруженных роботов, каковые имели возможность бы привести к непредвиденным последствиям.

В данном документе четко прописано, что ответ о применении оружия должно приниматься лишь человеком и ни за что не самой машиной. Помимо этого, аппаратное и ПО, важное за управление смертоносным роботом, должно быть максимально защищено от вмешательства и сбоёв посторонних.

Чтобы получить разрешение открыть огонь, все автоматизированные роботы должны будут мочь обратиться к оператору либо собственному начальнику-человеку. Кроме этого начальник должен иметь возможность в любую секунду миссии вмешаться в действия робота.

В случае если какие-либо указанные выше требования не будут выполнены разработчиками роботов, то Пентагон не будет их брать и применять.

Новая военная инструкция была символично подписана перед американским праздником, Днем благодарения, в то время, когда американский президент милует парочку индеек. Получается, что Пентагон сделал куда более широкий жест и помиловал людей, каковые имели возможность бы стать беспомощными индейками для боевых роботов.

К сожалению, тем, кто опасается машин-убийц, рано радоваться. Пентагон – это далеко не единственная организация, которая закупает и применяет боевых роботов.

К примеру ЦРУ деятельно использует беспилотники для уничтожения террористов и точка зрения данной американской разведслужбы обычно резко отличается от подхода армейских.

Помимо этого, кое-какие БПЛА, такие как X-47B сравнительно не так давно прибывший на авианосец USS Harry S. Truman, смогут уничтожать заблаговременно запрограммированные цели. Показались ли за время подлета в районе этих целей мирные обитатели, роботов, конечно, очень не заботит.

Кроме этого, последние изучения американских экспертов показывают на то, что операторы БПЛА, измученные многочасовым наблюдением за мониторами, совершают большое количество неточностей и время от времени стреляют куда ни попадя. Так что нельзя исключать, что массовое применение всецело автоматических боевых автомобилей, принесет меньше бед мирному населению, чем тысячи операторов, каковые через чур довольно часто ошибаются.

Вероятнее, ответ о наделении роботов смертельными полномочиями все же будет в будущем принято. Хотя бы по той несложной причине, что автомобили создают огромное количество информации.

Перспективные БПЛА, за мгновение ока охватывающие взором более 90 кв. км поверхности, будут снимать неспециализированной протяженностью около 80 лет ежедневно. Дабы просмотреть всю эти сведенья, потребуются десятки тысяч операторов, трудящихся целыми сутками.

Вряд ли армейские отыщут пара миллионов операторов для всей киберармии, и уж тем более не откажутся от ее создания. Так что из года в год компьютеры будут брать на себя все больше боевых задач, а принятие ответа на открытие огня совсем не так долго осталось ждать станет формальностью, основанной на выводах машинной логики.

Восстание автомобилей: Робот убил человека на автозаводе в Германии


Читать также:

Читайте также: