"Роботы-убийцы". Учёные предупреждают об опасности

Похоже на кошмар из серии научной фантастики. Однако видный британский учёный Стивен Хокинг и соучредитель Apple Стивен Возняк обеспокоены происходящим. Они предупреждают общественность: "роботы-убийцы" спровоцируют новую гонку вооружений и могут быть использованы для проведения этнических чисток.

"Роботы-убийцы". Учёные предупреждают об опасности

В 2013 году в Лондоне стартовала кампания, цель которой - остановить разработку "роботов-убийц"

 

Искусственный интеллект, управляющий автономным оружием, способный самостоятельно выбирать цель без вмешательства человека, по сути "является третьей революцией в области вооружений после огнестрельного и ядерного оружия" - так сказано в открытом письме, под которым подписались около 1000 ведущих специалистов в области технологий. В отличие от беспилотников, которые требуют человеческого управления, этот вид роботов будет независим в принятии решений и их осуществлении. "Сегодня человечество должно дать ответ на решающий вопрос: начинать ли широкомасштабную разработку оружия, оснащенного искусственным интеллектом?"

 

"Если какая-либо крупная военная держава прорвётся в области таких разработок, то мировая гонка вооружений практически неизбежна" - говорится в письме на церемонии открытия 2015 International Joint Conference on Artificial Intelligence ("Международная конференция по искусственному интеллекту 2015") в Буэнос-Айресе.

 

Как утверждают учёные, идея автоматической машины для убийства (воплощённая в образе терминатора Арнольда Шварцнегера) в скором времени станет реальностью.

 

"Развитие таких систем станет возможным в течение нескольких лет, если не запретить их на законодательном уровне" - говорится в письме.

Этнические чистки

 

Учёные расписали сценарий конца света в том случае, если автономное оружие попадёт в руки террористов, диктаторов или ярых милитаристов, стремящихся провести этнические чистки.

 

"Не обязательно создавать новые орудия для убийства людей. Есть много других способов мирного применения ИИ, например, для повышения безопасности гражданского населения во время военных действий".

"Роботы-убийцы". Учёные предупреждают об опасности

"Терминатор" воплотил на экране представление о "роботах-убийцах" и искусственном интеллекте, которые могут привести к концу человечества

 

Кроме того, разработка и применение такого оружия, потенциально уменьшая масштаб военных потерь, всё же может привести к упрощению развязывания новой войны - считают учёные.

 

Авторы письма обратились с призывом "запретить наступательное автономное оружие, неподконтрольное человеку".

 

Элон Маск, соучредитель PayPal и глава SpaceX, частного космического транспортного агентства, также призвал общественность присоединиться к кампании. "Если Вы против разработки искусственного интеллекта в военных целях, подпишите это открытое письмо", написал он в своём Twitter.

Настолько велика угроза исходящая от "роботов-убийц"?

 

Австралиец Тоби Уолш, однако, не так обеспокоен по этому поводу. Профессор, занимающийся исследованиями ИИ в NICTA и Университете штата Новый Южный Уэльс, отметил, что ВСЕ технологии могут быть использованы как во благо, так и во вред человечеству.

 

Рикардо Родригез, исследователь ИИ в Университете Буэнос-Айреса, также полагает, что опасения преувеличены.

"Роботы-убийцы". Учёные предупреждают об опасности

Британский учёный Стивен Хокинг ранее уже предупреждал, что ИИ - угроза для всего человечества

 

"С изобретением роботов, мы вплотную приблизились к апокалипсису. В конце концов, ИИ будет конкурировать с человеческим" - заявил учёный.  "Но пока что мы далеки от создания военных «роботов-убийц»". 

Власти постепенно начинают осознавать опасность ведения войн с использованием робототехники. Впервые за всё время, в мае прошлого года правительство начало переговоры по так называемым "автономным смертоносным системам вооружения".

 

"Роботы-убийцы". Учёные предупреждают об опасности

Робот-часовой направил пулемёт на предполагаемого врага в ходе испытаний в Чхонан, Южная Корея в 2006 году

Еще в 2012 году Вашингтон потребовал, чтобы любое автономное оружие находилось под контролем человека как минимум в течение ближайших 10 лет. Разработка некоторых видов оружия была прекращена еще на начальной стадии.

A PHP Error was encountered

Severity: Notice

Message: Undefined offset: 2

Filename: main/v_footer.php

Line Number: 25

Backtrace:

File: /home/infoption.ru/www/infoption.ru/application/views/main/v_footer.php
Line: 25
Function: _error_handler

File: /home/infoption.ru/www/infoption.ru/application/controllers/Base.php
Line: 38
Function: view

File: /home/infoption.ru/www/infoption.ru/application/controllers/Blog.php
Line: 229
Function: render_single

File: /home/infoption.ru/www/infoption.ru/index.php
Line: 300
Function: require_once