Присоединяйтесь к нашим группам

Остановить роботов-убийц: активисты предупреждают ООН о реальности опасности в ближайшие годы

Остановить роботов-убийц: активисты предупреждают ООН о реальности опасности в ближайшие годы
Специалисты по искусственному интеллекту бьют тревогу, указывая на надвигающуюся угрозу непредсказуемого использования технологий и высказывая опасения в том, что технологии могут «провоцировать войны и вооруженные столкновения».
21 10 2015
16:14

АланЮхас, репортер «Guardian US».

Эксперты в области «искусственного разума», юристы и активисты, будучи организаторами «Движения за запрет роботов-убийц», собрались в штаб-квартире ООН во вторник с целью предупредить об опасности растущего использования дешевых дронов и «глупых искусственных мозгов», чье поведение в реальном мире может быть непредсказуемым.

«Терминатор обязательно придет, - сказал во вторник репортерам  Тоби Уолш, профессор по искусственному  интеллекту Университета Нового Южного Уэльса, вспомнив фантастического киборга, выполнявшего миссию по уничтожению человечества. – Но это не тот Терминатор, о котором мы беспокоимся сейчас. Я думаю, «наш» Терминатор может появиться в ближайшие 50 лет».

Но в отношении технологий, которые грядут «уже в ближайшие годы», по словам Уолша, при все возрастающем использовании полуавтономных систем, подобных дронам, «пройдет совсем немного времени – и участие человека в этой цепи будет вытеснено участием компьютера».

Уолш и другие участники движения нарисовали мрачную картину разгула неконтролируемого искусственного разума, властвующего над полями сражений и национальными границами. В отличие от элементов и компонентов, необходимых для создания ядерного оружия, ресурсы для создания «роботов-убийц» со временем будут становиться все дешевле и все доступнее. Из дрона, которого можно купить в онлайн, смартфона и правильно подобранного программного обеспечения любой человек может собрать «небольшого робота-убийцу», если верить Уолшу.

«Если мы не разработаем правила и нормы сейчас, то все закончится гонкой роботовооружений»

С учетом растущей доступности робототехники и уровня развития искусственного интеллекта в США и Великобритании, специалисты предупреждают о том, что «роботы-убийцы» могут получить такое же распространение, как и автоматы Калашникова (в отличие от ядерных бомб).

«Вскоре их можно будет увидеть в патрульных службах на улицах городов и на участках границ, в отрядах спецназа, а не только в вооруженных конфликтах, - заявил корреспонденту «Guardian» директор  отдела вооружений «Human Rights Watch»  Стив Гуз. – Физические платформы уже разработаны. И это не научная фантастика – это полностью новый путь ведения боевых действий, который совершит революцию в данной области».

«Если мы не разработаем [правила и нормы] сейчас, то все закончится гонкой роботовооружений, - говорит Уолш, – и результатом этой новой гонки вооружений станет мир, в котором вряд ли кто-то захочет жить».

Профессор нью-йоркской «Нью Скул» Питер Асаро отмечает, что без человеческого вмешательства и контроля машины не смогут принимать во внимание непредвиденные обстоятельства и контекст войны: «Каким будет контекст, какой будет ситуация, будет ли применение силы оправданно в данном контексте и в достижении данной цели – вы сможете автоматизировать этот процесс, но сможете ли вы сделать это идеально, и кто будет нести ответственность, если система сработает некорректно?».

“Все это будет провоцировать на начало боевых действий и войн, на применение силы, - говорит Уолш. – Это будет слишком просто, мы будем думать, что все войны можно будет вести стерильно, но, как мы уже убедились на примере с дронами, это самообман, потому что мы не в состоянии разработать технически функции для распознавания мирного гражданина и участника боевых действий».

«Если заменить человека роботом, то ошибок станет гораздо больше»

Даже при участии человека, сидящего за панелью управления, полуавтономные системы с искусственным интеллектом допускают неисправимые ошибки. В первой войне в Персидском заливе ракеты «Пэтриот» поразили американский и британский самолеты. По данным недавно опубликованных секретных материалов по американской программе дронов, было документально зафиксировано значительное количество смертей при их испытаниях с конкретными описаниями, кто и при каких обстоятельствах погиб.

“Исходя из технологической перспективы: если заменить человека роботом, то ошибок станет гораздо больше», - сказал Уолш. Позднее он сообщил корреспонденту «Guardian», что, несмотря на успешное функционирование систем искусственного интеллекта в контролируемой среде (на производстве, в лабораториях), «наши глупые искусственные мозги не настолько совершенны, как человеческий мозг» для выработки правильной реакции на события, происходящие в непредсказуемом реальном мире – и меньше всего на арене ведения боевых действий.

Профессор этики и законности Университета Оттавы Йан Керр сравнил решение о предоставлении искусственному интеллекту функции выбора и поражения целей с «разновидностью русской рулетки», добавив, что подобные действия заставят «нас перейти ту моральную границу, которую мы до сих пор не осмеливались перейти».

Организаторы движения настаивают на том, что они не нагнетают страсти и не преувеличивают опасность, и отстаивают право называть роботов «убийцами», утверждая, что опасность вполне реальная и подобное название может сослужить всем хорошую службу в сегодняшнем устоявшемся мире дипломатов, комитетов и переговоров.

Гуз заметил, что Афганистан и Пакистан, в которых сотни людей (многие их них мирные жители) погибли при нападениях дронов за прошедшее десятилетие, могут служить красноречивым примером того, к чему привели трехлетние усилия по их разработке.

США, Великобритания, Израиль и Южная Корея ведут себя относительно тихо в данном вопросе: все они разрабатывают продвинутые программы по развитию искусственного интеллекта, а также находятся в лидерах по расходам на свои вооруженные силы. США и Великобритания даже разработали правила по применению искусственного интеллекта в военных целях, однако активисты, требующие от ООН организовать переговоры по «вменяемому человеческому контролю», утверждают, что эти правила слишком неоднозначные.

«Если продолжать чего-то ждать, то технологическое развитие очень быстро заменит дипломатию»

Управляющий партнер британской общественной организации «Article 36» Ричард Мойес заявляет, что хотя его страна и пообещала, что все будет «под человеческим контролем», однако не совсем понятно, кто имеется в виду: непосредственный оператор, наблюдатель, тот, кто активирует искусственный интеллект или кто-то еще.

Точно также политика Пентагона состоит в постоянном упоминании «надлежащего» уровня человеческого контроля; однако представитель пресс-службы не смог дать ответ на вопрос о разъяснении термина. И хотя в 2012 году Пентагон принял десятилетний план, не предусматривающий использование полностью автономных систем искусственного интеллекта, у его руководства есть возможность пересмотреть его положения, а сам запрет не касается лабораторных и исследовательских операций.

«В ООН Израиль и США высказались за то, чтобы «держать вопрос открытым», - сказал Гуз, а Россия и Китай молча наблюдали за переговорами, хотя известно, что они тоже разрабатывают собственные программы. «Никто не хочет сознаваться», - добавил он.

Если ООН назначит переговоры по данному вопросу на 13 ноября, Гуз заявил, что займется формированием организованной оппозиции. Как минимум, он ожидает того, что никто из стран не заблокирует возобновление неформальных переговоров, и сказал, что надеется на достижение результатов, и чем раньше – тем лучше.

«Если продолжать чего-то ждать, то технологическое развитие очень быстро заменит дипломатию», - сказал Гуз.


Источник: theguardian.com





Liderweb
Фредди Бонилья, секретарь безопасности Гражданской Авиации Колумбии, сообщил, что расследование аварии самолета, потерпевшего крушение у берегов Колумбии с восходящей бразильской футбольной командой "Шапекоэнсе" (Chapecoense), считает, что в момент крушения в воздушном судне закончилось топливо.
02:30 | 02.12.2016
close Не показывать больше
Теперь читать новости на мобильном телефоне стало ещё удобнее
Скачай новое приложение obzor.press и всегда будь в курсе последних событий!