Присоединяйтесь к нашим группам

«Благодаря» пользователям искусственный интеллект Microsoft стал расистом

«Благодаря» пользователям искусственный интеллект Microsoft стал расистом
ТЕХНО – С помощью социальных сетей очень легко манипулировать людьми и информацией. Еще легче это сделать с помощью глупых машин. Таков печальный опыт компании Microsoft.
25 03 2016
16:08

Грегори Розьер.

В среду 23 марта компания запустила чат-бота по имени Тау, который основан на искусственном интеллекте и готов общаться со всеми желающими в Twitter, сообщает Pixels.

Подобные программы существуют уже давно. Способность машины ввести человека в заблуждение, чтобы он не понял, с кем общается в данный момент – с роботом или другим человеком – считается вершиной возможности ИИ (знаменитый тест Тьюринга).

В своей работе Тау использует уже готовые варианты ответов на стандартные вопросы, как и большинство чат-ботов. Она даже может обсудить национальный день щенков. Но при этом Тау еще и учится в реальном времени с помощью сообщений пользователей. «Чем больше вы с ней общаетесь, тем умнее и опытнее она становится», говорится на сайте Microsoft.

Расист, сексист и фанат Трампа

В этом ее самая большая сила и самая большая слабость. И если большинство из 96 000 тысяч сообщений в Twitter, отправленных за 24 часа (!) это легкие, ничего не значащие фразы, то некоторые из них откровенно расистские. Например, есть такие, в которых она восхищается Гитлером, критикует женщин или поддерживает противоречивые идеи Дональда Трампа.

Газета The Guardian выявила некоторые совершенно невероятные вещи. Если в большинстве случаев Tay лишь повторяет то, что сказал пользователь (обращаясь к нему  с просьбой повторить свое сообщение), то есть и вопиющие случаи.

Например, когда пользователь спросил, является ли Рики Джервейс атеистом, Tay ответила «Рики Джервейс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма».

Другие твиты, украшающие ее профиль, наполнены восхищением Дональдом Трампом или утверждениями, что феминизм это рак (в твитах, которые появились позднее, она наоборот феминизмом восхищается). Учиться на сообщениях пользователей Twitter это не самая лучшая идея. Довольно быстро сотни пользователей уже вовсю забавлялись, провозглашая расистские лозунги и задавая Tay вопросы-ловушки.

"Tay всего за сутки прошла путь от "люди очень классные" до 100% нацистских высказываний и «я вообще не беспокоюсь о будущем ИА".

В итоге в компании Microsoft решили отключить Tay, которая заявила, что «после стольких разговоров ей нужно выспаться». И хотя эксперимент с Tay носит прежде всего анекдотический характер, он заставляет задуматься.

Современные исследования в этой области используют прежде всего такие операционные принципы, как глубокое обучение, которые используют большое количество данных (изображения, слова, и т.д.) для того, чтобы программа могла создать новые модели мышления, основанные на уже созданных.

Но если примеры плохого качества, «воображение» робота может пойти не по той дороге. Держим пари, что исследователи позаботятся о том, чтобы отсортировать данные при создании ИИ, способного на большее, чем просто болтать в Twitter.


Источник: huffingtonpost.fr





Liderweb
Фредди Бонилья, секретарь безопасности Гражданской Авиации Колумбии, сообщил, что расследование аварии самолета, потерпевшего крушение у берегов Колумбии с восходящей бразильской футбольной командой "Шапекоэнсе" (Chapecoense), считает, что в момент крушения в воздушном судне закончилось топливо.
02:30 | 02.12.2016
close Не показывать больше
Теперь читать новости на мобильном телефоне стало ещё удобнее
Скачай новое приложение obzor.press и всегда будь в курсе последних событий!