Присоединяйтесь к нашим группам

Искусственный интеллект: как избежать расистских алгоритмов

Искусственный интеллект: как избежать расистских алгоритмов
Стандартные алгоритмы определяют в нашей жизни очень многое — от того, что мы видим при поиске в интернете, до того, насколько велики наши шансы стать жертвой или зачинщиком преступления. Однако в последнее время все больше опасений возникает по поводу того, что алгоритмы эти нередко могут давать сбой, так как разрабатывались они по упрощенной схеме, а значит, не учитывают и не принимают в расчет целые группы людей — по самым разнообразным признакам.
15 04 2017
06:04

В результате это может привести к тому, что принятые за нас решения будут, пусть и непредумышленно, но предвзятыми.

Попробуйте найти в любом поисковике картинки по ключевым словам "руки" или "младенцы" - и в подавляющем большинстве случаев вам покажут изображения рук белых людей и белых же младенцев.

В 2015 году графический дизайнер Йоханна Бурай создала проект под названием World White Web project. Сделала она это после того, как обнаружила, что на её запрос "руки" Google выдавал исключительно изображения рук белых людей.

Её сайт предлагает альтернативные изображения рук, которые могут быть использованы при создании онлайн-контента, чтобы таким образом восстановить баланс и быть учтенными поисковиком.

Представители Google говорят, что результаты поиска в их поисковике "отражают содержимое всей сети, включая частоту, с которой появляются определенные типы изображений, и описания этих картинок онлайн", и никак не связаны с ценностями компании.

Бурай, которая больше не обновляет свой сайт, считает, что со времени создания проекта ситуация в целом улучшилась.

"Мне кажется, становится лучше... Люди осознают наличие этой проблемы. Когда я начинала свой проект, люди были шокированы. Сейчас гораздо в этом вопросе больше осведомленности", - говорит она.

Еще один подобный сайт, Algorithmic Justice League, был создан аспиранткой Массачусетского технологического института Джой Буоламвини в ноябре 2016 года.

Для одного из университетских проектов ей нужно было воспользоваться программой автоматического распознавания лиц, но система не смогла распознать ее лицо, так как Буоламвини темнокожая.

"У меня очень темная кожа, и я обнаружила, что, когда надевала белую маску, это существенно облегчало системе работу. Таким образом я фактически приводила свое лицо к стандартной модели, которую компьютер мог с легкостью обработать", - рассказывает она.

Это был уже не первый раз, когда аспирантке пришлось столкнуться с подобной проблемой.

Пять лет назад ей пришлось просить о помощи свою более светлокожую соседку по комнате.

"У меня были смешанные чувства. Потому что я поняла, что проблема, с которой я столкнулась пять лет назад, никуда не исчезла. И я была поражена, насколько хорошо работает трюк с белой маской", - говорит Буоламвини.

Реакция на её сайт, по словам самой аспирантки, была ошеломляющей.

Ей писали учителя, которые хотели показать её работу своим студентам, исследователи, которые хотели проверить собственные алгоритмы на предмет предвзятости, и просто обыватели, желавшие поделиться своим опытом.

Один исследователь хотел убедиться, что его алгоритм, созданный для распознавания меланомы (рака кожи), будет работать и на темнокожих пациентах.

"Я вот теперь думаю - а проверяем ли мы новые алгоритмы и настраиваем ли их таким образом, чтобы они работали, например, на пожилых людях, которые тоже не слишком широко представлены в технологическом пространстве?" - зайдётся вопросом Буоламвини.

"Делаем ли мы то же самое для людей, страдающих ожирением, которые тоже сталкивались с этой проблемой? В общем, это находит отклик среди самых разных групп", - продолжает она.

Технология дискриминации

Буоламвини считает, что отчасти люди стали задаваться подобными вопросами ещё и потому, что отсутствие расового, возрастного и прочего социокультурного многообразия в технологической индустрии хорошо задокументировано.

Ежегодно большие технологические компании выпускают доклады о представленности различных групп среди их работников. И это довольно невесёлое чтение.

Вот как выглядят последние цифры разных компаний:

Google (данные на январь 2016 года): лишь 19% технического состава компании - женщины, только 1% из них - темнокожие.

Microsoft (данные на сентябрь 2016 года): 17,5% технического состава компании - женщины, только 2,7% из них - темнокожие или афро-американцы.

Facebook (данные на июнь 2016 года): 17% находящегося в США технического состава компании - женщины, только 1% из них - темнокожие.

В общем, картина понятна. Но какое это имеет отношение к алгоритмам?

"Если вы тестируете свою систему исключительно на людях, которые похожи на вас, и все прекрасно работает, то вы никак не сможете узнать, что в вашей системе может быть проблема", - поясняет Джой Буоламвини.

Предвзятые стандарты красоты

В прошлом году в интернете был проведен конкурс красоты, в жюри которого были только роботы: победителей и победительниц выбирали посредством алгоритмов из более чем 6 тысяч селфи, присланных на конкурс из 100 разных стран.

В общей сложности лауреатами стали 44 человека - при этом только одна из них была чернокожей, а ещё шестеро обладали азиатской внешностью.

Алекс Жаворонков, научный руководитель проводившей конкурс компании Beauty.AI, в интервью британской газете Guardian признал, что результаты оказались не без изъяна, потому что базы данных, на основе которых был создан алгоритм, не отличались разнообразием.

"Если в этих базах данных нет достаточного количества людей с разным цветом кожи, это может привести к предвзятому результату", - сказал Жаворонков в интервью Guardian.

Но одно дело конкурс красоты, и совсем другое - преступления.

В США используется программное обеспечение, задача которого - определить, насколько осуждённый преступник склонен к рецидиву. Исследование, проведенное известным сайтом журналистских расследований ProPublica, показало, что программа нередко, ошибается, завышая риск рецидива со стороны темнокожих и занижая - со стороны белых заключенных. Впрочем, разработчики этого программного обеспечения не согласились с выводами журналистов.

По мнению доцента Университета Юты Суреш Венкатасубраманьян, создатели искусственного интеллекта должны принимать какие-то меры для исправления ситуации прямо сейчас, пока эта проблема еще заметна.

"Худший вариант развития событий - это если произойдут какие-то перемены, а мы их даже не осознаем", - сказал он.

"Другими словами, опасность заключается в том, что предвзятость в принятии решений перейдёт из сферы человеческих предрассудков, которые мы можем распознать и скорректировать, в нечто, что мы уже не будем замечать - а следовательно, не сможем и исправить, просто потому что будем принимать на веру решения, принятые алгоритмами", - продолжает

И все-таки в целом в отношении технологического прогресса Венкатасубраманьян настроен оптимистично.

"Говорить о том, что все алгоритмы расистские, бессмысленно, - поясняет ученый. - Не потому, что это невозможно, а просто потому, что механизм этот работает совершенно по-другому".

Он предлагает несколько решений этой проблемы:

  • создание более совершенного и многообразного объема данных для обучения алгоритмов (их обучают в процессе обработки тысяч различных образцов - например, изображений);
  • широкое распространение наиболее успешных методов, знаний и навыков среди продавцов программного обеспечения;
  • создание таких алгоритмов, которые бы объясняли, как и на основе какой информации они принимают решения, чтобы можно было выявить любую предвзятость.

Выпускница Массачусетского технологического института Джой Буоламвини тоже надеется, что ситуация все-таки изменится к лучшему.

"Любая технология, которую мы создаём, будет отражать как наши устремления, так и границы наших возможностей, - убеждена она. - И если мы будем ограничены с точки зрения разнообразия баз данных, это непременно отразится и на роботах, которых мы создаем, и на технологиях, при помощи которых работают эти роботы".


Источник: bbc.com