Конкурс красоты судил ИИ и роботы не нравится темный цвет кожи


Опубликованно 01.12.2017 09:40

Конкурс красоты судил ИИ и роботы не нравится темный цвет кожи

Первый международный конкурс красоты судить по “машины” должна использовать объективные факторы, такие как симметрия лица и морщин с целью выявления наиболее привлекательных конкурсанток. После Красоты.Ай запущен в этом году, около 6000 человек из более 100 стран представили фотографии в надежде, что искусственный интеллект, поддерживает сложные алгоритмы, бы определили, что их лица наиболее близко напоминали “человеческой красоты”.

Но когда пришли результаты, создатели были потрясены, увидев, что произошел вопиющий фактор, связывающий победителей: роботы не нравятся люди с темной кожей.

Из 44 победителей, почти все белые, несколько были в Азии, и только один имел темный цвет кожи. Это несмотря на то, что, хотя большинство участников были белыми, многие цвета представлены фотографии, в том числе и больших групп из Индии и Африки.

Последующие споры с новой силой разжег дебаты о том, какие алгоритмы могут увековечиванию предубеждения, уступая непреднамеренными и часто оскорбительных результатов.

Когда Microsoft выпустила “тысячелетнего” бота по имени Тай в марте, она стала быстро, используя расистские выражения и пропаганду неонацистских взглядов в Twitter. И после того, как Facebook устранил человека, редактора, куратор “в тренде” новостей в прошлом месяце, алгоритм немедленно произведен фальшивые и пошлые истории на новостных лентах, в том числе одна статья о человеке, мастурбирует с куриным. Пожары команде Facebook в тренде, и алгоритм без людей сходит с ума Подробнее

Хотя, казалось бы, расистские конкурса красоты стала поводом шуток и стеба, эксперты по компьютерной науке и социальной справедливости адвокаты говорят, что в других отраслях и объектов, все большее применение предвзято системах ИИ не до смеха. В некоторых случаях, это может иметь разрушительные последствия для людей цвета.

Красота.ИИ, который был создан с помощью “глубокого обучения группы” призвал молодежь лабораторий и поддерживается корпорацией Майкрософт – опирался на больших наборах данных фотографий, чтобы построить алгоритм, который оценил красоту. Хотя существует целый ряд причин, по которым алгоритм благоприятствования белые люди, главная проблема заключалась в том, что проект данные, используемые для установления стандартов привлекательности не достаточно меньшинств, сказал Алекс жаворонков, красота.Директор по науке ИИ.

Хотя группа не построить алгоритм для лечения легких кожи, как признак красоты, входные данные эффективно руководил робот судей, чтобы прийти к такому выводу.

Победители красоту.Конкурс AI в категории для женщин в возрасте 18-29 лет. Фотография: http://winners2.beauty.ai/#win

“Если у вас есть не так много людей цвета в наборе данных, тогда у тебя могли бы быть предвзятым результаты”, - сказал жаворонков, который сказал, что он был удивлен победителей. “Когда вы тренируетесь алгоритм распознавать определенные образцы ... вам, возможно, не хватает данных, или данные могут быть необъективными.”

Самое простое объяснение за предвзятое алгоритмов заключается в том, что люди, которые создают их собственные глубоко укоренившиеся предубеждения. Это означает, что, несмотря на восприятие, что алгоритмы как-то нейтрально и однозначно объективным, они часто могут воспроизвести и усилить существующие предрассудки.

Красота.Результаты AI предложение “прекрасная иллюстрация проблемы”, - сказал Бернард-Харкорт, профессор Колумбийского университета права и политических наук, который изучал “предиктивная безопасность”, которая все больше полагается на машины. “Идея, что вы могли придумать культурно-нейтральными, расово нейтральный концепция красоты-это просто уму непостижимо”.

Случае является напоминание о том, что “люди действительно воображаете, даже если это назовут алгоритмы и мы думаем, что это нейтральное и научное”, - сказал он.

Группы гражданских свобод в последнее время возникли опасения, что компьютерные правоохранительных прогнозирования инструментов, которые используют данные, чтобы предсказать, где произойдут будущие преступления – полагаться на недостатки статистики и может привести к обострению расовых предрассудков и вредных обычаев полиции.

“Она загрязнена данных производить загрязненных результаты”, - сказал Malkia Кирилл, исполнительный директор Центра Медиа справедливости.

Расследование propublica на ранее в этом году обнаружили, что программное обеспечение, используемое для прогнозирования будущих преступников имеет предубеждение против чернокожих людей, которые могут привести к более суровым наказаниям.

“Это действительно вопрос жизни кто-то стоит на кону”, - заявил сестры Фридлер, профессор компьютерных наук в Хаверфорд-колледжа.

Серьезной проблемой, сказал Фридлер, что меньшинства по своей природе часто недостаточно представлены в наборах данных, что означает, что алгоритмы могут достичь неточным выводам для тех групп населения, и создатели не обнаружить его. Например, она сказала, алгоритм, который был направлен против коренных американцев можно считать успешным, учитывая, что они являются лишь 2% населения.

“Вы могли бы оценить точность 98%. Можно подумать, вы проделали большую работу по алгоритму”.

Сказал фридлер есть активные способы, алгоритмы могут быть скорректированы, чтобы исправить перекосы ли улучшение входных данных или реализации фильтров для обеспечения людей разных рас получают равного обращения.

Предвзято программ ИИ не ограничивается системой уголовного правосудия. Одно исследование установило, что значительно меньше женщин, чем мужчин были показаны онлайн объявления на высокооплачиваемые рабочие места. В прошлом году, фото приложения Google обнаружили меченые чернокожих людей как горилл.

Кирилл отметил, что алгоритмы, в конечном счете, очень ограничены в том, как они могут помочь скорректировать социального неравенства. “Мы слишком полагаемся на технологии и алгоритмы и машинное обучение, когда мы должны смотреть на институциональные изменения”.

Жаворонков сказал, что для красоты.ИИ запускает очередной раунд конкурса этой осенью, он ожидает, что алгоритм будет иметь ряд изменений, призванных отсеять дискриминационных результатов. “Мы постараемся это исправить”.

Но реальность, добавил он, заключается в том, что роботы не могут быть лучшими судьями внешности: “я был более удивлен тем, как алгоритм выбрал самых красивых людей. Из очень большое количество, они выбрали людей, которые я мог выбрать сам”.


banner14

Категория: Автотехнический раздел