Искусственный интеллект риски ГМ-стилем общественной реакции, предупреждают эксперты


Опубликованно 13.12.2017 05:00

Искусственный интеллект риски ГМ-стилем общественной реакции, предупреждают эксперты

Развивающейся области искусственного интеллекта (ИИ) может спровоцировать негативную реакцию общества, поскольку она все чаще попадает в частные руки, угрожает людям рабочие места, и работает без эффективного надзора и регулирования, ведущие специалисты в технологии предупреждают.

В начале новой серии Guardian в АИ, специалисты в этой области подчеркивают огромный потенциал технологии, которые уже ускорения научных и медицинских исследований, чтобы сделать его работать более плавно, и делает бизнес более эффективным. Комиссия искусственного интеллекта, необходимой для прогнозирования последствий, говорит КБР Подробнее

Но, несмотря на перспективы революции в ИИ, есть крепления социальные, этические и политические вопросы о технологии разрабатывается без достаточного надзора со стороны регулирующих органов, законодателей и правительства. Исследователи рассказали Guardian, что: Преимущества ИИ может быть потеряно из-за ГМ-стиль люфтит. "Утечка мозгов" в частный сектор вредит вузов. Знания и богатств концентрируются в нескольких фирмах. Поле имеет огромные проблемы разнообразия.

В октябре, зал Богоматери Венди, профессор компьютерных наук в университете Саутгемптона, сопредседателем независимого обзора Британской промышленности ИИ. В докладе отмечается, что ИИ потенциально может добавить ?630bn экономики к 2035 году. Но чтобы пожинать плоды, технологии должны приносить пользу обществу, - сказала она.

“Ай будет влиять на каждый аспект нашей инфраструктуры, и мы должны убедиться, что это выгодно нам”, - сказала она. “Мы должны думать обо всех этих вопросах. Когда машины смогут учиться и делать вещи для себя, какие опасности для общества? Это важно, потому что народы, понять вопросы, станут победителями в следующей промышленной революции”.

Сегодня ответственность за создание безопасных и этических ИИ лежит почти исключительно с компаниями, которые строят их. Нет стандартов тестирования, отсутствие требований к АИС, чтобы объяснить свое решение, и организации не оборудован для того чтобы контролировать и расследовать любые плохие решения или несчастных случаев, которые происходят. Вопросы и ответы Как машины учатся? Показать Скрыть

Одной из главных целей в области искусственного интеллекта для машин, чтобы иметь возможность научиться выполнять задачи и принимать решения самостоятельно, а не были четко запрограммированы со строгими правилами. Существуют различные способы достижения этого на практике, но некоторые из самых ярких последних достижений, таких как AlphaGo, используют стратегии обучения с подкреплением. Как правило, машина будет иметь цель, например, переводить предложения с английского на французский и массивный набор данных для обучения на. Она начинается просто замахнулись на задачу – в пример перевод это начать производить искаженный бред и сравнивать свои попытки с существующими перевод. Программа потом “отблагодарили” со счетом, когда он успешен. После каждой итерации задач он улучшает и после огромного количества повторы, подобные программы могут соответствовать и даже превышать уровень переводчиков. Получение машины, чтобы узнать менее хорошо определенные задачи или те, для которых не существует никаких цифровых данных-это будущее цель, которая потребует более общем виде интеллекта, сродни здравому смыслу. Был ли это полезно? Спасибо за ваш отзыв.

“Мы должны иметь сильные независимые организации, наряду с профильными специалистами и хорошо информированных исследователей, которые могут выступать в качестве наблюдателей и провести крупные фирмы к ответственности по высоким стандартам,” сказал Кейт Кроуфорд, со-директор ИИ Института Нью-Йоркского университета. “Эти системы становятся новой инфраструктуры. Важно, что они оба являются безопасными и справедливо”.

Многие современные АИС научиться принимать решения обучающимся на массивных наборов данных. Но если данные содержат погрешности, они могут быть унаследованы и повторил ИИ.

Ранее в этом году, искусственный интеллект, который компьютеры используют для интерпретации языка, был найден для отображения гендерных и расовых предубеждений. Другой используется для распознавания изображений, упорядоченных повара как женщины, даже когда передали образы лысеющего мужчины. Множество других, в том числе средства, используемые в деятельности полиции и оценки рисков в плен, как было показано, чтобы дискриминировать чернокожих.

Серьезной проблемой в отрасли разнообразии отчасти в этом виноваты назначения, которые являются дискриминационными в отношении женщин и меньшинств. В Google и Facebook, четыре из пяти всех технических нанимает мужчин. Засилье белых мужчин из поля привела к приложения, которые подходят только для мужских тел, фотоуслуги, которые помечены чернокожих людей как горилл и систем распознавания речи, которые не обнаруживают женские голоса. “Программное обеспечение должно быть разработано разнообразной рабочей силы, не ваш средний белый мужчина, потому что мы все собираемся быть пользователями”, - сказал Холл. Воспроизведение Видео 1:43 'Софья' робот говорит ООН: 'я здесь, чтобы помочь человечеству создать будущее' – видео

Плохо проверил или внедрена АИС являются еще одной проблемой. В прошлом году в США умерли, когда Автопилот на модели s Тесла не смог увидеть грузовик, пересекавший шоссе. Расследование ДТП со смертельным исходом на Национальный совет по безопасности транспорта США критикуют Тесла на выпуск автопилота, что не имеет достаточных гарантий. Генеральный директор компании, Элон Маск, один из самых ярых поборников безопасности AI и регулирования.

Еще существует озабоченность по поводу использования АИ-приведенные в действие системы, чтобы манипулировать людьми, с теперь серьезные вопросы об использовании социальных медиа в преддверии британского референдума и выборов 2016 года в США. “Есть технологии, гонка вооружений продолжается, чтобы увидеть, кто может оказывать влияние на избирателей”, - говорит профессор Тоби Уолш искусственного интеллекта в университете нового Южного Уэльса и автор недавней книги на Ай называется мечтой андроид.

“У нас есть правила, по границам что вы можете потратить, чтобы влиять на людей голосовать определенным образом, и я думаю, что мы должны быть пределы того, сколько технологий вы можете использовать, чтобы влиять на людей.” 'Мы не можем конкурировать': почему вузы теряют лучших ИИ ученых Подробнее

Даже в меньших масштабах, манипуляции могут создать проблемы. “На ежедневной основе нашей жизни, в какой-то степени манипулировать ИИ решений”, - сказал сэр Марк Walport, правительства, бывший главный ученый, который сейчас ведет УК исследований и инноваций, новых супер-исследовательского Совета. “Наступает момент, при котором, если организации ведут себя таким образом, что расстраивает большие группы общественности, это могло бы вызвать негативную реакцию”.

Ведущие исследователи ИИ выразили аналогичную обеспокоенность в палату лордов комитет мА, которая проведет расследование экономических, этических и социальных последствиях искусственного интеллекта. Доказательства, представленные Имперского колледжа в Лондоне, один из крупнейших университетов ИИ исследования, предупреждает, что недостаточное регулирование технологии “может привести к социальной люфтит, не помню, видел с генетически модифицированными продуктами, серьезные несчастные случаи происходят и процессы выйдут из-под контроля”.

Ученые из университетского колледжа Лондона разделяем озабоченность по поводу анти-ГМ-стиль люфтов, рассказывая сверстникам в своих показаниях: “если ряд примеров ИИ плохо развито, не может быть значительной общественной реакции, как это случилось с генетически модифицированными организмами.”

Но наибольшее влияние на общество может быть назначения, которые хорошо работают, ученые сказал Хранитель. Главный экономист Банка Англии предупредил, что 15м занятости в Великобритании может быть автоматизировано до 2035 года, что означает масштабное переобучение будут необходимы для того чтобы избежать резкого всплеска безработицы. Краткосрочный срыв может спровоцировать гражданские беспорядки, по данным Майя Пантич, профессор аффективных и поведенческих вычислений на Имперский, как бы растущее неравенство движет прибыль Ай течет в кучки транснациональных компаний.

Суббаро Kambhampati, президент американской Ассоциации искусственного интеллекта, заявил, что хотя технология часто приносил пользу обществу, это не всегда справедливо. “Последние технологические достижения были много больше концентрации богатства”, - сказал он. “Я, конечно, беспокоюсь о влиянии технологий ИИ на богатство концентрация и неравенство, и как сделать преимущества более инклюзивным”. Автоматизация затронет один из пяти рабочих мест в Великобритании, говорит исследование Подробнее

Взрыв исследований искусственного интеллекта в промышленности обусловила интенсивный спрос на квалифицированных ученых. В британских университетах, аспирантов и докторантов-исследователей обхаживали тек фирм, предлагающих зарплату от двух до пяти раз в Академии. В то время как некоторые институты справляются с наймом угаре, другие нет. В отделах, где спрос наиболее интенсивно, старшие преподаватели опасаются, что они потеряют не одно поколение талантов, которые традиционно езды научных исследований и обучения будущих студентов.

По словам Пантича, лучший талант из Академии не засосало четыре основных АИ фирм, Яблоко, Amazon, Google и Facebook. Она сказала, что ситуация может привести к 90% инноваций контролируется компаниями, смещая баланс власти от государств к кучке транснациональных компаний.

Walport, который курирует практически все государственное финансирование научных исследований в Великобритании, опасается, регулирующих ИИ, опасаясь затрудняет исследования. Вместо этого он полагает, инструменты ИИ должен быть тщательно контролироваться, когда они введены в эксплуатацию, так что особых проблем можно забрать пораньше.

“Если Вы не будете постоянно следить за тем, что ты в опасности пропавших вещей, когда они идут неправильно”, - сказал он. “В новом мире, мы, безусловно, должны добиваться непрерывного мониторинга в реальном времени, так что можно посмотреть, если ничего плохого или непредсказуемым происходит как можно раньше.”

Это может быть частью ответа, по словам Роберта Фишера, профессор компьютерное зрение в университете Эдинбурга. “Теоретически компании должны нести ответственность, но мы в "серой зоне", где они могли бы сказать их продукт работал очень хорошо, но это было облако, что ошибся, или телекоммуникационного провайдера, и все они расходятся во мнениях, кто несет ответственность”, - сказал он.

“Очевидно, что мы находимся в абсолютно новой территории. ИИ позволяет нам использовать нашу интеллектуальную силу, поэтому мы стараемся сделать более масштабным”, - сказал он. “И это означает, что мы может иметь более широкие стихийных бедствий”.


banner14

Категория: Автотехнический раздел