ИА Nvidia делает поддельные видео, которые невозможно отличить от реальных


Опубликованно 21.01.2018 01:02

ИА Nvidia делает поддельные видео, которые невозможно отличить от реальных

В погоне за крутой искусственный интеллект (ИИ) Nvidia медленно открывает ящик пандоры. На днях они представили бесконтрольный метод обучения, который может радикально изменить содержание видео, что ты дал.

В погоне за крутой искусственный интеллект (ИИ) Nvidia медленно открывает ящик пандоры. На днях они представили бесконтрольный метод обучения, который может радикально изменить содержание видео, что ты дал. Кто знает

Много вещей. Например, изменить цвет кожи человека (или военную форму), время в дороге или в течение дня, чтобы закончить машину на дороге или удалить пятна леопарда. И это только несколько демо от Nvidia. Как это работает

Предыдущие методы машинного обучения, такие ИИ требовали больших объемов данных для сравнения. Из-за больших объемов данных было проблематично научить видеть модели и схемы. Таким образом, они пытались научить видеть картину, как раскраска, каждый элемент которой-это своего рода конечная цель, как цвет заливки, изменение цвета, увеличение разрешения, замыливания картинки и т. д.

  Потому что это круто. И потому, что это не круто

С одной стороны, это открывает возможность сойти с ума для обработки видео. С другой стороны, это пугает людей. Например, ИИ от Nvidia, уже в состоянии сделать поддельные видео, что не один человек не признает, в 99% случаев. И канадский стартап Lyrebird не так давно учил, чтобы поговорить С незнакомцем голосов. В распоряжении такие средства, любой человек с фантазией и упорством, сможет создавать события правдоподобны, что не было — дети на кресте, вооруженные конфликты, инопланетяне и "аншлаг" на концерте Тимати.

Источник: The Next Web


banner14

Категория: Новости Техники