...

воскресенье, 27 октября 2019 г.

Facebook презентовала систему ИИ, которая может обмануть искусственный интеллект на видео

image

Facebook AI Research заявила о разработке системы машинного обучения, которая не дает искусственному интеллекту определять людей по видео. На этой технологии основаны все современные системы распознавания лиц.

Разработчики утверждают, что ИИ для автоматической модификации видео не требует дополнительного обучения под конкретное видео. Как пояснил инженер-исследователь Facebook AI и профессор Тель-Авивского университета Лиор Вольф, система объединяет состязательный автокодировщик с нейросетью. Алгоритм просто заменяет лицо человека его слегка искаженной версией, а ИИ использует архитектуру кодировщика-декодера и генерирует искаженные и неискаженные изображения лица человека, которые затем можно встроить в видео. Разработка показала на видео, как это работает.

«Распознавание лиц может привести к потере конфиденциальности, а технология замены лиц может быть использована для создания вводящих в заблуждение видео. Недавние мировые события, связанные с прогрессом и злоупотреблением технологией распознавания лиц, вызывают необходимость понимания методов, которые успешно справляются с де-идентификацией. Наш метод пока единственный, который подходит для видео, включая трансляции, и обеспечивает качество, намного превосходящее описанные в литературе методы», — отметили в компании.

В Facebook заявили об отсутствии планов по применению новой технологии в приложении. Однако систему можно использовать при создании материалов, которые остаются узнаваемыми для людей. Кроме того, анонимизированные лица в видео могут быть использованы для обучения систем ИИ. В мае Google использовал Mannequin challenge videos для обучения систем искусственного интеллекта для улучшения систем восприятия глубины видео. Сама же компания в настоящее время выступает ответчиком по иску на 35 млрд долларов, суть которого заключается в применении в соцсети технологии автоматического распознавания лиц.

Разработка будет представлена на международной конференции ICCV (International Conference on Computer Vision), которая состоится на следующей неделе в Сеуле.

В сентябре Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества», а также научными работниками из нескольких университетов объявили конкурс на разработку технологии распознавания дипфейков (deepfake, видео, созданных нейросетью).

В ходе проекта Deepfake Detection Challenge Facebook поручил исследователям создавать реалистичные дипфейки, а затем прорабатывать алгоритмы их обнаружения. Призовой фонд проекта составляет 10 млн долларов.

«В отрасли нет достаточного набора данных или эталона для их обнаружения. Мы хотим стимулировать больше исследований и разработок в этой области и разработать лучшие инструменты с открытым исходным кодом для обнаружения подделок», — заявили тогда в Facebook.

Между тем Google в сотрудничестве с компанией Jigsaw (бывшей Google Ideas) уже выпустила датасет, в который вошло более трех тысяч дипфейков. Для его разработки Google набрала актеров, из которых произвольно были составлены пары. Нейронные сети поменяли лицо одного актера из пары на лицо другого. Для создания роликов с самыми разными сценариями использовались публично доступные алгоритмыDeepfakes, Face2Face, FaceSwap и NeuralTextures.

До этого в докладе Data and Society его авторы поставили под сомнение автоматизированные решения для распознавания видео, созданных с помощью машинного обучения. Бритт Пэрис и Джоан Донован отметили, что дипфейки, хотя и кажутся относительно новым явлением, на самом деле являются частью долгой истории манипулирования СМИ, а для изменения ситуации необходимы как социальные, так и технические усовершенствования. Чрезмерное же доверие к ИИ, по их мнению, может только усугубить ситуацию, сконцентрировав больше данных и мощности в руках частных корпораций.

Let's block ads! (Why?)

Комментариев нет:

Отправить комментарий