С тех пор, как Facebook наконец призналась, что имела проблему с фальшивыми новостями, она пыталась ее исправить. Она наняла тысячи людей, чтобы помочь заблокировать поддельные объявления, пообещала работать с сторонними организациями по проверке фактов и занята построением алгоритмов для обнаружения поддельных новостей. Но даже когда она пытается бороться с мошеннической рекламой и фактами, на горизонте вырисовывается еще одна потенциальная угроза: искусственно созданное поддельное видео.
Motherboard недавно обнаружила тревожную новую тенденцию на Reddit, где пользователи создают ИИ сгенерированные порнографические клипы путем замены лиц порнозвезд на лица других людей. Месяц назад на Reddit пользователь «deepfakes» разместил видео с лицом Галь Гадот, наложенного на тело порно звезды (он с тех пор создал поддельные порно с другими знаменитостями). Согласно Motherboard, видео создано с помощью алгоритмов машинного обучения, легкодоступных библиотек с открытым исходным кодом и изображений из Google, фотографий и видео на YouTube.
Но в то время это был только один пользователь, создающий порнографические видео, теперь есть приложение, которое помогает десяткам тысяч других делать тоже самое, и не только со знаменитостями, но и с обычными людьми. Motherboard сообщает, что приложение может быть использовано людьми без технической поддержки или опыта программирования. Создатель приложения, получивший название «deepfakeapp», сказал Motherboard, что в конечном итоге он хочет оптимизировать пользовательский интерфейс, чтобы пользователи могли «выбрать видео на своем компьютере, загрузить в нейронную сеть, связанную с определенным лицом из общедоступной библиотеки, и создать видео с другим лицом нажатием одной кнопки». Хотя полученные поддельные видеоролики не идеальны, некоторые из них выглядят устрашающе реалистичными.
Излишне говорить, что это имеет пугающие последствия. Это не только открывает дверь для ужасающего нового вида порно-мести, где мстительный бывший может добавить ваше лицо на порнографическое видео, оно также открывает ящик Пандоры страхов, где ничего не может быть доверенными в Интернете. В конце концов, заявления о ложных новостях уже широко читаются и распространяются на платформах социальных сетей, таких как Facebook и Twitter. Не нужно много думать о мире, в котором иностранные государства могут использовать ИИ для создания и распространения видео политиков или общественных деятелей, говорящих о вещах, о которых они никогда не говорили. Это была бы фальшивая новость, сделанная антиутопией.
На недавнем круглом столе ИИ в Сан-Франциско была опрошена группа экспертов из различных технологических компаний Bay Area, как они могли бы защитить от таких вредоносных практик. Ли Фан, глава инженерного отдела Pinterest, сказала, что в конкретном случае изменение персонажей во взрослых фильмах и блокировка мошеннических видео не будет слишком сложной. Это потому, что вы можете запустить алгоритм соответствия лица, чтобы отфильтровать четко определенные базы данных лиц знаменитостей.
«Всегда будут хакеры и мошенники, которые будут делать больше. Это действительно игра, в которой мы должны продолжать догонять» - сказала она. Эндрю Болвелл, глава HP Tech Ventures, предположил, что лучшая защита для хакера ИИ - это защитник ИИ. «[По-прежнему] По мере улучшения защиты атака становится лучше ... на самом деле трудно представить себе ответ на этот вопрос, который будет охватывать все варианты использования».
Возможно, самый интригующий ответ пришел от Хоакина Кандела, директора по прикладным машинным обучением в Facebook. «Я уверен, что мы можем создавать алгоритмы для обнаружения контрафактного контента», - сказал он, повторив настроения остальной части выступающих, а также согласился с комментарием «ИИ - лучшая защита». Но он также согласился с тем, что растущая легкость и эффективность алгоритмов имитации представляет собой довольно большую, постоянную проблему. Проблема, которая сейчас, похоже, не уходит.
Всего несколько месяцев назад исследовательская группа из Вашингтонского университета смогла создать искусственное видео о президенте Обаме, которое использовало его же слова. Команда использовала 14 часов для обучения нейронной сети, чтобы синхронизировать его губы с аудио. Система даже приспособлена для движения головы и челюсти, чтобы все это выглядело более реалистично. В то время как такого рода магия видео ранее требовала часов кропотливой работы CGI, команда просто позволяла нейронной сети работать сама в течение нескольких часов, а вуаля - поддельное видео.
И это еще не все. Несколько лет назад в Стэнфордском университете было разработано программное обеспечение под названием Face2Face, которое может захватывать чьи-то выражения лица на веб-камере, а затем предавать их человеку в видео. Команда из Университета штата Алабама в Бирмингеме также работает над созданием синтезированной речи, взятой из аудио, видеороликов и радиопередач YouTube.
Александр Ребен, художник и инженер Bay Area по теме «Deep Artificial Trees», вдохновленный творчеством Боба Росса, основанное на механическом обучении, сказал, что технология подделки видео будет только более продвинутой с течением времени. «Я думаю, что здесь не только технология, чтобы обмануть среднего человека, - сказал он по электронной почте, - домашнее компьютерное оборудование теперь достаточно дешево для такого рода вещей, которое будет сделано кем угодно».
«Можно было бы обучить другую систему фальшивыми и реальными изображениями, чтобы попытаться их отличить», - сказал он об использовании ИИ в качестве защиты. «Однако это может привести к гонке вооружений поддельных систем, пытающихся найти системы обнаружения».
По словам Ребена, есть положительные примеры использования таких технологий, как использование их в кино или возвращение любимого человека «назад к жизни» в качестве цифрового символа. «Но, вероятно, большее значение будет заключаться в том, что мы можем доверять нашим глазам и ушам еще меньше».
На другом конце спектра работают специалисты по компьютерному обучению, такие как Кандела, которые заняты искусственным интеллектом, чтобы помочь избавиться от фальшивых новостей в первую очередь. Но вещи не идеальны. Дэн Зигмонд, директор Google Analytics for News Feed, заявил в видеоролике YouTube в ноябре прошлого года, что, несмотря на все усилия компании по выявлению и снижению поддельных новостей, для проверки фактов все еще требуется три целых дня. Три дня - более чем достаточно времени для того, чтобы история стала вирусной, и для дезинформации распространилась (Зигмонд подтвердил это в видеоролике и сказал, что Facebook работает над улучшением этого движения).
Пару недель назад, рассказ от YourNewsWire утверждал, что Американский центр по контролю за заболеваниями сказал, что прививка от гриппа стала виновником недавней вспышки смертей от гриппа. Оказывается, однако, что история была полностью сфабрикованой. На самом деле, CDC решительно поощряет людей получать прививку от гриппа из-за того, насколько серьезным является сезон гриппа в этом году. Snopes разоблачила историю почти сразу, но было уже слишком поздно. Вскоре история породила более 176 000 выступлений, несмотря на то, что Facebook уже отметила данную статью как недостоверную. Люди все еще делились историей.
«Facebook сегодня не может существовать без ИИ», - сказал Кандела в интервью журналу Wired Magazine в феврале прошлого года. «Каждый раз, когда вы используете Facebook или Instagram или Messenger, вы можете не осознавать этого, но ваш опыт подпитывается ИИ». В то же время он также признает, что ИИ еще молод. «Проблема состоит в том, что ИИ действительно находится в зачаточном состоянии», - сказал он в одном интервью. «Мы только начинаем».
Это правда, что ИИ полезен во многих отношениях. Компьютерное зрение помогает визуально отключить навигацию в Интернете с описательными надписями, это поможет вам в сортировке ваших любимых фотографий с отпуска, а автоматический перевод на язык помогает людям из разных стран общаться друг с другом. И, да, Facebook использует свой специальный алгоритм для надстройки рассказов, которые, по ее мнению, вам наиболее интересны, что полезно для поддержания актуальности с друзьями и семьей.
Но ИИ может быть вреден в чужих руках. И, видя, что технология даже не успевает блокировать вводящие в заблуждение новостные сюжеты, кажется маловероятным, что она сможет остановить фальшивое видео от распространения, пока не стало слишком поздно. Компании, подобные Facebook, должны помнить о том, что одна из ее основных обязанностей - действовать как защитные меры сообщества. И мы не можем позволить себе быть побочным ущербом в игре кошки-мышки - ИИ против ИИ.