Искусственный интеллект DeepMind научился придумывать фотографии

Британская компания DeepMind, в 2014 году ставшая частью Google, постоянно работает над совершенствованием искусственного интеллекта. В июне 2018 года ее сотрудники представили нейронную сеть, способную создавать трехмерные изображения на основе двумерных. В октябре разработчики пошли дальше — они создали нейросеть BigGAN для генерации изображений природы, животных и предметов, которые сложно отличить от настоящих фотографий.

Как и в других проектах по созданию искусственных изображений, данная технология основана на генеративно-состязательной нейросети. Напомним, что она состоит из двух частей: генератора и дискриминатора. Первая создает изображения, а вторая оценивает их схожесть с образцами идеального результата.



В этой работе мы хотели стереть грань между изображениями созданными ИИ и фотографиями из реального мира. Мы обнаружили, что для этого достаточно уже существующих методов генерации.

Чтобы научить BigGAN создавать фотографии бабочек, собак и еды, использовались разные наборы изображений. Сначала для обучения использовалась база ImageNet, а затем — более масштабный набор JFT-300M из 300 миллионов изображений, разделенных на 18 000 категорий.

Обучение BigGAN заняло 2 дня. Для этого потребовалось 128 тензорных процессоров Google, разработанных специально для машинного обучения.

В разработке нейросети также участвовали профессора из шотландского Университета Хериота-Уатта. Подробности о технологии расписаны в статье «Обучение

крупномасштабной генеративно-состязательной нейросети GAN синтезу естественного изображения высокой точности».

В сентябре исследователи из Университета Карнеги-Мелона при помощи генеративно-состязательных нейросетей создали систему для наложения мимики одних людей на лица других.

Как подобные нейросети могут быть использованы человечеством? Свои варианты пишите в комментариях или в нашем Telegram-чате.

Похожие записи