Любопытно: в google разработали алгоритм, который создаёт видео по фотографиям
Инженеры Google постоянно находятся в процессе создания разнообразных технологий и алгоритмов, которые в итоге могут изменить многое в нашей жизни. Отдельным направлением исследований корпорации является получение объёмных изображений по двухмерным фотографиям. Все мы хотя бы раз пользовались сервисом Google Street View, но в том случае – это всего лишь панорамные фотографии, натянутые на сферу. А вот технология DeepStereo – это принципиально новый для Google алгоритм.
Видео чуть ниже демонстрирует алгоритм в действии. Расплывчатые участки изображения – это места, с которыми искусственный интеллект не смог справиться, но разработчики постоянно совершенствуют его работу и надеются со временем избавить от очевидных недостатков.
Придумал этот уникальный алгоритм инженер по имени Джон Флинн. Он вместе с тремя своими коллегами создал систему, которая анализирует серию снимков какого-либо места и комбинирует их в плавную и практически бесшовную анимацию. Разумеется, пока что технология не лишена недостатков – то и дело в видео проявляются разные артефакты или смазываются движущиеся объекты, но даже текущий результат уже впечатляет.
Подобные технологии были замечены и раньше. К примеру, можно отнести сюда проект Time-Lapse Mining, представленный публике на выставке SIGGRAPH в этом году. Он прочёсывает Интернет на предмет наличия фотографий одного и того же места в разное время и пытается создать на основе этих изображений анимацию изменения местности в ускоренной перемотке. Но в данном случае алгоритм просто максимально подгоняет все изображения к одному наиболее подходящему, а потом просто их листает, как страницы в блокноте.
Алгоритм Джона Флинна работает несколько иначе. Он действительно достраивает недостающие кадры видео по имеющимся в его распоряжении данным. По сути, программа сама рисует промежуточные кадры анимации такими, какими она их себе представляет. Программе не нужно заранее знать глубину каждой отдельной точки изображения, она самостоятельно определяет её «на глаз». Вторым шагом становится угадывание цвета каждого пикселя генерируемого кадра. Данные о глубине и цвете в итоге становятся материалом для нового изображения.
Источник: http://restbase.ru