Así trabaja la IA con Google Fotos para crear imágenes en 3D

Fotos de Googleademás de proporcionar una potente plataforma para la gestión de copias de seguridad de las fotografías, también pone a disposición de sus usuarios una serie de herramientas para trabajar con estas imágenes.

Entre las opciones disponibles para manipular imágenes, se encuentra un llamativo modo llamado “foto cinematografía” que proporciona un efecto de profundidad en 3D de forma automática, gracias al trabajo de una inteligencia artificial.

Google Fotos crea automáticamente este tipo de imágenes. Siempre que tengas la aplicación actualizada, esta opción aparecerá en tus mejores momentos recientes, en la parte superior de la cuadrícula de fotos.

Para obtener estos resultados, Google Fotos utiliza el aprendizaje automático para anticipar la profundidad de una imagen y generar una representación 3D de la escena, incluso cuando la imagen original no proporciona información sobre la profundidad de la cámara a través de sus metadatos. Con ello, una cámara virtual animada se convierte en la forma de obtener un efecto de cámara panorámica suave, con aires cinematográficos.

Google explicó cómo funciona en IA

A través de su blog de proyectos de inteligencia artificialGoogle compartió recientemente algunos aspectos técnicos de esta función lanzada a fines del año pasado.

IA Google Fotis

Para implementar el efecto de profundidad de este modo de "fotografía cinematográfica", la IA de Google realiza una estimación a través de un mapa de profundidad, un recurso muy utilizado en experiencias de realidad aumentada o por el "modo retrato" presente de manera integrada con algunas cámaras y aplicaciones móviles.

En la etapa anterior se ha delimitado el espacio y la separación entre el objeto principal y el fondo de una fotografía, el siguiente paso a ejecutar por el algoritmo es la definición de una trayectoria para la cámara. De esta forma, la IA determina la dirección y la velocidad del movimiento simulado por esta técnica, tratando de pasar las distorsiones que se generan como consecuencia de este movimiento.

Finalmente, el sistema posterior a la generación de estos arreglos gráficos se encarga de corregir el encuadre de la escena, para brindar cuadros correctamente encuadrados, bajo el mismo principio de los pasos anteriores, gracias a la capacidad del algoritmo para identificar el objeto principal de un plano, este sistema puede ofrecer un resultado adecuadamente recortado.

Básicamente, para realizar esta tarea, la información con la que este sistema necesita trabajar es muy poca, ya que se reduce a la propia fotografía, con un único punto de vista.

Aspectos como la profundidad de una fotografía, las proporciones entre objetos, su perspectiva y otros elementos son tratados bajo la misma técnica con la que trabajan los teléfonos Pixel. Sin ir muy lejos, esta función se trata justamente de una implementación abierta de esta tecnología.

El mérito no es menor, a juzgar por los resultados. Al buscar plataformas web o aplicaciones móviles que prometan generar este efecto “parallax” con fotografías, es difícil encontrar herramientas que traigan buenos resultados para casos como estos, en los que solo un par de píxeles mal tratados podrían estropear el resultado.

Puedes revisar en el Blog de IA de Google más aspectos técnicos y ejemplos de esta tecnología, desarrollados conjuntamente por los equipos de Google Research y Google Photos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir
error: Content is protected !!