Realizar fotografías para publicarlas en Instagram es una cosa, editarlas para darles un aspecto profesional es otra muy distinta. La mayoría de nosotros toma una fotografía, la sube a su red social favorita, utiliza algún filtro, ajusta un poco la saturación y el brillo, y listo, directo a publicar. Si queremos hacer una fotografía con un equilibrio perfecto de colores, luces, saturación, equilibrio de blancos, etc., ya podemos ir llamando a nuestro primo fotógrafo o ir contratando un profesional, pero ahora según Google tenemos una nueva opción, utilizar un algoritmo realmente inteligente que haga todo el trabajo por nostros.

Los investigadores del MIT y Google recientemente presentaron un algoritmo de aprendizaje automático, capaz de retocar fotos de forma autónoma como si de un fotógrafo profesional se tratara. Toma una foto y la red neuronal identifica exactamente cómo hacer que se vea mejor: aumentando el contraste, reduciendo el brillo, lo que sea, y aplicando los cambios en menos de 20 milisegundos.

“Eso es 50 veces por segundo”, dice Michael Gharbi, estudiante de doctorado del MIT y autor principal del artículo. El algoritmo de Gharbi transforma las fotos tan rápido que se puede ver la versión editada en el visor antes de ajustar la imagen.

Gharbi comenzó a trabajar con investigadores de Google el año pasado para explorar cómo las redes neuronales podrían aprender a imitar estilos fotográficos específicos. Sigue una investigación similar realizada por investigadores alemanes en 2015 cuando construyeron una red neuronal que podría imitar los estilos de pintores como Van Gogh y Picasso. La idea, dice Gharbi, es facilitar la producción de imágenes de calidad profesional sin abrir una aplicación de edición fotográfica.

Piensa en el algoritmo como un filtro automático, pero con más matices. La mayoría de los filtros aplican técnicas de edición a toda la imagen, independientemente de si la necesita. El algoritmo de Gharbi puede identificar características específicas dentro de una imagen y aplicar las mejoras apropiadas. “Por lo general, cada píxel recibe la misma transformación”, dice. “Se vuelve más interesante cuando se tienen imágenes que necesitan ser retocadas en áreas específicas”. El algoritmo podría aprender, por ejemplo, a iluminar automáticamente una cara en un selfie con un fondo soleado. Podríamos entrenar la red para aumentar la saturación del agua, o incrementar la saturación del verde de los árboles cuando reconoce una foto de un paisaje.

El algoritmo de Gharbi puede analizar esos matices visuales porque los investigadores lo entrenaron con imágenes retocadas manualmente. Los investigadores alimentaron la red neuronal con más de 5.000 fotos editadas profesionalmente, que le enseñaron reglas de edición específicas asociadas con fotos bien realizadas. Si pudiéramos alimentar la red neuronal con nuestras propias fotos editadas, eventualmente el algoritmo podría aprender a reproducir tu propio estilo fotográfico personal.

Todo esto lo hace bastante interesante. Pero el logro real que Gharbi y sus colegas investigadores hicieron es que el software fuera lo suficientemente ligero como para funcionar en teléfonos móviles. “La clave para hacerlo rápido y correr en tiempo real es no procesar todos los píxeles de una imagen”, dice. En lugar de analizar millones de píxeles en cualquier foto, el algoritmo de Gharbi procesa una versión de baja resolución de la foto y decide qué partes deben retocarse. El algoritmo estima cómo ajustar el color, la luminosidad, la saturación, y mucho más basado en reglas establecidas en la red neuronal. Hace los cambios, y luego convierte la imagen de nuevo a alta resolución. Debido a que no procesa una imagen completa cada vez, el sistema puede funcionar a velocidades que van más allá de las capacidades computacionales del teléfono actual. “Hemos encontrado una manera más eficiente de procesar una imagen”, dice.

La función de edición automática permanece en fase de investigación, pero a nivel práctico y funcional, este modelo podría hacer que las características actuales de las cámaras de los dispositivos móviles existentes en la actualizad, fueran capaces de procesar el trabajo de edición de fotografías mucho más rápido. Gharbi dice que el algoritmo podría hacer el procesamiento de fotos HDR tan rápido que ya no tendría que esperar medio segundo para ver su foto de alta definición. Todo esto ha hecho que Google no haya tenido la menor duda en participar en este proyecto. Gharbi no ha comentado si esta tecnología aparecerá en las versiones futuras de Android, pero no estaría nada mal que pudiéramos verlo integrado en el nuevo sistema operativo de Google.