Adobe Anti-Blur
Un software para mejorar las fotografías que salieron borrosas por el movimiento de la cámara.
12/10/11
Potenciales amantes y señores, me deleito en presentar un gran avance de la tecnología que podría cambiar nuestras vidas al punto de que la gente se reirá en unos años de que haya dicho que era un gran avance, así como hoy nos reímos del idiota que quiso hacer un avión a pedales más de un siglo atrás: un software para mejorar las fotografías que salieron borrosas por el movimiento de la cámara...
Es un nuevo invento de Adobe (responsable de Photoshop y otras maravillas que todo el mundo hapirateado conocido). Se llama, por ahora y hasta que la musa de los nombres de programas vuelva de vacaciones, Anti-blur, y no es una banda de britpop hecha de antimateria, sino una tecnología para reconstruir la nitidez de las fotos "movidas".
El siguiente video debería ser suficiente para explicarlo todo, exceptuando un par de cosas, como por qué existe el blues pero no el greens. Pero, como no todos saben inglés, resumiré lo que el video explica sin cargo adicional, como para que te guíes mientras lo ves.
El software primero analiza la imagen y reconstruye el movimiento que hizo la cámara mientras la luz ingresaba por el diafragma (también conocido como "el coso que se abre y hace un ruidito"). El dibujo de este movimiento se denomina "blur kernel". Hecho esto -que en nuestra primitiva época lleva un buen tiempo-, el programa revierte ese camino moviendo los píxeles a donde deberían haber estado...
La quinta fuerza fundamental que rige el universo -la ironía- quiso que este video fuera filmado mientras salía la luna llena por un hombre-lobo con mal de Parkinson. Algún día, seguramente, podremos aplicar el mismo algoritmo para antidesenfocar videos como este, incluso en tiempo real. No hace falta ser analista de sistemas o proctólogo informático para imaginarlo; lo que hace falta son procesadores más potentes.
Pero, hablando de algo más inmediato, es probable que, como sucedió con otras demostraciones de Adobe, este nuevo truco de magia digital seguramente sea incluido en las próximas versiones de Photoshop.
Para nosotros, todo esto significa, en una palabra: "antidesenfoque" (por estúpida que suene la palabra, que si la desglosamos y analizamos etimológicamente significa "lo opuesto a invertir lo que está dentro del fuego"). Pero, para un físico, ese proceso es más que prescindir de un trípode; equivale a revertir la entropía de un sistema, lo cual no es poca cosa: ir de lo simple, desordenado e imprevisible a lo complejo, ordenado y predecible, es decir, en cierto modo, reconstruir el pasado.
Mientras pensaba en esto, comprendí una paradoja tremenda: las ilusiones y las mentiras son simplemente la apariencia de la verdad.
Bueno, los lectores saben que siempre exagero, pero nunca lo suficiente. Porque, como dice el proverbio, más vale que sobre y no que fal.
Es un nuevo invento de Adobe (responsable de Photoshop y otras maravillas que todo el mundo ha
El siguiente video debería ser suficiente para explicarlo todo, exceptuando un par de cosas, como por qué existe el blues pero no el greens. Pero, como no todos saben inglés, resumiré lo que el video explica sin cargo adicional, como para que te guíes mientras lo ves.
El software primero analiza la imagen y reconstruye el movimiento que hizo la cámara mientras la luz ingresaba por el diafragma (también conocido como "el coso que se abre y hace un ruidito"). El dibujo de este movimiento se denomina "blur kernel". Hecho esto -que en nuestra primitiva época lleva un buen tiempo-, el programa revierte ese camino moviendo los píxeles a donde deberían haber estado...
La quinta fuerza fundamental que rige el universo -la ironía- quiso que este video fuera filmado mientras salía la luna llena por un hombre-lobo con mal de Parkinson. Algún día, seguramente, podremos aplicar el mismo algoritmo para antidesenfocar videos como este, incluso en tiempo real. No hace falta ser analista de sistemas o proctólogo informático para imaginarlo; lo que hace falta son procesadores más potentes.
Pero, hablando de algo más inmediato, es probable que, como sucedió con otras demostraciones de Adobe, este nuevo truco de magia digital seguramente sea incluido en las próximas versiones de Photoshop.
Para nosotros, todo esto significa, en una palabra: "antidesenfoque" (por estúpida que suene la palabra, que si la desglosamos y analizamos etimológicamente significa "lo opuesto a invertir lo que está dentro del fuego"). Pero, para un físico, ese proceso es más que prescindir de un trípode; equivale a revertir la entropía de un sistema, lo cual no es poca cosa: ir de lo simple, desordenado e imprevisible a lo complejo, ordenado y predecible, es decir, en cierto modo, reconstruir el pasado.
Mientras pensaba en esto, comprendí una paradoja tremenda: las ilusiones y las mentiras son simplemente la apariencia de la verdad.
Bueno, los lectores saben que siempre exagero, pero nunca lo suficiente. Porque, como dice el proverbio, más vale que sobre y no que fal.
Muy bueno, me hizo acordar a este video que salio en la ultima siggraph, tal vez te interese:
ResponderEliminarhttp://vimeo.com/23436085
"Las ilusiones y las mentiras son simplemente la apariencia de la verdad". Que grán reflección!
ResponderEliminarExcelente. Luego de ésto podrán existir camarógrafos profesionales que tomen alcohol tranquilamente en una fiesta de Quince, o en un casamiento; gente con mal de Parkinson que filmen sus propias películas XXX; y (ésto más como pregunta/idea) podremos leer qué catzo pasa dentro de un agujero negro usando un software análogo a éste (?).
ResponderEliminarMe mató "la quinta fuerza fundamental del universo y el hombre-lobo con mal de Parkinson". Es genial como hacés que sea divertido leer algo que es en esencia aburridísimo: una nueva herramienta de PS
ResponderEliminarmmm eso no es tan difícil computacionalmente hablando si se usa un gpu para realizarlo, puntos para ellos por la originalidad pero paso por el algoritmo
ResponderEliminarEstimado anónimo: lo que dijiste no tiene sentido, un GPU es una "unidad de procesamiento gráfico" (tarjeta de video) y no es eso lo que "transforma" la imágen borrosa en nítida, el GPU sólo procesa el resultado final.
ResponderEliminarestimado Martín:
ResponderEliminarEstudio ingeniería y he manejado procesamiento digital de imágenes para visión artificial, por favor infórmate que los GPU se usan para hacer cálculos matriciales en pocos ciclos de reloj, para poder procesar imágenes se usan mayormente un kernel, que no es nada mas que una matriz de pixeles.
¿Me harías el favor de leer antes de afirmar?
Cada vez menos para la mentira de las películas de espionaje donde reconstruyen rostros de una cámara de seguridad de 3 megapixeles en una gigantografía :D
ResponderEliminarLa tecnología no es nueva, la nasa ya utiliza desde hace varios años un programa similar para "reenfocar" imágenes borrosas como las fotos satelitales de la superficie de Marte; lo que me alegra es que dicha tecnología pueda finalmente caer en manos de la plebe y pueda usarlo con mi compu cuando se me antoje. Lo de reenfocar tiene un principio óptico así que sería realmente sorprendente si pudieran hacer lo mismo con imágenes compuestas con 4 pixeles y recomponer la imágen de toda una familia de terroristas, hacer un análisis de adn y pronosticar el tiempo como hacían cada hora los amigos de Jack Bauer en 24
ResponderEliminarEn realidad, tiene poco que ver con las fotografías de NASA. Los satélites tienen trayectorias mucho más estables y predecibles que una cámara en manos temblorosas y es mucho más simple corregir sus errores. Este algoritmo funciona de una manera completamente diferente.
ResponderEliminarNo, yo hablo de un software desarrollado por la Nasa que permite justamente "reenfocar" imágenes borrosas sin necesariamente basarse en ninguna trayectoria rigurosamente calculada de un satélite mas que en la información de la fotografía en sí, mas allá de que la Nasa cuente con un conjunto variopinto de técnicas para mejorar sus imágenes. (No me refiero a las fotos tomadas con largos periodos de exposición como las que hacen los satélites o cualquier fotógrafo aficionado a la astronomía con esos aparatos que se mueven con precisión a la par del movimiento de las estrellas)
ResponderEliminarhttp://science.nasa.gov/science-news/science-at-nasa/1999/ast04may99_1/
http://www.pixon.com/publications/Puetter_05_ARAA.pdf
Es un proceso muy distinto. Lo de NASA es estabilización de video (como la de YouTube) más perfilado de imagen más eliminación de ruido por aproximación cromática (como las de Photoshop) o por comparación de cuadros. Es igualmente maravilloso, pero tiene poco y nada en común con lo de Adobe, tanto en funcionamiento como en resultados y material al que se puede aplicar.
ResponderEliminar