May 232011
 

Superada la cansina discusión sobre si es mejor la película o “el digital” y en pleno debate sobre el futuro de los espejos en las cámaras, está claro que cada vez hay menos tiempo para adaptarse a los cambios. Incluidos aquellos que prometen o amenazan con cambiar totalmente el concepto de fotografía y cámaras que hemos conocido hasta ahora.

Las anteriores generaciones al menos tuvieron unas décadas para digerir el paso del blaco y negro al color o discutir sobre la utilidad real del enfoque automático que, como todo el mundo sabe, es para nenas. Pero ahora andamos muy liados con cosas metafísicas –postfotografía y demás- y ahorrando para comprarnos la siguiente generación de cámaras con aspecto retro. Tanto que igual ya se está preparando el próximo episodio delante de nuestro morros y no nos estamos dando cuenta.

Sin ir más lejos, hace unos días publicábamos en QUESABESDE.COM los avances de unos investigadores canarios en el desarrollo de un adaptor capaz de convertir cualquier cámara de ópticas intercambiables en una cámara plenóptica.

Aunque el tema da para mucho y puede asustar un poco -sobre todo a los que somos de letras- la idea es bastante sencilla de entender: colocar una matriz de lentes delante del sensor, simulando una especie de “ojo de mosca”, de tal modo que sea posible capturar en un solo disparo una misma escena desde muchas perspectivas. Con toda esa información luego es posible -entre muchas otras cosas- elegir el punto de enfoque a la hora de reconstruir la imagen.

En realidad la llamada fotografía computacional es un tema que se lleva años investigando, pero que últimamente ocupa bastante titulares y parece generar cada vez más interés entre firmas del sector. Empezando, claro, por Adobe que ya ha dado alguna pista al respecto.

Precisamente hace unos días se daba a conocer Lytro, una compañía californiana de reciente creación y centrada en este ámbito de la fotografía plenóptica desde la perspectiva del software. Por ahora todo parece muy verde, pero los ejemplos que pueden verse en su web dejan bastante claro por donde puede ir el futuro. Y lo del enfoque -aseguran los investigadores expertos en la matería- es sólo la punta del iceberg.

Así que, ¿algún futurólogo en la sala se atreve a predecir cuantos años habrá que esperar para que lo de enfocar sea una cosa del pasado?

Loading Facebook Comments ...

  8 Responses to “¿Te acuerdas cuando había que enfocar?”

  1. No es tan sencillo el tema si es que se pretende lograr tomas de gran nitidez, debemos recordar que finalmente la cantidad de información para lograr una buena toma en una reflex hoy en día es del orden de entre 10 Mb a 70 Mb (en las últimas Nikon D800) si ademas suponiendo que consiguieramos la misma calidad en una plenoptica, la información para mantener esa calidad de imagen necesariamente debe multiplicarse. La plenoptica es muy interesante y aún le queda muchisimo por avanzar para llegar a la calidad de una reflex, pienso que va de la mano con la tecnología de sensores, procesadores y memorias, también de lentes, creo que la investigación que se está desarrollando va muy bién enfocada (jejeje, volvemos al tema del enfoque) ojalá los investigadores en este campo y sus asociados (sensores, memorias, procesadores, lentes, etc.) tengan mucho éxito, Mucha suerte a todos ellos y a las generaciones venideras.

  2. […] y no muy caro pasarán a la historia de la fotografía. Lo comentábamos hace no mucho por aquí: el enfocar se va a acabar. Mira, ya tienen lema comercial para la nueva […]

  3. No sé, no quiero parecer involucionista, pero me gusta más la idea de decidir el punto de enfoque (igual que la exposición, el encuadre…) en el momento de la toma.
    No sé, además, qué calidad de desenfoque se consigue.
    No obstante, supongo que puede tener aplicaciones prácticas, aunque algo alejadas del arte de la fotografía.

  4. El pelotazo seria poder ver esas imagenes en una pantalla y que se enfocara la zona de la foto a la que dirigimos la vista en cada momento (hay sistemas de seguimiento ocular ya funcionando por ahi) tal y como hace nuestro cerebro con una imagen tridimensional. Estoy convencido que se conseguiria un espectacular efecto 3D de profundidad. Luego si tengo tiempo les mando un SMS a los californianos explicandoles mejor la idea.

    P.D: Felicidades con retraso Iker!!

  5. La imagen detras del tabique mas bien es la imagen del espejo convexo esos espejo tipo ojo de pez de ahi la imagen de lo que aparentemente no se ve.

  6. También Blade Runner es mi película favorita, la escena de la foto escaneada con la imagen oculta detrás de un tabique me parece un fallo, ya que considerando que la imagen fuera estereoscópica, los puntos de vista deberían estar demasiado separados para un espacio que simula una habitación, por lo que la cámara con la que estuviera capturada la imagen sería de unas proporciones enormes; pero claro, siendo ciencia ficción, porqué no puede haber lentes por distintos lugares para después hacer el encuadre que más interese a modo de imagen tridimensional e incluso con movimiento del plano focal.

  7. […] Artículo en el blog de Iker Morán ;  Lytro: Más info  (poquísima) ;  ejemplos (pura simulación) Etiquetas: Lytro • Plenoptica  […]

  8. Mmmm… me recuerda a mi película favorita, “Blade Runner”… una foto que puede girar!!! Interesante… veremos en que queda la cosa…

 Leave a Reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>