En la entrega anterior hacíamos un repaso de algunos elementos básicos relacionados con la tecnología que encierra el interior de nuestras queridas cámaras de fotos, en concreto lo relacionado con el sensor. En el artículo de hoy vamos a seguir profundizando en este importante asunto, adentrándonos en conceptos un poco más complejos, pero no por ello menos necesarios. Agarraos fuerte, que vienen curvas conceptuales.
Convirtiendo fotones en números
Me daría por satisfecho si del artículo del otro día os quedarais con la idea de que el proceso de captar la luz por parte de los sensores es complejo y una auténtica demostración de ingenio por parte de un montón de científicos e ingenieros a lo largo de más de cien años. Con todo, esto no dejaría de ser un dato enciclopédico y anecdótico más, de no ser porque comprender a fondo el funcionamiento del sensor nos puede ayudar a hacer revelados más «racionales», aprovechando las fortalezas y huyendo de las debilidades de la forma en que se han diseñado nuestras cámaras.
En este sentido, el mismo proceso de transformación de fotones en impulsos eléctricos, y estos en información binaria (el paso analógico-digital) resulta muy relevante, y podemos aprovecharlo en nuestro beneficio. ¿Cómo? no tengáis prisa, vamos poco a poco…
Vamos a inventar colores
Tenemos que remontarnos a 1869 para darle coherencia a este relato. En ese año, el físico británico James Clerk Maxwell (por cierto, padre de la teoría electromagnética, así que no era un donnadie el caballero) y el fotógrafo Thomas Sutton (básicamente, el inventor de las cámaras réflex, así que la pareja se las traía, sí) creaban al alimón el primer método para captar los colores en fotografía, utilizando para ello un ingenioso método: tomar tres fotografías en blanco y negro, cada una de ellas interponiendo ante el objetivo un filtro de un color determinado, rojo, verde y azul respectivamente. Una vez tomada cada foto, se proyectaron usando en cada uno de los proyectores otros tres filtros de los colores correspondientes: el resultado, al mezclar las tres imágenes, fue una imagen en color.
Este es el inicio de la fotografía en color moderna, que en lo puramente conceptual no ha cambiado mucho desde este primer experimento de finales del siglo XIX. El uso de filtros, de hecho, usa los mismos principios en la fotografía digital actual, incluidos los tres colores básicos, rojo, verde y azul, en los que se denomina modo de color RGB. Más adelante os hablaré de los modos de color, por ahora nos quedamos con la idea de los filtros de colores; en realidad nuestros sensores sólo captan imágenes en escala de grises, es decir, sin color. Mediante el uso de filtros ayudamos al sensor a recoger longitudes de onda que corresponden con estos tres colores básicos mencionados y, a partir de ahí, se mezclan e interpretan para obtener los colores «reales». Y entrecomillo de lo de «reales» porque, como iréis viendo, e imagino ya estáis intuyendo, los colores que vemos en nuestras fotos tienen más de ingeniosa interpretación de la realidad por parte de ingenieros y programadores que de copia literal de la misma.
Para empezar, el primer problema. Si el sensor es una superficie plana, ¿Cómo es posible replicar la técnica de Maxwell-Sutton? Porque no tenemos tres sensores para tres longitudes de onda, y ni mucho menos podemos tomar tres fotografías cada vez… Bien, la solución es sencilla, aunque resulte un tanto descorazonadora si lo pensamos con atención: Sencillamente, se atribuye a cada pixel un filtro de un color determinado, y más adelante se completa la información «intuyendo» e «inventando» el color de sus vecinos.
El patrón Bayer
Si os habéis quedado un tanto desorientados por las afirmaciones vertidas en el párrafo anterior, no os preocupéis, es normal. Voy a explicarlo con más detalle, para que quede todo bien claro.
Efectivamente, la cuestión es cómo tomar «tres imágenes» usando solo una superficie sensible. La solución, como de costumbre, está en las matemáticas. Para entenderlo, vamos a echarle un vistazo a la siguiente imagen, que es un clásico de los artículos de este tipo:
He aquí el truco: distribuimos los diferentes colores formando un patrón; después, al enviar la información analógica recogida al procesador de la cámara, este se encargará de calcular, basándose en las proporciones de color e intensidad recogidas por los diferentes grupos de píxeles, de adjudicarle un color determinado a cada píxel. Dicho de otra manera: en la fotografía que encabeza este artículo abundan los colores rojizos, pero no existen los tonos azulados. Pero mi cámara tiene esos píxeles que recogen el color azul… en realidad, lo que hace mi cámara es interpretar la información tonal, y ella solita llega a la conclusión de que si todos los píxeles que rodean a un píxel «azul» tienen colores rojizos… el píxel «azul» debe devolver un color rojizo. Es lo más probable. Y el truco funciona.
Así es: nuestra cámara simplemente inventa información. Pero no os rasguéis las vestiduras aún: en realidad, esto de inventarse datos es un procedimiento bastante habitual en la fotografía digital. De hecho, es básicamente en lo que consiste la fotografía digital. Es tan importante, que este proceso recibe un nombre, que encontraremos por aquí y por allá a lo largo de toda esta serie de artículos: es lo que se denomina como «interpolación».
En lo que respecta a la interpolación realizada en el momento de paso analógico-digital, esta invención de datos es el método más habitual para conseguir fotografías en color (aunque no es el único) y en general parte del patrón Bayer ejemplificado más arriba. En este patrón se distribuyen los tres filtros de forma desigual: el cincuenta por ciento de los píxeles son sensibles a la luz verde, y la mitad restante se la reparten los «píxeles rojos» y los «píxeles azules». ¿Por qué esta desproporción? Porque, por alguna razón, nuestros ojos son más sensibles a esta longitud de onda que al resto de colores; de modo que es conveniente que nuestras cámaras también recojan lo más fielmente posible esta longitud de onda.
El caso es que esta metodología, si bien es muy ingeniosa, tiene una serie de limitaciones: en primer lugar, deja en manos de un algoritmo la correcta atribución de tonos en la imagen. Esto significa que, a fin de cuentas, dejamos en manos de un programador la fidelidad de la toma, con todo lo que esto conlleva. Más aún si somos de los que nos preocupamos por la apertura del código: obviamente, los algoritmos de interpolación son patentes de cada fabricante, y solo se pueden suponer, más o menos, a través de complejos métodos de ingeniería inversa.
En segundo lugar, no podemos ignorar que cada elemento que se interponga entre el píxel receptor de luz y la luz misma, contribuye a empeorar la calidad de la imagen resultante. Así que estos filtros de color son necesarios, pero en el fondo ayudan a que la foto no pueda ser perfecta, o al menos tan buena como lo que podría proporcionar el sensor «desnudo». No será esta la única limitación técnica de nuestros sensores. Ya en el capítulo anterior mencionaba el hecho de que el tamaño «importa»; en esta ocasión, además de lo mencionado, veremos algún que otro problema más. De momento, la idea importante es que el paso de lo analógico a lo digital tiene un «momento crítico» cuando la unidad de proceso de nuestra cámara interpreta los datos fragmentarios que le transmite el sensor.
¿Qué papel tiene en todo esto el software libre? En realidad, esta es uno de los típicos casos en los que un problema se convierte en una oportunidad. Aunque los algoritmos de interpolación sean secretos y sujetos a patentes, el software libre tiene la ventaja de no atarse a ellos, de forma que, aunque no podamos trabajar con los mismos algoritmos que el software de revelado «nativo» de cada cámara, podemos encontrar software que disponga no solo de uno, sino de varios algoritmos que podemos usar a voluntad. Como veremos más adelante, el estado de cosas actual nos permite ser bastante optimistas en este terreno: a día de hoy la calidad de los algoritmos de interpolación y su variedad nos permiten hacer más cosas que si estuviésemos atados a la forma de interpretar la imagen que nos ofrece (y nos obliga a usar, de hecho) cada fabricante.
Luminosidad, tono, saturación
Bien. A partir de este momento, ya sabemos, más o menos, cómo nuestras cámaras consiguen captar el color. También sabemos que en realidad, lo que constituye un archivo de imagen no son más que números. Pero ¿A qué realidad aluden esos números? Dicho de forma resumida, cada píxel contiene información relativa a tres propiedades de la luz: la luminosidad, el tono y la saturación. Vamos a verlas por separado.
El tono
Generalmente lo denominamos «color», pero en realidad, deberíamos llamarlo «tono». El tono es básicamente la longitud de onda concreta que representa en píxel determinado. Los diferentes «colores» que conocemos son diferentes tonos.
La saturación
La saturación corresponde con la «pureza» de un tono determinado. Una saturación del 100% corresponde con la forma más pura de un tono determinado; si este porcentaje baja la saturación disminuye y el tono se muestra más apagado, hasta quedarse en gris neutro si la saturación es del 0%.
La luminosidad
Corresponde con la cantidad de luz que emite o refleja un objeto. una luminosidad del 100% corresponde con el máximo que puede recoger un sensor. Jugando con colores, un tono al 100% de saturación y al 100% de luminosidad es la representación más pura de dicho tono; si la saturación es del 0%, una luminosidad del 100% corresponde con el color blanco puro, y del 0%, negro puro.
Teniendo en cuenta estas tres características de nuestros píxeles, ya estamos mas preparados para interpretar ciertos datos proporcionados por diversos programas de edición fotográfica:
En la imagen anterior, podemos interpretar fácilmente los números que corresponden a las letras H, S, V, de la derecha: la H corresponde con el tono «hue», la S corresponde con la saturación «saturation», y la V con la luminosidad o «Value». También podemos aplicar lo aprendido más arriba para interpretar las otras letras: R, G, B corresponden con los diferentes filtros de color rojo, verde y azul, respectivamente.
En el caso de la imagen anterior, por ejemplo: el color seleccionado tiene unos valores de 0 para el tono y 100 para luminosidad y saturación. Sin duda, se trata de un color rojo puro. En cuanto a la información RGB, se confirman nuestras sospechas: los canales verde y azul están a cero, mientras que el canal rojo tiene 255, que es el máximo. Confirmado: es más rojo que el octubre de 1917.
Llegados a este punto ya sabemos más o menos qué información es capaz de recoger nuestro sensor, y cómo hace para recogerla. A partir de ahora, vamos a ver qué podemos hacer con esta información, es decir, cómo interactuar con nuestro sensor directamente.
Rango dinámico, ISO y ruido
Una vez introducidas las peculiaridades de estas pequeñas obras maestras de la ingeniería que son los sensores, vayamos a lo práctico. ¿Cuáles son las características principales de nuestros sensores que pueden ser detectadas en el momento de ver una fotografía y, aún más importante, cómo puedo «controlar» o «interactuar» con el sensor de mi cámara?
Los tres conceptos que encabezan este apartado son la respuesta. Son solo tres (sorprendente, teniendo en cuenta la importancia que le he atribuido a este componente), pero son tres elementos que pueden significar la diferencia entre una fotografía «de calidad» y una foto algo más «vulgar». Así que vamos a repasarlos uno por uno, teniendo en cuenta que, según vayamos avanzando en el manual, voy a tener que aludir a ellos en bastantes ocasiones. Debemos tener en cuenta también que estos tres conceptos están íntimamente relacionados entre sí, y que todos ellos, como no podía ser de otra forma, tienen mucho que ver con las características técnicas y de construcción del propio sensor.
El rango dinámico
Cuando hablaba de cómo está hecho un sensor puede que haya dado creado una imagen un tanto distorsionada. Si tuviésemos la oportunidad de observar un sensor fotográfico al microscopio, o, mejor aún, tener entre manos un esquema detallado de la construcción de uno de ellos, no nos encontraríamos con una superficie homogénea completamente cubierta de «suaves píxeles». En realidad, cada uno de los fotorreceptores están encapsulados, cubiertos de filtros y microlentes… lo cual no sería relevante si no fuera porque precisamente todos estos elementos que ayudan a los fotorreceptores son una de las causas de sus problemas, me explico: los componentes que contribuyen al funcionamiento del sensor ocupan espacio físico en este, haciendo que la superficie del mismo no esté enteramente «cubierta de sensores». Para colmo, estos fotorreceptores no están en la misma superficie, sino que sobre cada uno de ellos se superponen diversos filtros transparentes que permiten captar los fotones de forma adecuada. Para completar el panorama, un conjunto de diminutas lentes se encargan de hacer rebotar los fotones hacia el espacio justo donde se sitúa el fotorreceptor, lo cual, como habréis adivinado, introduce un factor de distorsión a la luz capturada.
Bien, todo esto tiene consecuencias: los sensores fotográficos no son, ni de lejos, los mejores instrumentos que existen a la hora de captar la luz. La misma fotografía química lo puede hacer mejor y, con mucha diferencia, nuestros propios ojos (o más bien, nuestros humildes ojuelos conectados a nuestro prodigioso cerebro) son máquinas mucho más eficientes.
Esto se puede evidenciar con un simple experimento. En un día despejado, al mediodía, simplemente salid a la calle y echad un vistazo al mundo que os rodea: veréis, imagino, un cielo azul, con más o menos nubes blancas, luminosas, con delicados detalles; zonas de penumbra bajo las copas de los árboles, moteadas con manchas de luz que atraviesa el follaje. Y zonas aún más oscuras donde la luz no alcanza, por estar a contraluz o tapadas por otro objeto mayor. Bien, fijaos con atención: todo lo que veis tiene detalle: no importa cómo de blancas y luminosas sean las nubes, siempre veréis sus delicadas volutas y sus contornos vaporosos; y no importa cómo de profunda sea la sombra que proyecta este semáforo o aquella papelera, delante de el, en pleno contraluz, podréis distinguir sin lugar a dudas las grietas del asfalto o la goma de mascar que algún cochino ha dejado pegada en el suelo.
Llegados a este punto, os recomiendo que continuéis el experimento de la siguiente forma: sacad vuestra cámara (no importa cuál, de hecho si puede ser la del teléfono, mejor) y tomad una foto. Ahora comparad lo que veis en la fotografía con lo que hay en realidad: probablemente la cámara muestre el cielo de color blanco, el azul ha desaparecido. O quizá lo contrario: aquellos finos detalles de las sombras se han transformado en una fea mancha negra.
Si ves algo parecido en tu cámara a lo que reproduzco en la foto anterior, enhorabuena: has encontrado los límites del rango dinámico de tu cámara, y demostrado que tu ojo (insisto, la conexión «ojo-cerebro») ve mucho mejor que tu flamante réflex último modelo.
Y es que en realidad nuestros ojos tienen la inestimable ayuda de nuestro cerebro para compensar los mismos limites de lo que pueden realmente ver. Nuestro ojo hace correcciones permanentes, las más de las veces «inventándose» la información (sí, la naturaleza también interpola todo lo que puede) para ofrecer al «usuario» la mejor visión posible. Esto, unido a una construcción de nuestros globos oculares bastante pulida tras millones de años de paciente proceso evolutivo, hace que la capacidad que tenemos para ver detalles en situaciones de mucha luz y/o bastante oscuridad sea muy buena.
En cambio, con las cámaras nos encontramos la situación que os mencionaba antes, de sensores que no están al cien por cien cubiertos de células fotorreceptoras, y que no son capaces de recuperar de manera óptima todos y cada uno de los fotones que reciben. El resultado es que nuestras cámaras no se comportan demasiado bien en una situación como la que os mencionaba antes: si el entorno combina zonas muy luminosas con zonas muy oscuras, nuestra cámara va a tener dificultades en recoger información de ambas zonas, y va a tener que renunciar a una de ellas. El resultado es que o bien se renuncia a las zonas luminosas (quedando una bonita zona blanca sin detalle, llamada de luces «quemadas») o bien se renuncia a las oscuras (y tendremos una preciosa mancha negra, llamada sombra «empastada»). En el peor de los casos, nuestra cámara no podrá recoger detalle ni de luces ni de sombras, y tendremos un precioso churro que subir a nuestro Instagram, filtro mediante para maquillar el desaguisado.
Estupendo, aquí tenemos unos cuantos conceptos claves. En primer lugar, a la diferencia entre zonas oscuras y luminosas es a lo que llamamos «contraste»; en segundo lugar, y para lo que nos ocupa, más importante: a la diferencia máxima entre zonas oscuras y luminosas (es decir, de contraste) que es capaz de captar un sensor se le denomina rango dinámico. Y sí, lo has adivinado: cuanto más rango dinámico tenga tu sensor, más contraste será capaz de recoger… y eso es bueno.
En realidad todos estos conceptos son un poco más complejos y técnicos de lo que estoy explicando aquí, pero creo que como resumen es válido. Uno de los secretos de la fotografía es conocer bien cuál es el rango dinámico de nuestra cámara y procurar que las imágenes que tomemos estén dentro de este rango. Por eso es necesario saber «medir» la imagen y ajustar nuestra cámara de forma adecuada. Pero habrá oportunidad de hablar de ello en el futuro.
Para liar más las cosas, la forma en que nuestras cámaras captan la luz es muy especial y los sensores se encuentran mucho más a gusto captando escenas bien iluminadas, es decir: no les gustan las sombras. Aunque abundaré en ello cuando me toque hablar del histograma, es importante mencionarlo en este momento, porque le llega el turno al dichoso ruido. Y esperando haberos dejado intrigados con semejante cliffhanger, me despido de vosotros hasta la siguiente entrega.
Nota: La imagen que encabeza este artículo es mía y se puede usar libremente. El resto de las imágenes de este artículo son mías (y podéis usarlas libremente, indicando la fuente) o tienen su correspondiente licencia que me permite usarlas (indicada en el pie de foto).
Muchas gracias jen0f0nte . Te sigo desde hace varios años en tu http://unade25.blogspot.com/, el cual aún sigue vivo. Me gusta mucho la fotografía y ese blog es para mi un lugar de referencia, y por lo que veo este nuevo lugar lo seguirá siendo también.
Tus aportaciones y las de los compañeros de «Colaboratorio» son muy valiosas para mi.
Mucho ánimo y un saludo.
Buenas noches.
Lo primero de todo pedirte disculpas si el comentario es un poco trasnochado, pero esta serie me interesa mucho y aunque suelo hacer una lectura rápida al publica sólo ahora he podido comenzar una lectura más tranquila de la misma.
Hay un tema del que he leído algo y del que esperaba haber encontrado algo en esta entrada, y no es otro que el «ISO nativo» o «ISO base», que creo por lo que he visto por ahí no son exactamente lo mismo.
Por ejemplo a lo que parece en mi cámara, una Nikon D3000, al parecer el ISO nativo es 200
¿Podrías aclararme algo este punto?
Gracias y enhorabuena por este fabuloso proyecto
Generalmente lo denominados “color”, pero en realidad, deberíamos llamarlo “tono”
«si el entornos combina zonas»
«filtro mediante para maquillar el desaguisado» ajajaja tal cual!
Mis comentarios anteriores son correcciones ortográficas/gramaticales. Disculpas pero no sé de qué otra forma puedo aportar correcciones. Un saludo!