Historia(s) de la Imagen Digital | MARISA GÓMEZ


.
«Cometeríamos un error grotesco de subestimación si quisiéramos interpretar
el apuntador del ratón de un Macintosh como resultado de un proceso evolutivo del lápiz»

– Gui Bonsiepe,
Sobre Función, Forma, Diseño y Software

Normalmente, cuando pensamos en una «historia de la imagen digital» la asociamos inmediatamente a la propia historia de la informática. Sin embargo, cuando tratamos de reconstruir estas dos historias paralelas desde la perspectiva actual, la supuesta línea histórica que llevó de la fotografía analógica a la simulación 3D resulta difícil de reconstruir. Es evidente que su desarrollo es inseparable de la propia historia de los medios tecnológicos tradicionales de la imagen. Seguramente, el problema reside en que bajo la etiqueta «imagen digital» se engloban multitud de formas y manifestaciones de las imágenes producidas y reproducidas con medios digitales. Por ello, este texto se propone llevar a cabo una arqueología de la imagen digital que ponga de relive que quizás no es posible escribir una única historia de su desarrollo, sino que explorar las raíces históricas y tecnológicas de la imagen digital en relación a los medios implica escribir tantas historias como manifestaciones de la imagen digital podamos considerar. 

La imagen digital es una traducción, la representación bidimensional de una imagen empleando bits, unidad mínima de información compuesta por dígitos binarios (1 y 0), que son los que regulan los sistemas informáticos y cualquier dispositivo de tipo digital. Pero para nuestro objetivo nos interesa especialmente distinguir entre dos tipos de imágenes digitales, en función del modo en que son obtenidas: Imagnes Digitales Procesadas (IDP) e Imágenes Digitales de Síntesis (IDS).

Las IDP resultan de lo que se conoce como «procesamiento de imágenes», que consiste en almacenar digitalmente materiales visuales previos – por ejemplo, fotografías, reproducciones fotográficas, películas o vídeos – para trabajar posteriormente sobre ellos y alterarlos/manipularlos de múltiples maneras. Es decir, son imágenes obtenidas a partir de dispositivos de conversión analógica-digital, como los escáneres o las cámaras digitales y pueden ser manipuladas digitalmente a través de software, pero éste no interviene directamente en su proceso de creación.

Por su parte, las IDS – también llamadas infografías- se sitúan en el entorno de la «Computación Gráfica». Se obtienen a través de software, produciéndolas enteramente a través de algoritmos y sin necesidad de referente real, por ejemplo realizando dibujos con el ratón o por medio de programas de renderización 2D y 3D. Es decir, se basan en la introducción de datos matemáticos en la memoria del ordenador, el cual describe o modela, y después almacena las imágenes que debe generarse. Estas imágenes generadas pueden manipularse también de diversas maneras. Las imágenes digitales de sintesis entran en el terreno de la «simulación digital». 

Aunque esta distinción puede parecer obvia, es importante en términos de reconstruir «una»  historia tecnológica-cultural de la imagen digital. Si pensásemos linealmente la historia de los medios de la imagen, diríamos que el desarrollo tecnológico y teórico que posibilitó el procesamiento de imágenes dio lugar en un momento determinado – a partir del desarrollo del ordenador y sus lógicas de multimedialidad que absorben el resto de los medios visuales – al desarrollo de la imagen de síntesis. Y es así hasta cierto punto; es decir, las imágenes de síntesis no serían posibles sin muchos de los desarrollos en el campo del procesamiento visual. Pero ¿y si tratamos de reconstruir una historia no tal lineal, desde la que podamos valorar el impacto del ordenador como herramienta, no sólo de procesamiento y manipulación, sino sobre todo de construcción de imágenes y lenguajes visuales?

El procesamiento de Imágenes Digitales

Lógicamente, si hablamos de imagen digital asociada a la informática, tendremos que situarla en la década de los 50, es decir, ligada al desarrollo efectivo de los primeros ordenadores. Sin embargo, el concepto de imagen digital, asociada al procesamiento, se remonta a la década de 1920. Una de sus primeras aplicaciones fue el envío de imágenes para prensa entre Londres y Nueva York, en un intento por reducir el tiempo para transportar una imagen a través del Atlántico de más de una semana a algo más de tres horas. Esto se consiguió gracias al sistema de transmisión por cable Bartlane, que codificaba las imágenes en señales eléctricas que se reconstruían al otro lado de la línea telegráfica y se imprimían usando tipografías que simulaban un modelo de semitonos, primero con sólo 5 niveles de gradación, pero que en 1929 llegaban ya a los 15.   

Años más tarde, en 1957, Russell Kirsch, un científico del National Institute of Standards and Technology creo la que se considera la primera imagen digital, recreada (no producida) en píxels. Para ello, Kirsch utilizó un porto-escáner que transformó la imagen de su hijo de tres meses en una matriz de ceros y unos, permitiendo visualizarla en el  SEAC, único ordenador programable que existía entonces en EEUU y disponible precisamente en el NIST.

Esta es la considerada primera imagen digital de la historia. Tenía una resolución de sólo 175×175 píxels, algo inevitable teniendo en cuenta la casi nula capacidad de almacenamiento que tenía el ordenador al que iba unido el primitivo escáner que la hizo posible.

Aunque este tipo de avances en el procesamiento de imágenes y las mejoras en los métodos para transmitir imágenes electrónicas continuaron a lo largo de toda la primera mitad del siglo XX, el verdadero desarrollo del potencial de los conceptos de la imagen digital no se dio hasta que se combinaron los primeros grandes ordenadores digitales con los intereses de la exploración espacial y los avances médicos en la década de 1960. Fue entonces cuando empezaron a probarse técnicas de manipulación de imágenes electrónicas utilizando el ordenador para mejorar las imágenes recibidas por las sondas espaciales. La tecnología de base era de las transmisiones y la grabación de imágenes televisivas en tiempo real, desarrollada ya desde los años 50. Estas imágenes electrónicas se escaneaban a baja velocidad para codificarlas digitalmente para luego escanearlas y volver a transmitirlas. Por ejemplo, en 1964 se procesaron varias imágenes de la luna transmitidas por el Ranger 7 para corregir las distorsiones que generaba la cámara de TV a bordo de la sonda. El MIT, los laboratorios Bell y varias universidades de USA que disponían de ordenadores empezaron también a explorar el potencial de las imágenes digitales para el desarrollo de la fotografía, las técnicas de la imagen médica – por ejemplo, los primeros TACs para diagnóstico por imagen verían la luz a principios de 1970 – la o video-telefonía, así como a desarrollar los primeros algoritmos sistematizados para la manipulación de imágenes o para seleccionar y «limpiar» la información visual presente en las imágenes electrónicas.

En los años 70 se produce un importante salto cualitativo y cuantitativo en la tecnología de la imagen digital con el desarrollo de los microprocesadores, que permitieron no sólo ampliar la capacidad de procesamiento y almacenamiento de imágenes, sino también el desarrollo del CCD  o «dispositivo de carga acoplada», un sensor con diminutas células fotoeléctricas capaces de registrar la imagen. Efectivamente el CCD fue fundamental para el desarrollo de las cámaras digitales y es aún un componente fundamental en ellas, en cualquiera de sus formas.

Así, en 1975 Kodak construyó y presentó la primera cámara digital y sólo un año después se inventó la matriz de filtros e color, que permitía captar los pixels de la imagen en color. A falta de mejoras en la resolución de las imágenes – que dependían de la cantidad de células fotoeléctricas que pudiesen llegar a incluirse en el CCD – las bases de la fotografía digital tal como hoy la conocemos estaban totalmente definidas en 1976. En el caso de las videocámaras, aunque los primeros pasos hacia la digitalización se dieron ya a principios de los años 80 la primera totalmente digital fue presentada por Fuji en 1988.
.

Arriba: Steven Sasson, ingeniero de Kodak con la primera cámara digital.
Abajo: Prototipo de las funcionalidades de la primera cámara digital de Kodak.
.

Sin embargo, los costes de producción eran inabarcables para el mercado y en un primer momento – al igual que los propios ordenadores – estos dispositivos permanecieron en manos de gobiernos, organizaciones científicas y grandes corporaciones de prensa y medios de comunicación. Por otro lado, hay que tener en cuenta que la calidad de la imagen de las primeras cámaras digitales era, en la mayoría de los casos, muy inferior a la que se podría obtener con las analógicas, por lo que era difícil también colocar en el mercado un producto que, además de caro, no podía garantizar los resultados esperados. Sin embargo, es interesante mencionar que durante la década de los 80, especialmente en EEUU, la imagen digital fue enormemente explotada en el ámbito del fotoperiodismo, bajo una lógica de que la calidad de la imagen de un evento no importaba tanto como ser el primero en publicarla. Sólo el desarrollo de las computadores personales en los años 80 y el considerable incremento de la calidad visual que podían alcanzar estos dispositivos, sentó las bases para que todas esas herramientas de procesamiento de imágenes digitales pudiesen tener una demanda real de mercado, que disparó la producción y abarató enormemente los costes. La primera cámara digital vendida masivamente que funcionaba con un ordenador doméstico a través de una conexión por cable, la Apple Quick Take, salió al mercado en 1994.

Imágenes Digitales de Síntesis

¿En qué punto de esta historia se inscribe y se desarrolla la imagen de síntesis? Seguramente ya se ha hecho evidente que se sitúa en otra línea de desarrollo histórico-tecnológico, que no es la de los escáneres, la TV o las cámaras, sino la del propio computador. Y su desarrollo no respondió inicialmente a la voluntad estética – digamos, espectacular, que seguramente le atribuimos hoy en día – sino a una necesidad básica de comunicarse con los ordenadores. Por tanto, los primeros pasos de la computación gráfica están ligados del desarrollo de la Interfaz, y más concretamente a las pantallas – principal soporte para la comunicación visual con los ordenadores – y la Interfaz Gráfica de Usuario.

En este sentido, uno de los visionarios de las nuevas posibilidades que ofrecía la computadora fue Douglas Englebart, quien en los años 30 diseño un prototipo de máquina llamada Memex  que tenia la  finalidad de permitir que una persona pudiera acceder a todo el conocimiento humano navegando a través de la información con tan sólo algunos clicks. Este dispositivo, tendría el aspecto de un escritorio, pero incluía no sólo un teclado y un escáner, sino también dos pantallas táctiles gráficas. Tanto las ideas de Bush – que constituyen el origen conceptual no sólo de la interfaz, sino también del hipertexto – como el propio dispositivo, resultan hoy de lo más simple en nuestra relación con las tecnologías. Sin embargo, en su día, cuando el ordenador digital ni siquiera había sido inventado, las ideas de Bush fueron descartadas como algo descabellado y nunca pasaron de ser una elaborada teoría.
.

Diseño de Memex de Vanenvar Bush
.

Pero a partir del desarrollo del ordenador ENIAC en los años 40, empieza a desarrollarse el concepto informático – y la necesidad real – de una interfaz. Las ideas de Bush sobre las posibilidades del ordenador no sólo toman fuerza, sino que se empieza a trabajar efectivamente en la introducción de dispositivos de visualización que permitirían al usuario de una computadora observar los resultados del procesamiento en el dispositivo. Así, en 1950 se presentó Whirlwind, la primera computadora que utilizó un CRT (Tubo de Rayos Catódicos) como dispositivo de visualización, construida en el MIT para simular vuelos de entrenamiento de los escuadrones de bombarderos de la marina de Estados Unidos. Durante la década de los 50 también continuó el desarrollo de los dispositivos de entrada. El sistema para la defensa espacial SAGE, desarrollado para convertir los sonidos de detección de un radar en imágenes, fue el primero en emplear un lápiz óptico para seleccionar símbolos en la pantalla.

El desarrollo de los videojuegos fue fundamental en esta historia de la imagen digital: en 1952 se creó el considerado primer videojuego de la historia con el nombre de OXO. Fue producto de la tesis doctoral de Alexander Sandy Douglas en la Universidad de Cambridge para demostrar la interactividad entre computadoras y seres humanos. El juego era una versión del conocido “Tres en raya” y fue escrito para la computadora EDSAC. Más tarde, en 1961 un estudiante del MIT, Steve Russell dirigió un equipo que creó el primer videojuego interactivo de naves espaciales: el Spacewar.


Vista de la gráfica y la interfaz de Spacewar
.

También durante la década de los 60, el trabajo de Ivan Shuterland fue fundamental en materia de imágenes de síntesis. Inspirado por Bush, Ivan Shuterland desarrolla como producto de su investigación doctoral el sistema Sketchpad (1963), descrito como un «sistema de comunicación gráfica hombre-máquina».

Esta invención proyectaba en una pantalla una realidad gráfica virtual por medio de la cual el humano pudiera interactuar con la máquina de manera táctil, imitando la acción de la escritura con lápiz. A través de él, el programa permitía dibujar formas simples en la pantalla, guardarlas y volver a cargarlas más tarde. A nivel gráfico, lo más revolucionario de Sketchpad es que trabajaba sobre un modelo del objeto, y no sobre el dibujo mismo, introduciendo una estructura jerárquica interna de los gráficos y la utilización de sistemas de coordenadas para organizar el espacio del ordenador. Muchas de estas técnicas se siguen utilizando hoy en día y marcaron un verdadero cambio de paradigma dentro de la informática, no sólo como medio visual sino también como medio cuya relación natural con los usuarios era la interactividad.

 

Ivan Shuterland trabajando con Sketchpad
.

Poco tiempo más tarde, Douglas Englebart, también tomó las ideas de Bush para imaginar un sistema de display organizado por tubos de rayos catódicos que permitiría a los usuarios construir modelos de información gráficamente. El trabajo de Englebart y su equipo se materializó en un nuevo prototipo de ordenador que tenía tres dispositivos de entrada: un teclado qwerty, otro teclado adicional con cinco teclas, y un rectángulo con tres botones que se conectaba con un cable a la computadora, es decir, un ratón. Éste venía acompañado de toda una interfaz gráfica primitiva para permitir un mejor manejo del sistema.
.

El prototipo de Englebart. 1968

Pronto las compañías informáticas empezaran a interesarse por la computación gráfica. En 1970, IBM lanzó al mercado la primera computadora comercial con sistema gráfico. También es esta época, los planteamientos de Englebart fueron directamente recogidos por la empresa Xerox Parc, que comercializaó Alto, una computadora con una GUI creada para ser utilizada con la también nueva impresora Xerox: tenía un display del mismo tamaño que la hoja impresa, con una resolución de 606 por 808 píxeles y el equipo contaba con una versión moderna del ratón de Englebart. El cursor se transformó en lo que hoy conocemos, la flecha, y podía transformarse en otras formas de acuerdo con la tarea realizada.
Ya en los años 80, Apple recoge el testigo de Xerox y continúa desarrollando la idea de interfaz gráfica. El ordenador Lisa se considera el primero comercializable a precio asequible con GUI plenamente operativa incluida. Para él, los diseñadores de Apple eligieron un diseño de interfaz basado en iconos que representaban un documento o un programa, con una barra de menú . Lisa fue rápidamente sustituido por Apple I y II, que desarrollarían el conocidísimo sistema de ventanas que funciona sobre la metáfora del escritorio. Además, incluían el software MacPaint, un primitivo software de dibujo que permitía a los usuarios crear sus propias imágenes desde cero. La interfaz de Lisa.
Apple introdujo además en la informática doméstica los iconos: pictogramas que se utilizan para representar
archivos, carpetas, programas, unidades de almacenamiento, etc. en un sistema operativo gráfico y que en la actualidad puede representar cualquier cosa que los usuarios quieran, cualquier comando o proceso, o cualquier otro indicador.
La historia se nos hace más conocida ya en los 90, cuando Microsoft define el sistema GUI como el modelo visual absolutamente predominante en la relación humano-máquina a través de Windows.
.

Iconos de la diseñadora Susan Kare, que sentó las bases para los iconos informáticos que manejamos en la actualidad.
Arriba, Iconos de Apple (1983-84); Centro, Tipografía Cairo para Apple; Abajo, Iconos para IBM (1989)

Conclusión

Por supuesto, habría mucho que decir sobre la propia historia de la representación en la imagen digital de sínstesis – desde las primeras representaciones esquemáticas y abstractas hasta la actual estética foto/hiperrealista. Y también habría mucho que decir sobre las diferencias ontológicas entre la imagen digital procesada y la de síntesis, aunque lo cierto es que en contexto actual, ambos precesos se han integrado tanto que a menudo de confunden bajo el paraguas del término «imagen digital». Pero si rastreamos su genealogía, se hace evidente que siguen líneas de desarrollo distintas y que reponden a lógicas diferentes que permiten reconstruir una historia de historias cruzadas sobre la misma realidad. 

Bibliografía

JULLIER, Laurent, La Imagen Digital: De la Tecnología a la Estética, Buenos Aires, La Marca, 2004

GRAU, Oliver (ed), Imagery in the 21st Century, Cambridge, MIT Press, 2011

WIEBEL, Peter, Curso “Arte Algorítmico. De Cezane a La Computadora”, impartido por el teórico. Seminario Peter Weibel, organizado por UNESCO y MECAD/ESDi (2004)