Ni las enciclopedias ni Google sirven para contestar a preguntas que parecen tan sencillas como quién inventó el primer ordenador. Si empezamos a investigar, enseguida nos encontramos con muchas respuestas diferentes; y la mayoría de ellas son correctas. Buscar una respuesta nos invita a recorrer la historia de la informática, a conocer a sus verdaderos pioneros y a descubrir que aún no está del todo claro qué es una computadora.
Charles Babbage y el ordenador mecánico
ntes de Babbage las computadoras eran humanas. Ese era el nombre de las personas especializadas en cálculos numéricos; aquellas que se pasaban el día realizando operaciones aritméticas, repitiendo una y otra vez esos procesos y dejando los resultados de sus cálculos escritos en tablas, que se recopilaban en valiosos libros. Esas tablas les hacían la vida mucho más fácil a otros especialistas, cuya labor era usar esos resultados para todo tipo de tareas: desde los oficiales de artillería que decidían cómo había que apuntar los cañones hasta los recaudadores que calculaban impuestos, pasando por los científicos que predecían las mareas o el movimiento de los astros en el cielo.
Así, a finales del siglo XVII Napoleón encargó a Gaspard de Prony la revolucionaria tarea de producir las más precisas tablas logarítmicas y trigonométricas (con entre 14 y 29 cifras decimales) jamás realizadas, para afinar y facilitar los cálculos astronómicos del Observatorio de París, y para poder unificar todas las medidas que realizaba la administración francesa. Para aquel colosal encargo, de Prony tuvo la genial idea de dividir los cálculos más complejos en operaciones matemáticas más simples, que podían realizar computadores menos cualificados. Y esa manera de agilizar el trabajo y de evitar errores fue una de las cosas que inspiró al inglés Charles Babbage (26 diciembre 1791 – 18 octubre 1871) para dar el siguiente paso: sustituir a los computadores humanos por máquinas.
Babbage está considerado por muchos el padre de la informática por aquella visión, que en realidad nunca llegó a hacer realidad. Su primer intento fue la máquina diferencial, que empezó a construir en 1822 y que se basaba en el principio de las diferencias finitas para realizar complejos cálculos matemáticos mediante una serie simples sumas y restas, evitando multiplicaciones y divisiones. Llegó a crear una pequeña calculadora que demostraba que su método funcionaba, pero no fue capaz de fabricar una máquina diferencial para rellenar con datos precisos esas ansiadas tablas logarítmicas y trigonométricas. Lady Byron, la madre de Ada Lovelace, afirmó haber visto en 1833 un prototipo funcional —aunque limitado, tanto en complejidad como en precisión—, pero por aquel entonces Babbage ya había agotado la financiación que le había proporcionado el gobierno británico.
Lejos de desanimarse por ese revés, el matemático, filósofo, ingeniero e inventor Charles Babbage dobló su apuesta. Concentró todas sus energías en desarrollar la máquina analítica, mucho más ambiciosa, pues sería capaz de realizar cálculos más aún complejos mediante la computación de multiplicaciones y divisiones. Una vez más, Babbage no pasó de la fase de diseño. Pero fueron esos diseños que inició en 1837 lo que le convirtieron, quizás no en el padre, pero sí en un profeta de la informática.
En las miles de páginas de anotaciones y bocetos de Babbage sobre la máquina analítica figuraban componentes y procesos que son comunes a cualquier ordenador moderno: una unidad lógica para realizar los cálculos aritméticos (el equivalente a un procesador o CPU), una estructura de control con instrucciones, bucles y sentencias condicionales (como un lenguaje de programación) y un almacenamiento de datos en tarjetas perforadas (una versión primitiva de la memoria), idea que tomó prestada del telar de Jacquard. Babbage incluso pensó en registrar los resultados de los cálculos en papel, usando un dispositivo de salida precursor de las actuales impresoras.
Los hermanos Thomson y las computadoras analógicas
En 1872, un año después de morir Charles Babbage, el gran físico William Thomson (lord Kelvin) inventó una máquina capaz de realizar cálculos complejos y predecir las mareas en un lugar determinado. Está considerado el primer ordenador analógico, compartiendo honores con el analizador diferencial que construyó en 1876 su hermano James Thomson y que fue un modelo más avanzado y completo: lograba resolver ecuaciones diferenciales por integración, utilizando mecanismos de ruedas y discos.
Sin embargo hubo que esperar varias décadas más hasta que, bien entrado el siglo XX, H.L. Hazen y Vannevar Bush perfeccionaron la idea del ordenador analógico mecánico en el MIT (Instituto de Tecnología de Massachusetts). Entre 1928 y 1931 construyeron un analizador diferencial que sí era realmente práctico, pues podía usarse para resolver diferentes problemas —y que, siguiendo ese criterio, podría ser considerado el primer ordenador.
Turing y la máquina de computación universal
Llegados a este punto, aquellas máquinas analógicas ya podían sustituir a las computadoras humanas en algunas tareas y calculaban cada vez más rápido, sobre todo cuando sus engranajes comenzaron a sustituirse por componentes eléctricos. Pero aún tenían un serio inconveniente. Se diseñaban para realizar un tipo de cálculo y, si se querían usar para otro, había que reemplazar sus engranajes o sus circuitos.
Eso fue así hasta que Hasta que en 1936 un joven estudiante inglés, Alan Turing, pensó en una computadora que resolvería cualquier problema que pudiera traducirse en términos matemáticos y luego reducirse a una cadena de operaciones lógicas con números binarios, en las que sólo cabían dos decisiones: verdadero o falso. La idea era reducir todo (cifras, letras, imágenes, sonidos) a ristras de unos y ceros y usar una receta (un programa), para resolver los problemas en pasos muy simples. Había nacido el ordenador digital, pero de momento sólo era una máquina imaginaria.
La máquina analítica de Babbage probablemente habría cumplido (casi un siglo antes) las condiciones para ser una máquina de computación universal de Turing… si hubiera llegado a construirse. Finalizada la II Guerra Mundial —en la que ayudó a descifrar el código Enigma de los mensajes en clave de los nazis— Turing creó uno de los primeros ordenadores como los actuales, que además de digital era programable: podía usarse para muchas cosas con sólo cambiar el programa.
Zuse y el ordenador digital
Aunque Turing estableció cómo debía ser un ordenador en teoría, no fue el primero en llevarlo a la práctica. Ese honor recae en un ingeniero que tardó en ser reconocido, en parte porque su trabajo fue financiado por el régimen nazi en plena contienda mundial. El 12 de mayo de 1941 Konrad Zuse presentó el Z3, que fue el primer ordenador digital plenamente funcional (programable y automático). Como más tarde hicieron los pioneros de Silicon Valley, Zuse tuvo el gran mérito de construir el Z3 en su taller doméstico y logró hacerlo sin componentes electrónicos, sino usando relés descartados de teléfonos. El primer ordenador digital fue, por tanto, electromécánico; y no llegó a hacerse una versión electrónica porque el gobierno alemán descartó financiarla, pues no lo consideraba “estratégicamente importante” en tiempos de guerra.
En el otro bando del conflicto bélico, las potencias aliadas sí le dieron importancia a construir ordenadores electrónicos, usando para ello miles de válvulas de vacío. El primero fue el ABC (siglas de Atanasoff-Berry Computer), creado en 1942 en EEUU por John Vincent Atanasoff y Clifford E. Berry, que sin embargo no era programable ni tampoco “Turing completo”. Mientras tanto, en Gran Bretaña dos colegas de Alan Turing —Tommy Flowers y Max Newman, que también trabajaban en Bletchley Park descrifrando los códigos nazis— crearon el Colossus, el primer ordenador electrónico, digital y además programable. Pero al Colossus, como al ABC, también le faltaba un detalle final: no era “Turing completo”.
El primer ordenador que sí lo era —y que tenía esos cuatro rasgos básicos de nuestros ordenadores actuales— fue el ENIAC, desarrollado en secreto por el ejército de EEUU y estrenado en la Universidad de Pensilvania el 10 de diciembre de 1945, con el fin de estudiar la viabilidad de la bomba de hidrógeno. Para realizar otros cálculos había que cambiar su “programa”, es decir, había que cambiar manualmente de posición multitud de cables e interruptores. El ENIAC, diseñado por John Mauchly y J. Presper Eckert, ocupaba 167 metros cuadrados, pesaba 30 toneladas, consumía 150 kilovatios de electricidad y contenía unas 20.000 válvulas de vacío.
El ENIAC pronto fue superado por otros ordenadores que almacenaban sus programas en memorias electrónicas; también las válvulas fueron sustituidas primero por transistores y finalmente por microchips, con los que despegó la carrera de la miniaturización informática. Pero aquella gigantesca máquina, construida por el gran vencedor de la II Guerra Mundial, inició nuestra era digital. Y hoy sería considerado unánimemente el primer verdadero ordenador de la historia si no fuera porque Konrad Zuse (1910-1995) decidió volver a fabricar en 1961 su Z3, que había sido destruido por un bombardeo en 1943. La réplica quedó expuesta en el Deutsches Museum de Munich y pasaron varias décadas hasta que en 1998 un informático mexicano, Raúl Rojas, se empeñó en estudiar a fondo el Z3 y logró demostrar que podía ser “Turing completo”, algo que ni siquiera su creador (ya fallecido) había considerado.
Centrado en lograr que funcionase, Zuse nunca fue consciente de que tuvo entre sus manos la primera máquina de computación universal. Y de hecho, nunca hizo que su invento operase de esa manera… Entonces, ¿es Charles Babbage, Konrad Zuse o Alan Turing el inventor del ordenador? ¿Fue el Z3, el Colossus o el ENIAC la primera computadora moderna? Depende. La cuestión sigue tan abierta como esta otra: ¿Qué es lo que hace que una máquina sea un ordenador?
Francisco Doménech
Fuente: BBVA Open Mind
Esta nota fue publicada por la revista La Ciudad el 12/11/2022