Nuestro último episodio nos llevó a principios
del siglo XX, cuando los primeros dispositivos informáticos de propósito especial, como las máquinas tabuladoras,
fueron una gran ayuda para los gobiernos y las empresas : ayudaron y, a veces, reemplazaron las tareas manuales rutinarias
. Pero la escala de los sistemas humanos siguió aumentando a un ritmo sin precedentes.
En la primera mitad del siglo XX, la población mundial casi se duplicó. La Primera
Guerra Mundial movilizó a 70 millones de personas y la Segunda Guerra Mundial involucró a más de 100 millones.
Las redes globales de comercio y tránsito se interconectaron como nunca antes, y la sofisticación
de nuestros esfuerzos científicos y de ingeniería alcanzó nuevas alturas; incluso comenzamos a
considerar seriamente visitar otros planetas.
Y fue esta explosión de complejidad, burocracia y, en
última instancia, datos, lo que impulsó una creciente necesidad de automatización y computación. Pronto, esas computadoras electromecánicas del tamaño de un gabinete se convirtieron en gigantes del tamaño de una habitación que
eran costosas de mantener y propensas a errores. Y fueron estas máquinas las que sentaron las
bases para la innovación futura. INTRO Una de las computadoras electromecánicas más grandes construidas fue la Harvard Mark I, completada en
1944 por IBM para los Aliados durante la Segunda Guerra Mundial. Contenía 765.000 componentes, tres
millones de conexiones y quinientas millas de cable. Para mantener su mecánica interna sincronizada , utilizó un eje de 50 pies que atravesaba
la máquina impulsado por un motor de cinco caballos de fuerza. Uno de los primeros usos de esta tecnología
fue ejecutar simulaciones para el Proyecto Manhattan. Los cerebros de estas enormes bestias electromecánicas eran relés:
interruptores mecánicos controlados eléctricamente. En un relé, hay un cable de control que determina si un circuito
está abierto o cerrado. El cable de control se conecta a una bobina de cable dentro del relé.
Cuando la corriente
fluye a través de la bobina, se crea un campo electromagnético que, a su vez, atrae
un brazo de metal dentro del relé, cerrándolo y completando el circuito. Puede pensar
en un relé como un grifo de agua. El cable de control es como la manija del grifo. Abra el grifo
y el agua fluye a través de la tubería. Cierra el grifo y el flujo de agua se detiene. Los relés están haciendo lo mismo, solo que con electrones en lugar de agua. El
circuito controlado puede luego conectarse a otros circuitos, o a algo como un motor, lo que podría
incrementar un conteo en un engranaje, como en la máquina tabuladora de Hollerith de la que hablamos en el último episodio.
Desafortunadamente, el brazo mecánico dentro de un relé *tiene masa* y, por lo tanto, no puede
moverse instantáneamente entre los estados abierto y cerrado.
Un buen relevo en la década de 1940 podría ser capaz
de avanzar y retroceder cincuenta veces en un segundo. Eso puede parecer bastante rápido, pero no es lo
suficientemente rápido como para ser útil para resolver problemas grandes y complejos.
El Harvard Mark I podía hacer 3 sumas o restas por segundo; las multiplicaciones tomaban
6 segundos y las divisiones tomaban 15. Y las operaciones más complejas, como una función trigonométrica, podían tomar más de un minuto. Además de la velocidad de conmutación lenta, otra
limitación era el desgaste. Cualquier cosa mecánica que se mueva se desgastará con el tiempo. Algunas cosas se
rompen por completo y otras comienzan a volverse pegajosas, lentas y simplemente poco confiables.
Y a medida que aumenta el número de relés, también aumenta la probabilidad de falla. El
Harvard Mark I tenía aproximadamente 3500 relevos. Incluso si asume que un relé tiene una vida operativa
de 10 años, ¡esto significaría que tendría que reemplazar, en promedio, un relé defectuoso todos los
días! Ese es un gran problema cuando estás en medio de un cálculo importante de varios días
.
Y eso no es todo con lo que los ingenieros tuvieron que
lidiar. Estas máquinas enormes, oscuras y cálidas también atraían a los insectos. En septiembre de 1947, los
operadores del Harvard Mark II sacaron una polilla muerta de un relé que funcionaba mal. Grace Hopper, de quien hablaremos más en un episodio posterior, señaló: "A partir de ese momento, cuando algo salió mal con una computadora, dijimos que tenía errores". Y ahí es donde
obtenemos el término error informático.
Estaba claro que se necesitaba una alternativa más rápida y confiable
a los relés electromecánicos si la informática iba a avanzar más
y, afortunadamente, ¡esa alternativa ya existía! En 1904, el físico inglés John Ambrose Fleming
desarrolló un nuevo componente eléctrico llamado válvula termoiónica, que albergaba dos electrodos
dentro de un bulbo de vidrio hermético: este fue el primer tubo de vacío. Uno de los electrodos
podría calentarse, lo que haría que emitiera electrones , un proceso llamado emisión termoiónica.
El otro electrodo podría atraer estos electrones para crear el flujo de nuestro
grifo eléctrico, pero solo si tuviera una carga positiva ; si tuviera una carga negativa o neutra,
los electrones ya no serían atraídos a través del vacío, por lo que no fluiría corriente.
Un componente electrónico que permite el flujo unidireccional de corriente se llama diodo, pero lo que
realmente se necesitaba era un interruptor para ayudar a encender y apagar este flujo. Afortunadamente, poco después,
en 1906, el inventor estadounidense Lee de Forest agregó un tercer electrodo de "control" que se encuentra
entre los dos electrodos en el diseño de Fleming. Al aplicar una carga positiva al
electrodo de control, permitiría el flujo de electrones como antes. Pero si al
electrodo de control se le aplicara una carga negativa, impediría el flujo de electrones.
Entonces, al manipular el cable de control, uno podría abrir o cerrar el circuito. Es más o menos
lo mismo que un relé, pero lo más importante es que los tubos de vacío no tienen partes móviles. Esto significaba que
había menos desgaste y, lo que es más importante , podían cambiar miles de veces por segundo.
Estos tubos de vacío de triodo se convertirían en la base de la radio, el teléfono de larga distancia y
muchos otros dispositivos electrónicos durante casi medio siglo.
Debo señalar aquí que los
tubos de vacío no eran perfectos: son un poco frágiles y pueden quemarse como las bombillas
, fueron una gran mejora con respecto a los relés mecánicos. Además, inicialmente los tubos de vacío eran costosos : un aparato de radio a menudo usaba solo uno, pero una
computadora podría requerir cientos o miles de interruptores eléctricos. Pero en la década de 1940,
su costo y confiabilidad mejoraron hasta el punto en que se volvieron factibles para su uso
en computadoras…
al menos por personas con mucho dinero, como los gobiernos.
Esto marcó el cambio de la computación electromecánica a la computación electrónica.
Vayamos a la burbuja de pensamiento. El primer uso a gran escala de tubos de vacío
para computación fue el Colossus Mk 1 diseñado por el ingeniero Tommy Flowers y completado en
diciembre de 1943. El Colossus se instaló en Bletchley Park, en el Reino Unido, y ayudó a
descifrar las comunicaciones nazis. Esto puede sonar familiar porque dos años
antes, Alan Turing, a menudo llamado el padre de la informática, había creado un
dispositivo electromecánico, también en Bletchley Park, llamado Bombe.
Era una máquina electromecánica
diseñada para descifrar los códigos Enigma nazis, pero Bombe no era técnicamente una computadora, y
hablaremos de las contribuciones de Alan Turing más adelante.
De todos modos, la primera versión de Colossus contenía 1.600 tubos de vacío y, en total,
se construyeron diez Colossi para ayudar con el descifrado de códigos. Colossus se considera la primera computadora electrónica programable. La programación se realizaba conectando cientos
de cables en tableros de conexiones, algo así como las centralitas telefónicas de la vieja escuela, para
configurar la computadora para que realizara las operaciones correctas. Entonces, aunque era "programable", aún tenía
que configurarse para realizar un cálculo específico. Ingrese a The Electronic Numerical Integrator
and Calculator, o ENIAC, completado unos años más tarde en 1946 en la Universidad
de Pensilvania. Diseñado por John Mauchly y J. Presper Eckert, esta fue la primera computadora electrónica programable de propósito general del mundo . ENIAC podía realizar 5000 sumas
o restas de diez dígitos por segundo, muchas, muchas veces más rápido que cualquier máquina anterior.
Estuvo en funcionamiento durante diez años y se estima que hizo más aritmética que toda
la raza humana hasta ese momento.
Pero con eso, muchas fallas de los tubos de vacío eran
comunes, y ENIAC generalmente solo funcionaba durante aproximadamente medio día a la vez antes de
averiarse. Gracias burbuja de pensamiento. En la década de 1950, incluso
la computación basada en tubos de vacío estaba llegando a sus límites. La computadora AN/FSQ-7 de la Fuerza Aérea de EE. UU.,
que se completó en 1955, era parte del sistema informático de defensa aérea "SAGE" del que
hablaremos más en un episodio posterior.
Para reducir el costo y el tamaño, así como mejorar la
confiabilidad y la velocidad, se necesitaría un interruptor electrónico radicalmente nuevo. En 1947, los científicos del Laboratorio Bell,
John Bardeen, Walter Brattain y William Shockley, inventaron el transistor
y, con él, ¡nació una nueva era de la informática! La física detrás de los transistores es
bastante compleja y se basa en la mecánica cuántica, por lo que nos ceñiremos a lo básico. Un transistor es como un relé o un
tubo de vacío: es un interruptor que se puede abrir o cerrar aplicando energía eléctrica a través de
un cable de control. Por lo general, los transistores tienen dos electrodos separados por un material que a
veces puede conducir la electricidad y otras veces resistirla: un semiconductor.
En este caso, el cable de control se conecta a un electrodo de "puerta". Al cambiar la
carga eléctrica de la puerta, se puede manipular la conductividad del material semiconductor, lo que
permite que la corriente fluya o se detenga, como la analogía del grifo de agua que discutimos anteriormente.
Incluso el primer transistor en Bell Labs mostró una gran promesa: podía cambiar
entre estados de encendido y apagado 10,000 veces por segundo.
Además, a diferencia de los tubos de vacío hechos
de vidrio y con componentes frágiles cuidadosamente suspendidos, los transistores eran un material sólido conocido como componente de estado sólido. Casi de inmediato, los transistores podrían hacerse más pequeños que los relés o tubos de vacío más pequeños posibles. Esto condujo a computadoras mucho más pequeñas y baratas, como la IBM 608, lanzada en 1957 , la primera computadora comercialmente disponible que funciona con transistores. Contenía 3000 transistores y
podía realizar 4500 sumas, o aproximadamente 80 multiplicaciones o divisiones, cada segundo.
IBM pronto hizo la transición de todos sus productos informáticos a transistores, llevando
computadoras basadas en transistores a las oficinas y, finalmente, a los hogares. Hoy en día, las computadoras usan transistores que tienen un
tamaño inferior a 50 nanómetros; como referencia, una hoja de papel tiene un
grosor de aproximadamente 100,000 nanómetros. Y no solo son increíblemente pequeños, son súper rápidos: pueden cambiar de
estado millones de veces por segundo y pueden funcionar durante décadas. Gran parte de este desarrollo de transistores y semiconductores ocurrió en el Valle de Santa Clara, entre San Francisco y San José, California.
Como el material más común utilizado
para crear semiconductores es el silicio, esta región pronto se conoció como Silicon Valley.
Incluso William Shockley se mudó allí y fundó Shockley Semiconductor, cuyos empleados luego
fundaron Fairchild Semiconductors, cuyos empleados
luego fundaron Intel, el fabricante de chips de computadora más grande del mundo en la
actualidad. Bien, hemos pasado de los relés a los
tubos de vacío y a los transistores. Podemos encender y apagar la electricidad muy, muy, muy rápido. Pero,
¿cómo pasamos de los transistores a computar algo, especialmente si no
tenemos motores ni engranajes? Eso es lo que vamos a cubrir en
los próximos episodios. Gracias por ver. Te veo la proxima semana..