Skip to main content

Aunque el computador personal fue creado en 1981, sus inicios se remontan a varias décadas atrás y sus antecedentes a hace más de cuatro mil años. Esto, porque el origen de la informática no es la electrónica sino el perfeccionamiento de los cálculos matemáticos, que con el tiempo permitió el desarrollo del sistema binario, el lenguaje en que se programan los computadores, que está basado en la combinación de números ceros y unos (0 y 1).

2500 a.C.
– El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo.

2000 a.C.
– En el «I-Ching, o Libro de las mutaciones», también de origen chino, se encuentra la primera formulación del sistema binario.

600 a.C.
– El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo.

500 a.C.
– Los romanos usaron ábacos con piedrecitas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).

1633
– El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.

1642
– El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas. Funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla.

1671
– El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora.

1833
– El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792-1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.

Babbage usaba cartones perforados para suministrarle datos a su máquina (había copiado la idea del telar del francés Joseph Marie Jacquard, inventado en 1801), que se convertirían en instrucciones memorizadas; algo así como los primeros programas.

Esperaba lograr imprimir la información registrada, obtener resultados y volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después.

La evaluación y la retroalimentación se convertirían en la base de la cibernética, que nacería un siglo más tarde.

1847
– El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó «El análisis matemático del pensamiento» y en 1854 «Las leyes del pensamiento».

Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todos los computadores.

1890
– Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo más tarde revolucionó el mercado con los computadores personales o PC.

1889
– Solo a fines del siglo XIX se inventó una máquina calculadora que incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división) y que lentamente se empezó a producir de manera más masiva. Esta máquina solo podía realizar una operación a la vez y no tenía memoria.

1893
– Entre 1893 y 1920, Leonardo Torres y Quevedo creó en España varias máquinas capaces de resolver operaciones algebraicas. Posteriormente construyó la primera máquina capaz de jugar ajedrez.

1920
– presentó en París el «aritmómetro electromecánico», que consistía en una calculadora conectada a una máquina de escribir, en la que se tecleaban los números y las operaciones. Una vez hecho el cálculo, la máquina entregaba automáticamente el resultado. Este aparato fue la primera versión de una calculadora digital.

1934-1939
– Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería el primer computador. La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo.

1937
– Claude Shannon demostró que la programación de los futuros computadores era más un problema de lógica que de aritmética, reconociendo la importancia del álgebra de Boole. Además, sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería fundamental para la construcción del primer computador.

Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría matemática de la comunicación, hoy más conocida como la «teoría de la información», estableciendo los conceptos de negentropía, que se refiere a que la información reduce el desorden, y la unidad de medida del bit -en dígitos binarios- utilizada actualmente tanto en las telecomunicaciones como en la informática.

1939
– En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática que utilizaba interruptores ordinarios de sistemas de conmutación telefónica.