Computador Digital


Software Libre
Qué significa esta
clasificación de
programa?

Historia del Computador

Antes de la invención de lo que hoy conocemos como computador (computadora, ordenador, PC), existieron en la antigüedad mecanismos manuales para procesar datos. La diferencia conceptual entre la computadora análoga y los dispositivos ancestrales, radica en que los últimos carecen de sistema de almacenamiento (memoria).
Durante 1704, el matemático alemán Gottfried Leibniz (padre del sistema binario), refinó artilugios antiguos y construyó la primera calculadora manual automática, para procesar datos con las 4 operaciones básicas de aritmética.
A principios del siglo XX, artefactos con el sistema de funcionamiento de Leibniz, incorporaron el motor eléctrico a su mecanismo. Esta modificación aumentó en forma significativa la capacidad de la calculadora. Sin embargo, el mayor salto tecnológico de estos aparatos se produjo en 1961, con la aparición de la primera calculadora electrónica portátil análoga. Su circuito era de tubos catódicos con pantalla digital, almacenaba números en forma momentánea pero aun no utilizaba sistema binario en sus cálculos.

Anticitera griega. Abaco romano. Regla de cálculo.

Proceasora de Leibniz. Calculadora manual. Calculadora con impresora.

Calculadora eléctrica. Calculador digital. Sumadora electrónica.

Desarrollo de la Computadora

Antes de la Segunda Guerra, entre 1928 y 1938, los científicos abrigaban la idea de construir máquinas calculadoras de gran velocidad, cosa que los condujo finalmente a crear el computador.
Después de producir uno con habilidades de calculadora electrónica avanzada, la investigación evolucionó hacia el desarrollo de componentes (hardware): alimentador de datos, memoria de proceso, memoria de almacenamiento y despachador de datos. Los primeros computadores se alimentaban mediante tarjetas perforadas y cada equipo se construía para un solo tipo de trabajo específico. En esa época fueron considerados maravillas de la tecnología.

Matemáticos británicos diseñaron y construyeron en 1943, el primer computador electrónico digital programable. Su circuito principal era de tubos de vacío, se alimentaba vía cinta de papel, procesaba utilizando el sistema binario, no tenía memoria RAM. Este equipo se utilizó durante la Segunda Guerra para decodificar mensajes estratégicos en clave.

En 1945, el matemático húngaro John von Neumann, hace una contribución teórica relevante para la arquitectura del computador digital. Su creación jerarquiza la memoria y subdivide el hardware de operación en unidades.

El primer gran cerebro digital electrónico multi propósito (ENIAC), estuvo operativo en Estados Unidos a partir de 1945. Su ventaja principal era la posibilidad ser programado para efectuar trabajos de cálculo en diferentes áreas. Sin embargo, aun era necesario programarlo manualmente hasta 1948, año en que se introdujo un sistema para ejecutar programas desde una cinta magnética, donde se encontraban almacenados.

Primer gran procesador. Transistorizado IBM. Computador de universidad.

Unidad de computación vial.

Computadores de Segunda Generación

La invención del transistor fué en 1947, que años más tarde (1955), forzó un cambio radical en el tamaño, método de fabricación y eficiencia del computador. Los circuitos de tubos, condensadores e interruptores electromagnéticos fueron reemplazados por circuitos impresos en estado sólido, tanto en el computador como en componentes periféricos.
En 1950 aparecen las memorias de núcleo magnético que fueron utilizadas hasta 1975.
IBM introduce en 1956, la memoria de acceso aleatorio, fundamental para el funcionamiento de un computador digital porque en un mismo medio permite leer / grabar instrucciones de programas y datos.

Transistor de tres contactos. Memoria magnética. Primera memoria RAM.
Tercera Generación de Ordenadores
La aparición de los circuitos integrados (chip) en 1958, llevó a la invención del microprocesador en 1971. Este adelanto transformó nuevamente la tecnología de los computadores. El tamaño reducido, el costo y la facilidad de fabricación, contribuyó a la creación de los primeros computadores personales (PC). Desde 1980 en adelante, el uso de microchips está presente en todas las Unidades Centrales de Procesamiento (CPU).
El siglo XXI produjo más avances: la CPU de varios núcleos y memorias RAM de gran capacidad, permitiendo procesos más complejos y veloces.

Ya que los procesadores realizan el trabajo en forma secuencial, es decir no pueden hacer dos al mismo tiempo, nuevas investigaciones se realizan para desarrollar un computador cuántico que superará este problema, multiplicando miles de veces su eficiencia.

Microprocesador de computación. Primer ordenador personal. Diagrama del PC moderno.

Computador personal Macintoch. PC  de escritorio con pantalla LED. Procesador de 4 núcleos.

©dr.croxwell 2012-14. Prohibida la reproducción con propósito comercial.
No copie el contenido de esta página. El plagio es detectado por Copyscape.