Historia del Computador |
|
---|
Durante 1704, el matemático alemán Gottfried Leibniz (padre del sistema binario), refinó artilugios antiguos y construyó la primera calculadora manual automática, para procesar datos con las 4 operaciones básicas de aritmética.
A principios del siglo XX, artefactos con el sistema de funcionamiento de Leibniz, incorporaron el motor eléctrico a su mecanismo. Esta modificación aumentó en forma significativa la capacidad de la calculadora. Sin embargo, el mayor salto tecnológico de estos aparatos se produjo en 1961, con la aparición de la primera calculadora electrónica portátil análoga. Su circuito era de tubos catódicos con pantalla digital, almacenaba números en forma momentánea pero aun no utilizaba sistema binario en sus cálculos.
Desarrollo de la Computadora
Antes de la Segunda Guerra, entre 1928 y 1938, los científicos abrigaban la idea de construir máquinas calculadoras de gran velocidad, cosa que los condujo finalmente a crear el computador.Después de producir uno con habilidades de calculadora electrónica avanzada, la investigación evolucionó hacia el desarrollo de componentes (hardware): alimentador de datos, memoria de proceso, memoria de almacenamiento y despachador de datos. Los primeros computadores se alimentaban mediante tarjetas perforadas y cada equipo se construía para un solo tipo de trabajo específico. En esa época fueron considerados maravillas de la tecnología.
Matemáticos británicos diseñaron y construyeron en 1943, el primer computador electrónico digital programable. Su circuito principal era de tubos de vacío, se alimentaba vía cinta de papel, procesaba utilizando el sistema binario, no tenía memoria RAM. Este equipo se utilizó durante la Segunda Guerra para decodificar mensajes estratégicos en clave.
En 1945, el matemático húngaro John von Neumann, hace una contribución teórica relevante para la arquitectura del computador digital. Su creación jerarquiza la memoria y subdivide el hardware de operación en unidades.
El primer gran cerebro digital electrónico multi propósito (ENIAC), estuvo operativo en Estados Unidos a partir de 1945. Su ventaja principal era la posibilidad ser programado para efectuar trabajos de cálculo en diferentes áreas. Sin embargo, aun era necesario programarlo manualmente hasta 1948, año en que se introdujo un sistema para ejecutar programas desde una cinta magnética, donde se encontraban almacenados.
Computadores de Segunda Generación
La invención del transistor fué en 1947, que años más tarde (1955), forzó un cambio radical en el tamaño, método de fabricación y eficiencia del computador. Los circuitos de tubos, condensadores e interruptores electromagnéticos fueron reemplazados por circuitos impresos en estado sólido, tanto en el computador como en componentes periféricos.En 1950 aparecen las memorias de núcleo magnético que fueron utilizadas hasta 1975.
IBM introduce en 1956, la memoria de acceso aleatorio, fundamental para el funcionamiento de un computador digital porque en un mismo medio permite leer / grabar instrucciones de programas y datos.
Tercera Generación de Ordenadores
La aparición de los circuitos integrados (chip) en 1958, llevó a la invención del microprocesador en 1971. Este adelanto transformó nuevamente la tecnología de los computadores. El tamaño reducido, el costo y la facilidad de fabricación, contribuyó a la creación de los primeros computadores personales (PC). Desde 1980 en adelante, el uso de microchips está presente en todas las Unidades Centrales de Procesamiento (CPU).El siglo XXI produjo más avances: la CPU de varios núcleos y memorias RAM de gran capacidad, permitiendo procesos más complejos y veloces.
Ya que los procesadores realizan el trabajo en forma secuencial, es decir no pueden hacer dos al mismo tiempo, nuevas investigaciones se realizan para desarrollar un computador cuántico que superará este problema, multiplicando miles de veces su eficiencia.
Anterior | Siguiente | Subir |