Cigaretten-Bilderdienst - Olympia 1936 - Band 1 - Die olympischen Winterspiele (1936)
Historia de la Informática 1936-1960. 1936 Alan Turing Formalizó el concepto de algortimo al...
-
Upload
esther-maldonado-salinas -
Category
Documents
-
view
224 -
download
0
Transcript of Historia de la Informática 1936-1960. 1936 Alan Turing Formalizó el concepto de algortimo al...
Historia de la Informática1936-1960
1936
Alan Turing
Formalizó el concepto de algortimo al intentar entender desde un punto de vista matemático el concepto de operaciones computables, que implican que un determinado aparato de cómputo tiene la capacidad de leer unas instrucciones y adoptar en respuesta un estado específico.
Máquina de Turing
Dispositivo que manipula símbolos sobre una tira de cinta de acuerdo a una tabla de reglas. Puede ser adaptada para simular la lógica de cualquier algoritmo de computador y es muy útil en la explicación del funcionamiento de un CPU dentro de un computador.
1940Samuel Williams y George
Stibitz Completaron en los
laboratorios Bell una calculadora que podía manejar número complejos.
Calculadora sumadora electromecánica
1941
Konrad Zuse Zuse había experimentado con el
sistema binario (en papel) redescubriendo la lógica booleana. Pensó que todos los cómputos se podían reducir a operaciones binarias, por lo que decidió construir una máquina completamente binaria.
Z3 Fue la primera máquina
programable y completamente automática basada en el sistema binario.
1942John Vincent Atanasoff y
Clifford Edward Berry Completaron una
calculadora para resolver sistemas de ecuaciones lineales simultáneas.
ABC (Atanasoff Berry Computer)
Implementó 3 conceptos clave: Uso del sistema binario Funcionamiento electrónico Computación separada del
almacenamiento.
1943
Ejército británico El quipo de expertos,
dirigidos por Alan Turing, construyeron la Colossus en Bletchley Park. Fue un proyecto ultra-secreto.
Colossus Basada en la máquina de Turing,
constaba en 1.500 tubos de vacío y funcionaba con targetas perforadas. Su función fue descifrar los mensajes alemanes durante la Segunda Guerra Mundial, que era codificados con otra máquina, la Enigma.
1944
Howard H. Aiken Un equipo de la Universidad de
Harvard, dirigido por Aiken, diseña y construye el primer ordenador electromecánico con la subvención de IBM.
Mark I (IBM Automatic Sequence Controlled Calculator)
Tenía 760.000 ruedas y 800 kilómetros de cable.
Se basaba en la máquina analítica de Charles Babbage.
La salida podía ser en papel (en lugar de tarjetas perforadas) ya que podía conectarse a una máquina de escribir eléctrica.
1945
Vannevar Bush Ideó una máquina capaz de
almacenar y encontrar gran cantidad de información acelerando el “tedioso y lento” proceso de consulta.
Memex Esta máquina permitiría almacenar
información, recuperarla, proyectarla en una pantalla y a través de un proyector, escribir notas y comentarios en cada microficha e imprimir los artículos deseados.
Nunca fue materializada.
1946
Universidad de Pennsylvania La máquina fue creada para el ejército estadounidense. Su
funcionamiento era completamente electrónico. Ocupaba un sótano entero de la universidad, tenía más de 18.000 tubos de vacío, consumía 200kW de electricidad y elevaba la temperatura del local a 50º, por lo que requería todo un sistema de aire acondicionad. Tenía la capacidad de realizar 5.000 operaciones aritméticas/segundo.
ENIAC
1947John Bardeen, Walter H.
Brattain y William Shockley Inventaron en los Laboratorios Bell
un dispositivo que actúa como un interruptor, permitiéndole llevar a cabo cualquier operación lógica o matemática.
Transistor Es un pequeño dispositivo electrónico
hecho a base de material semiconductor (silicio) que actúa como un interruptor: cierra o abre un circuito generando impulsos eléctricos. También se utiliza como amplificador de señales.
1949
Jay Forrestern y Norm Taylor Reemplazaron los tubos de vacío
en su computadora Whirlwind por un tipo de memoria de núcleos magnéticos: la RAM.
Memoria de núcleos magnéticos
Estas memorias aseguraban más efectividad que los tubos de vacío y mayor rapidez de puesta en marcha (tan sólo 9 microsegundos). Era capaz de realizar 40.000 operaciones por segundo.
1950
Alan Turing Expone un artículo que describe su
“Test de Turing”, explorando el desarrollo natural y potencial de la inteligencia humana y de las computadoras y la comunicación entre ambas. Se basa en la premisa de que, si una computadora se comporta de manera inteligente, debe ser inteligente.
Prueba de Turing Consiste en un desafío en el que un humano y
una computadora son situados en una habitación separados de otro humano interlocutor (juez). El juez deberá realizar preguntas que los dos “concursantes” deberán responder. El objetivo es identificar, en base a sus respuestas, cual de ellos es humano y cuál no.
1951John Mauchly y John Presper
Eckert Fueron ingenieros
estadounidenses que crearon la computadora UNIVAC para el censo de 1951.
UNIVAC Compuesta por 5.000 tubos de
vacío, podía ejecutar 1.000 cálculos/segundo, procesando los dígitos en serie. La salida podía ser magnética o por impresora.
1952
Claude E. Shannon Sienta los fundamentos matemáticos
de la revolución tecnológica con la publicación del artículo “una teoría matemática de la comunicación”.
Desarrolló el primer ratón virtual capaz de salir de un laberinto.
Teoría de la información Disciplina científica que estudia la
información y todo lo relacionado con ella.
Una información compleja es una sucesión de unidades básicas (1 y 0).
1953
IBM Se amplía el uso del lenguaje
ensamblador para la programación.
Se crean memorias de núcleos magnéticos.
Esto hace que IBM fabrique su primera computadora a escala industrial.
RENFE adquirió una de estas computadoras para la gestión de la vías ferroviarias en 1959.
IBM 650 Estaba constituida por la consola,
la unidad de alimentación, el lector de tarjetas y el perforador. Pesaba en su totalidad 2250 Kg. y costaba medio millón de dólares. Aunque se podía alquilar por 3.500$ al mes.
1954Microcomputadora PET-32
Esta computadora, junto a un emulador VICE de GNU/Linux fue la primera en mostrar un lenguaje de programación en BASIC (Beginner’s All-purpose Symbolic Instruction Code)
Lenguaje de programación Es un lenguaje diseñado para describir el
conjunto de acciones consecutivas que un equipo informático debe ejecutar.
El lenguaje utilizado por el procesador se denomina lenguaje máquina y para poder comprender el lenguaje humano (y viceversa) utiliza lenguajes intermediarios.
1956
Dartmouth John McCarthy dio una conferencia en
la Universidad de Dartmouth sobre computadoras, procesamiento del lenguaje natural, redes neuronales, teoría de la computación, abstracción y creatividad. Así nació el concepto de Inteligencia Artificial y sus primeros estudios.
Inteligencia Artificial Es la capacidad de razonar de un
agente no vivo. John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes."
1957
IBM Pone a la venta la primera impresora de
matriz de puntos.
1958
Jack S. Kilby Este ingeniero construyó el
primer circuito integrado, un dispositivo de germanio que integraba seis transistores en una misma base semiconductora.
Circuito integrado
1958A.R.P.A.
La Advanced Research Projects Agency de Norteamérica, durante la Guerra Fría, manifestó la necesidad de desarrollar un sistema militar de comunicaciones para continuar operando aunque sus nodos de comunicación fueran destruidos. Así nace ARPANET.
ARPANET Comenzó como una red privada de
intercomunicación militar que más tarde pasó a interconectar varias Universidades de EEUU. A día de hoy, esta tecnología es de uso mundial, lo que conocemos como Internet.
1960
COBOL: Primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras.
ALGOL: Primer lenguaje de programación estructurado y orientado a los procedimientos.
Teoría de compilador Los compiladores son
programas o herramientas encargadas de compilar. Toma un texto (código fuente) escrito en lenguaje de alto nivel y lo traduce a un lenguaje comprensible para la computadora (código objeto).
COBOL y ALGOL