A HistóRia Da ComputaçãO
-
Upload
guestebb673 -
Category
Documents
-
view
21.481 -
download
6
Transcript of A HistóRia Da ComputaçãO
FURG – FUNDAÇÃO UNIVERSIDADE DE RIO GRANDE
CENTRO DE CIÊNCIAS COMPUTACIONAIS
ENGENHARIA DA COMPUTAÇÃO
A HISTÓRIA DA COMPUTAÇÃO
Aluno: Mauricio Canielas Krause
Matrícula:48738
Atividade de Integração Curricular I
Professor Dr. Nelson Lopes Duarte Filho
Professora Dra. Sílvia Silva da Costa Botelho
Março 2010
I. Introdução:
Vive-se Atualmente, em um mundo completamente dominado
pela tecnologia, mais especificamente, o computador. Anos atrás,
eram poucas as pessoas que tinham o luxo de ter um computador
em casa, ao contrário de hoje, raras são as pessoas que não tem
ou nunca tiveram acesso ao mesmo. Isto se deve aos benefícios
que a tecnologia nos oferece, tanto no lado profissional como
doméstico, hoje exercemos desde simples tarefas escolares como
até mesmo compras e pagamentos através do mesmo, sem falar
que para muitos é utilizado como uma “terapia” através de jogos.
Existem registros de que desde os tempos de 5500 a.c. já existia o
computador, surpreendendo várias pessoas que acreditavam que o
mesmo era uma tecnologia recente.
O objetivo deste trabalho é abordar curiosidades e
informações da computação, desde os seus primórdios.
2. Desenvolvimento:
O ábaco(Fig. 1) foi o começo de tudo, segundo historiadores,
acreditam que o mesmo foi descoberto em meados do ano 5500
a.c. pelo povo mesopotâmico. Ele era muito utilizado para fazer
cálculos, devido a isso se espalhou por vários países após a sua
descoberta. O instrumento consistia em um conjunto de varetas de
forma paralela, com pequenas bolas que realizavam contagens.
Ainda é utilizado nos dias de hoje facilitando o aprendizado de
crianças nas operações de adição e subtração.
Figura 1: Exemplo de ábaco russo
Mesmo com essa invenção do ábaco, a multiplicação de
números muito grandes era trabalhosa, então surgiu John Napier
trazendo novidades na área matemática, os chamados logaritmos,
que facilitaram bastante as multiplicações. A partir dessa
descoberta dos logaritmos, já surgiram em 1550 d.c. as taboas de
Napier, que consistiam em tabelas de multiplicação gravadas em
um bastão. Logo depois, a partir do mesmo princípio das taboas de
Napier, surgiu as réguas de cálculo(Fig. 2), que eram ainda usadas
há poucos anos atrás.
Figura 2: Régua de cálculo
Em poucos anos, acredita-se que em meados de 1552,
Wilhelm Schickard criou a primeira máquina de verdade, que fazia
operações de soma, subtração, multiplicação e divisão, mas só até
6 dígitos, quando ultrapassava os 6, tocava um sinal de alerta para
avisar que a operação tinha sido falha. Essa máquina tinha foi
perdida no meio da guerra dos trinta anos, e a pouco tempo
encontrou-se documentações sobre a mesma, o que tirou de Blaise
Pascal o título de inventor da primeira máquina calculadora.
Pascal, em 1623, com a necessidade de ter um instrumento
que o ajudasse no trabalho de coleta de impostos, criou uma
calculadora que usava engrenagens e funcionava similarmente a
um odômetro. Essa calculadora(Fig. 3) foi lançada no comércio,
mas não obteve muito sucesso, alguns afirmaram que o motivo do
seu insucesso foi que a mesma só realizava funções de soma e
subtração, outros porque afirmaram que foi pela sua sofisticação e
seu elevado preço. Vendo esta falha na invenção de Pascal,
Gottfried Wilhelm Leibniz, aperfeiçoou a sua máquina deixando-a
capaz de fazer as quatro operações (soma, subtração, multiplicação
e divisão) como também raiz a quadrada.
Figura 3: Máquina de Pascal
Então em 1801 apareceu uma máquina que realmente
chamou atenção de todos, pelo motivo de ser programável, ao
contrário das demais que só realizavam as operações previamente
estabelecidas. O inventor dessa máquina foi Joseph Marie
Jacquard, cujo motivo de sua invenção era a necessidade que o
mesmo tinha em criar de ter um sistema cujo objetivo era diminuir o
trabalho manual na sua indústria têxtil. Era um sistema simples,
comandado por cartões perfuráveis, ou seja, Jacquard perfurava o
cartão de acordo com o desenho desejado, e o cartão passava os
comandos para máquina reproduzi-lo no tecido.
Também a primeira calculadora comercializada com sucesso
foi inventada em 1820, por Charles Xavier Thomas, ela era capaz
de efetuar as quatro operações aritméticas básicas.
Em 1822, um matemático inglês chamado Charles
Babbage(Fig. 4), começou um projeto financiado pelo governo, que
objetivava inventar uma máquina capaz de calcular diversas
funções (trigonométricas, logaritmos, etc), a chamada “máquina
diferencial”, mas isso foi só o começo do que estava por vir, ou seja,
de toda a evolução na computação. No meio deste projeto,
Babbage teve uma idéia partindo dos princípios dos cartões de
Jacquard, a de criar uma máquina muito mais completa que todas
que já haviam sido inventadas, e posteriormente passaria a ser
chamada de “máquina analítica”(Fig. 5). A grande diferença dessa
máquina para as outras é que, segundos os historiadores, ela teria
uma memória (moinho), um engenho central, engrenagens e
alavancas -que transferiam dados da memória para o engenho
central- e dispositivos de entrada (leitor de cartões, pois usaria
cartões perfurados) e saída (um tipógrafo). Ada Lovelace foi a
primeira programadora da época, a pedido de Babbage, projetou e
explicou programas para a máquina ainda inexistente. Dentre seus
conceitos inventados, se destacaram o da subrotina, loop e o do
salto condicional (que apenas foi iniciado).
Figura 4: Charles Babbage
Figura 5: Máquina analítica
Babbage e Ada embora tivessem gastado toda a fortuna de
suas famílias, não conseguiram concluir a máquina analítica, pois a
tecnologia da época era insuficiente para o que eles precisavam.
Babbage morreu em 1871, mas até hoje ele é considerado o “avô
da computação”, pois as suas teorias serviram de base para a
criação de várias máquinas que possuímos atualmente. Até o ano
de 1940 nada semelhante com o projeto da máquina de Babbage e
Ada foi inventado, provando mais uma vez que ele estava
avançando para o seu tempo.
Em 1838, nos estados unidos, foi criado o código Morse, por
Samuel F. Morse, que também foi o criador do telégrafo elétrico,
cujo teve sua primeira apresentação pública em 1844.
No século XIX as máquinas utilizavam o sistema por base
decimal, ou seja, de 0 a 9, mas eram encontrados problemas nesse
sistema, pois afirmavam que qualquer variação provocada por um
ruído causaria erros consideráveis nos cálculos, Isso foi mudado
quando George Boole, propôs a álgebra binário booleana, que ao
invés de utilizar 10 números, utilizava só dois, o 0 e 1, melhor
dizendo, o verdadeiro e o falso. Esse novo tipo sistema lógico
revolucionou a computação, e até hoje é utilizado em nossos
computadores.
Após vieram algumas invenções importantes, como em 1867
as invenções da máquina de escrever por Sholes e Glidden, o
telefone por Graham Bell, que com isso fundou a empresa “Bell
Telephone Company”.
Em 1877, inventaram uma ancestral das caixas registradoras,
por Dorr E. Felt, ela era comandada por chaves.
Já em 1878 houve um caso interessante, Romon Verea
inventou uma calculadora que tinha multiplicação interna, mas
dispensava o uso de engrenagens, e ele não estava interessado em
produzir, e sim provar que não só os americanos, e sim também os
espanhóis tinham habilidades de criar. Depois de um tempo,
algumas pessoas se apossaram desse invento, e o aperfeiçoaram
colocando-o a venda no comércio.
Em 1890, mais um homem marcante na história dos
computadores, o Dr. Herman Hollerith, que acelerou o tempo de
processamento dos dados censos. O censo de 1880 tinha sido
processado em sete anos, com todos caçulos sendo feitos a mão, já
o de 1890 foi processado em dois anos e meio, com a ajuda de uma
máquina de perfurar cartões, criada por Hollerith. Ela tinha um
funcionamento baseado na idéia de Babbage, dos cartões
perfurados para fazer a memória, o funcionamento era descrito por
ele assim: “As informações sobre os indivíduos eram armazenadas
por meio de perfurações em locais específicos do cartão. Nas
máquinas de tabular, um pino passava pelo furo e chegava a uma
jarra de mercúrio, fechando um circuito elétrico e causando um
incremento de 1 em um contador mecânico.” Após alguns anos
Hollerith fundou a sua própria empresa, que depois de algumas
fusões veio a se tornar a mundialmente famosa IBM.
Em 1928 foi fundada a Galvin Manufacturing Corporation, por Paul V. Galvin e Joseph E. Galvin, anos mais tarde veio a se
chamar Motorola, conhecida mundialmente. Oito anos depois,
nascia o primeiro computador eletromecânico, o Z1, criado por um
engenheiro alemão chamado Konrad Zuse. O mesmo usava relês
que realizava os cálculos lidos em fitas perfuradas. Outro dado
interessante a ser mencionado é que ele utilizava o sistema binário
booleano.
Outro homem importante na história do computador foi Allan
Turing(Fig. 6), responsável por várias pesquisas focadas no objetivo
de saber os tipos de problemas que um computador poderia
resolver, nascendo aí a idéia de que o computador poderia resolver
tudo. Além disso criou o Colossus, que era um computador
responsável por fazer criptoanálises no tempo da segunda guerra
mundial, criou também a “máquina de turing”, que a partir dela é
possível modelar qualquer computador digital, ela foi envolvida na
construção da “Colossus”. Turing foi chamado “o pai da ciência da
computação”, devido as suas várias contribuições para o meio.
Figura 6: Allan Turing
Em 1983 foi fundada a Hewlett-Packard Co., que hoje é muito
conhecida na área da computação.
Descrevendo então os computadores de primeira geração: Os
mesmos eram basicamente compostos de válvulas eletrônicas,
grandes comprimentos de fios, lentos, grandes, e esquentavam
muito, necessitando de refrigeradores ao seu redor.
Foi somente na segunda guerra mundial que os
computadores começaram a ter a mesma forma visual com os de
hoje.
Vários projetos e grandes invenções marcaram essa época, a
marinha americana em conjunto com a universidade de Harvard
construiu o computador chamado “Harvard Mark 1”, ele tinha
aproximadamente 120m³, era cheio de relês, tinha um alto nível de
ruídos e era capaz de multiplicar números de 10 dígitos em apenas
3 segundos, uma maravilha. Na época, ele era interpretado como
uma realização do projeto de Babbage. Outro projeto era
desenvolvido em silêncio, o Eletronic Numeric Integrator And
Calculator(ou popularmente conhecido, o ENIAC), ele era capaz de
fazer 500 multiplicações por segundo, e era construído para calcular
as trajetórias balísticas. O ENIAC(Fig. 7) foi mantido em segredo
até o fim da guerra, até que em 1946 foi levado a público. Seus
custos foram imensos, pois várias válvulas queimavam a cada hora,
além dos custos por energia elétrica oriundos do sistema de
refrigeração utilizado para controlar o calor da máquina.
Figura 7: ENIAC
É importante citar que alguns aspectos deixavam o ENIAC
meio distante dos computadores atuais, são eles:
• Não era usada a lógica binária, mas sim o sistema decimal;
• Não tinha a capacidade de armazenar os programas na
memória, tendo a necessidade de o operador conectar vários
fios, relés e seqüências de chaves para que o computador
executasse uma nova tarefa;
• Não suportava instruções de desvio condicional, uma das
bases da programação atual;
Mas em 1946, o matemático John Von Neumann surgia para
mudar essa história, com a sua teoria que era chamada de
"Arquitetura de Von Neumann”, ele procurava armazenar programas
no computador como se fossem dados, semelhante ao que
acontece nos computadores atuais. Esse processo envolvia três
características, são elas:
• Que a houvesse uma codificação das instruções de uma
forma que fosse possível armazenar dados no computador.
Propôs a lógica binária
• Armazenar as instruções e toda e qualquer informação
necessária para execução das tarefas na memória
• Seriam trocados os chamados cartões perfurados que
continham a instrução do que deveria acontecer, e isso
passaria a ficar na memória do computador.
Essas mudanças transformariam os computadores daquela
época nos nossos computadores programáveis de hoje, trazendo
assim mais rapidez no processamento das tarefas, versatilidade e
automodificação. Isso tudo, graças a Von Neumann, portanto essa
nova arquitetura do computador foi nomeada de “arquitetura de Von
Neumann”. Após isso, ele divulgou sozinho, um artigo, fato que
deixou Eckert e Mauchy insatisfeitos, pois alegavam terem discutido
várias vezes o assunto com ele. Alguns anos após, os três ainda
trabalharam juntos em uma aprimoração do ENIAC, chamada de
EDVAC, onde suas memórias eram baseadas em linhas de retardo
de mercúrio, pois possuíam maior capacidade de armazenamento.
Depois também veio o EDSAC, que poderia exercer 714 operações
por segundo, e utilizava a linguagem Assembly.
Entre 1945 e 1951 foi lançado o primeiro computador capaz
de processar informações em tempo real, com entrada de dados a
partir de fitas perfuradas e saída em CRT (monitor de vídeo), ou na
flexowriter(uma espécie de máquina de escrever). Também 1951
surgiu o primeiro computador comercial, o UNIVAC(UNIVersal
Automatic Computer), que pesava aproximadamente 7,2 toneladas
e ocupava 32,5m² de espaço, sua programação era ajustada por
aproximadamente 6000 chaves conectadas a um painel, consumia
muita energia, especialmente por um equipamento que o
acompanhava, o UNIPRINTER. O UNIVAC era capaz de realizar
1905 operações por segundo, seu preço inicial era de U$$ 1 milhão.
O IBM 701 lançando em 1952 trouxe o avanço de utilizar fita
plástica, deixando-o mais rápido que a metálica do UNIVAC, após
veio o IBM 704, que ficou conhecido porque era capaz de
armazenar 8192 palavras de 36 bits. E na Inglaterra surgiram outros
vários tipos de computadores: MADAM, Manchester Automatic
Digital Machine, o SEC, Simple Electronic Computer, e o APEC, All-
Purpose Electronic Computer.
A segunda geração está entre o período de 1959 até 1964, e
tem como novidades a substituição das válvulas eletrônicas por
transistores (fato marcante nessa geração), e aqueles fios de
comprimentos absurdos, foram trocados por circuitos impressos.
Esses avanços deixaram os computadores mais velozes, menores ,
e mais baratos. Os transistores começaram a ser produzidos em
1947 por William Bradford Shockley, Walter Houser Brattain e John
Bardeen. Eles testaram o "point-contact transistor", iniciando-se
assim a grande mudança da segunda geração da computação.
Após um tempo modelos aperfeiçoados desses transistores foram
produzidos pela "Bell Laboratories". O transistor trouxe uma
melhora na velocidade de processamento das máquinas e uma
redução no tamanho das memas.
Nessa geração surgiram dois tipos de computadores distintos:
os supercomputadores e os mini-computadores.
O IBM 7030(Fig. 8) foi um exemplo marcante de
supercomputador, ele era “pequeno”, se comparado ao ENIAC, mas
executava cálculos na casa dos microssegundos, podendo assim
fazer mais de milhão de operações por segundo, assumindo assim
um novo patamar de velocidade. Eram caros, quem pretendia ter
essa “luxúria” em casa, deveria desembolsar até 13 milhões de
dólares. Além disso, várias linguagens surgiram nessa época, como
Fortran, Cobol e Algol, permitindo assim mais facilidade na criação
de softwares.
Figura 8: O primeiro super computador, IBM 7030
E como exemplo de mini-computador temos o PDP-1, que
perdia para os supercomputadores da época em questões de
capacidade de processamento, mas tinha dois pontos a favor, o
tamanho, e conseqüentemente, o preço. Esses fatores levaram o
PDP-1 a ser bem comercializado, e ficou conhecido como o
primeiro mini-computador.
O PDP-1(Fig. 9) ficou amplamente conhecido, pois em uma
feira do MIT, colocaram ele na exposição juntamente com o
primeiro jogo interativo lançado para computadores o “SpaceWar!”,
desenvolvido por Martin Graetz, Stephen Russell e Wayne
Wiitanen. O jogo virou febre mundial na época, foi inspirado nos
livros de ficção científica do autor E. E. "Doc" Smith, já falecido. O
“SpaceWar!” foi uma tentativa bem sucedida de levar os visitantes a
ingressarem no mundo dos computadores.
Figura 9: PDP-1, exemplo de mini-computador
Nesse período Jack Kilby trouxe ao mundo mais uma nova
invenção que mudaria o rumo da computação, o primeiro circuito
integrado. Esses circuitos são constituídos de transistores,
capacitores e resistores, tudo sobre uma base de silício, chamada
Chip. Essa invenção de Kilby que deu início a terceira geração da
computação, onde os transistores eram substituídos por circuitos
integrados. Esse fato trouxe vários avanços aos computadores da
terceira geração, como exemplo: maior velocidade, menor consumo
de energia, possuindo maior capacidade de processamento,
reduzindo o tamanho dos mesmos, com isso houve também uma
redução nos preços. Nessa fase o computador começou a deixar de
ser privilégio de poucos, pois aqueles computadores gigantescos,
que ocupavam todo um escritório, deram lugar para computadores
menores e mais baratos, que poderiam ser adquiridos por diversas
pessoas. Esta geração foi estendida desde 1964 até 1970.
Um dos exemplos desta época foi o IBM 360/91, foi um
sucesso de vendas em 1967, ano do seu lançamento. Tinha
novidades como imprimir resultados em papel, possuia dispositivos
avançados de saída e entrada, além de ser considerado um dos
primeiros computadores a permitir a programação da CPU por
microcódigos. Após isso, a IBM lançou tecnologias mais modernas,
como os IBM’s 370, 3080, 3090, etc. Nessa geração começou a
surgir também os primeiros microprocessadores, sendo o primeiro
criado pela Intel no ano de 1970, chamado de 4004, após isso
vieram versões superiores como o 8008, 8080, 8085, etc. Outro
ponto interessante que aconteceu em 1971, foi o anúncio feito pela
IBM do lançamento de um disco flexível de 8 polegadas, coberto
por óxido de ferro.
Em 1972 a Hewllet- Packard anunciou a HP-35, e afirmavam
que era a “mais rápida e precisa calculadora eletrônica”. Quatro
anos depois, no mercado era apresentada uma empresada que
mudaria o rumo da computação, A apple. Nesse mesmo ano foi
criado o Aplle I, que era composto de um teclado, um
microprocessador de 1 MHz, 1 Kb de memória vídeo e 4 Kb RAM.
Uma das preocupações que chamou a atenção no final desse
período os softwares mal produzidos, era afirmado que as
empresas estavam mais preocupadas com os hardwares e estavam
deixando os softwares de lado.
No entanto hoje a quarta geração, na qual a controvérsias se
é a ultima ou existem outras mais por vir. Portanto, neste trabalho
toma-se como base as fontes que afirmam que a quarta geração é
estendida desde 1970 até os dias atuais. A quarta geração focou-se
principalmente na miniaturização dos componentes de um
computador, tornando-o assim mais compacto e preparado para o
uso em casa. Sendo essa miniaturização um favorecimento para
transporte do mesmo de casa para o trabalho e para onde quer que
se desejar(notebooks). Fora isso, eles atingiram uma velocidade
impressionante, na casa dos nano segundos, e os softwares
passaram a ser tão importantes como os hardwares, boa parte da
indústria se focalizou nisso. Portanto no decorrer dos anos, tornou-
se mais acessível a aquisição de um computador.
A partir de 1975, surgiram novos tipos de escalas de
CI’s(circuitos elétricos), como exemplo tempos:
• SSI: era uma integração em pequena escala, que possuía
menos de 10 elementos por chip.
• MSI: uma integração em média escala, que possuía de 10 a
100 elementos por chip
• LSI: uma integração em larga escala, possuía de 100 a 5000
elementos por chip
• VLSI: uma integração em alta larga escala, possuía de 5000
até 50000 elementos por chip
• SCSI: integração em super escala, possuía de 50000 a
100000
• ULSI: integração em ultra larga escala, mais de 100000
elementos por chip.
Em 1975 surgiu o Altair 8800(Figura 10), ícone do começo da
quarta geração, utilizava o processador da Intel 8080, que o deixava
mais rápido e menor, ocupando perfeitamente o espaço de uma
mesa, foi um dos revolucionadores daquela época, sem
comparações. A partir dessa revolução do Altair, Bill Gates, ainda
novo, criou uma linguagem de programação chamada Altair Basic.
Figura 10: Altair 8800
Em 1977 foi lançado o Apple II, que produzia gráficos e cores,
também tinha 4KB de memória, um fato interessante é que ele
precisava ser conectado à uma TV e não possuia mouse, mas tinha
circuito impresso em sua placa-mãe, fonte de alimentação, teclado
e cartuchos para jogos.
Poucos anos depois, os computadores Lisa e Macintosh(Fig.
11), ambos da Apple, criaram uma nova tendência ao aderirem ao
uso de mouse, e ao terem a interface gráfica muita parecida com as
de atualmente, ou seja, com pastas, menus, área de trabalho, etc.
Porém o Lisa foi menos vendido devido ao seu preço, que era de
aproximadamente US$ 10.000, 00, preço elevadíssimo, se
comparado aos outros computadores da época. Já o Macintosh
teve um entusiasmante numero de vendas.
Figura 11: Macintosh
Nessa época também surgiu a Microsoft, criada por Bill Gates,
que desenvolvia computadores principais também, mas no começo
ela só usava as idéias existentes e fabricava os seus modelos,
assim os computadores eram muito inferiores aos da Apple, vendo
isso, Bill Gates(fig. 12) decidiu criar uma parceria com o Steve Jobs,
onde então conseguiu a tecnologia gráfica do Apple Macintosh e
aplicou no Windows, seu novo sistema operacional. A partir disso, o
Macintosh e o Windows se tornaram grandes concorrentes, e após
a demissão de Steve Jobs da Apple, a Microsoft assumiu a
liderança no ramo dos computadores. Após, vários modelos de
processadores da Intel(fig. 13) foram lançados, mas todos
acompanhados de versões do Windows, dentre eles estão: 8086,
286, 386, 486, Pentium, Pentium 2, Pentium 3, Pentium 4, Core 2
Duo, i7. Outra que está no ramo de processadores e é muito
conhecida atualmente é a AMD, ela começou em 1993. Até o ano
de 1998, o AMD K6-2 e o Pentium 2 lideravam as vendas de
processadores.
Figura 12: Bill Gates, o grande “chefão” da Microsoft
Figura 12: Processadores da Intel
Com o passar do tempo veio a modernização, novos
computadores, novas tendências, placas mais modernas (de vídeo,
áudio, etc.), melhores memórias, enfim, o computador foi se
moldando e ficando cada vez mais semelhante com o que é hoje.
Mas ainda buscava-se no mercado um computador móvel, que logo
em 1983 apareceu o primeiro “laptop”, criado por Adam Osborne,
seu nome era Osborne I(Fig. 13), pesava aproximadamente uns dez
quilos a mais que os laptops de hoje. Tinha 64KB de memória,
sendo que hoje em dia é preciso ter 256mb só para instalar o
Windows XP, tinha 10 mil transistores e o seu monitor era de
apenas cinco polegadas. Enfim, hoje já existem até os net books,
que são utilizados somente para funções básicas do computador e
internet, pois são menores que os laptops normais.
Figura 13: Osborne I
Não podemos falar em computação sem citar a internet, se o
computador é a máquina que veio para solucionar qualquer tipo de
problema, a internet é a “ferramenta” que facilita tudo isso.
Atualmente tudo está movido pela internet, principalmente a
comunicação. A definição de internet é: “Uma rede mundial de
computadores.”
Os historiadores afirmam que a internet surgiu na guerra fria,
nos anos 60. Os Estados Unidos a criaram, pois estavam com
medo de que todas as informações sigilosas contidas no pentágono
poderiam ser perdidas se acontecesse algum ataque. Então eles
criaram uma rede, a ARPANET, e por meio dela transmitiram os
dados que continham as informações, divididas em pequenos
pacotes, prevenindo que algo de pior acontecesse. Nada
aconteceu, mas mal sabiam eles que estavam criando o maior
fenômeno do século XX em questões de comunicação. Após isso, a
internet foi sofrendo várias mudanças, até se modelar a internet que
temos atualmente.
Mais recentemente foram lançados os “multi-cores”, que nada
mais é do que vários processadores trabalhando ao mesmo tempo,
deixando assim a execução das tarefas muito mais rápidas e
eficientes. Foi criado devido a necessidade de dividir o processador
em mais núcleos, pois os transistores usados em um único
processador estavam muito pequenos, causando um aquecimento
maior do que o normal. Como exemplos têm o Intel core2duo, AMD
Athlon 64 X2, entre outros.
Outra evolução foram os “computadores de bolso”, que são
computadores portáteis, conseqüentemente, pequenos . Entre os
exemplos temos os celulares -que a cada dia podem executar
novas funções, mesmo ainda não sendo explorados ao máximo-,
palmtops, mp3(e todos os outros similares ou versões mais
recentes), pendrives, câmeras fotográficas, e etc. Freqüentemente
dispositivos parecidos com esses são lançados, e sempre
adicionando mais funcionalidades aos mesmos. O IPhone(fig. 14),
da Apple, é um desses dispositivos mais conhecidos, e um dos
mais avançados em questões de tecnologia.
Figura 14: IPhone
3. Conclusão:
Não podemos falar em computação sem citar a internet, se o
computador é a máquina que veio para solucionar qualquer tipo de
problema, a internet é a “ferramenta” que nos permite isso.
Atualmente tudo está movido pela internet, principalmente a
comunicação. E o que seria a internet? A sua definição é uma rede
mundial de computadores. Os historiadores afirmam que a internet
foi surgiu na guerra fria, nos anos 60.
4. Referências bibliográficas:
• GUGIK, GABRIEL. A história dos computadores e da
computação: http://www.baixaki.com.br/info/1697-a-historia-dos-
computadores-e-da-computacao.htm Acessado em: Março 2010
• WIKIPÉDIA, A enciclopédia livre. A história da
computação:
http://pt.wikipedia.org/wiki/Hist%C3%B3ria_da_computa%C3%A7%
C3%A3o Acessado em: Março 2010
• Algosobre. História do computador e da internet:
http://www.algosobre.com.br/informatica/historia-do-computador-e-
da-internet.html Acessado em: Março 2010
• Projeto MAC multimídia:
http://www.ime.usp.br/~macmulti/historico/index.html Acessado em:
Março 2010
• CORTELAZZO, Iolanda. As diversas gerações de
computadores I: http://www.boaaula.com.br/iolanda/hic/hicger.html
Acessado em: Março 2010
• Um pouco da história dos computadores:
<http://www.mansano.com/beaba/hist_comp.aspx> Acessado em:
Março 2010