sexta-feira, 29 de outubro de 2010

História dos Computadores

HISTÓRIA DO COMPUTADOR - 13 - O futuro que vem aí
Display terá importante evolução tecnológica
O padrão atual para os displays dos notebooks é um display thin-film transistor (TFT), em matriz ativa de 12,1 polegadas. Hoje, custa cerca de US$ 1 mil. Com produção em larga escala, estima-se que esses displays podem cair para US$ 300 cada um (cálculos da californiana Stanford Resources). Se os drivers integrados metal insulator metal (MIM) estiverem disponíveis, por volta do ano 2000, os preços devem cair mais ainda. Uma razão para o alto preço é que, num display LCD-TFT, cada pixel requer seu próprio transistor para manter seu estado (branco ou preto) fixo enquanto os outros são endereçados. Há deficiências ainda quanto ao consumo de energia e à qualidade da imagem obtida. 
Há pesquisas da Sharp Electronics, Minolta, Kent Display Systems (KDS) e de outras companhias, para o desenvolvimento de displays que não precisem de retroiluminação (backlight), através do uso de polarizadores, de forma em que moléculas de cristal líquido se movam num campo elétrico, mas elas têm um baixo coeficiente de transmissão de luz (menos de 20%). Outras companhias estudam displays que não precisam de matriz ativa (thin-film transistor backplane), usando cristal líquido com polímeros. Até o momento, eles apresentam alto consumo de energia ou tempos demorados de endereçamento. 
Tinta eletrônica – O MIT Media Laboratory, em Cambridge (Massachusetts/EUA) estuda um novo material microfabricado, denominado tinta eletrônica ou e-ink. Trata-se de um material em que cada ponto contém uma partícula bicolor, a qual pode girar (mudando a cor vista pelo usuário) mediante a influência de um campo elétrico. Uma das vantagens é que essa tinta pode ser aplicada não só a papel, mas também a ampla variedade de plásticos e outros materiais, o que permite fabricar displays de baixo custo e consumo energético, e que podem ser curvados (o que permite a aplicação a inúmeros objetos que tenham características de displays eletrônicos.  O custo de uma peça de papel eletrônico de 8.5 por 11 polegadas deve ficar entre US$ 1 e US$ 10. 
Esquema de uma partícula da tinta que reage a estímulo elétrico
Com esse material, já foram fabricados displays single-pixel e multiple-pixel. A corrente usada é da ordem de 500 nanoamperes, e o tamanho atual de cada partícula é de cerca de 250 microns, o que corresponde a uma resolução de 100 pontos por polegada (dpi), mas já existem estudos para reduzir cinco vezes o tamanho da partícula, ao mesmo tempo em que é aperfeiçoada a forma de integrar esses displays num livro. Para minimizar os custos de fabricação, cada página tem um grupo de eletrodos conectados a um display driver baseado em processador colocado na lombada do livro. Cada página tem um endereçamento único e os dados são apresentados de forma muito mais rápida que numa tela de cristal líquido. O sistema é flexível para ignorar, por exemplo, páginas danificadas, de forma a estender a vida útil do livro eletrônico, ou para reposicionar o texto numa página, ampliando as margens, e aceitar anotações manuscritas (“sentindo” a pressão de uma caneta no papel). 
Mais que texto – Por fim, Jacobson observa que, como a tinta eletrônica pode ser endereçada em freqüências de até 20 Hertz, as páginas tanto podem ganhar a aparência de um manuscrito com iluminuras medievais (a exemplo das feitas pelo inventor do moderno livro portável, Aldus Manutius), como apresentar videoclips e imagens animados para ilustrar e complementar o texto.  Com a vantagem de que essas imagens estarão, em nossa mente, associadas com determinadas páginas do livro, que podemos rever diretamente. Ficam claras as vantagens, quando essa facilidade é comparada ao uso do monitor comum, pelo qual todas s imagens devem passar. 
Para receber uma ou mais obras literárias, o e-book pode ser conectado a um computador externo. Como por exemplo uma edição clássica das Leis de Platão pode representar cerca de 1 MB de informação, é possível colocar mil livros num cartão de Journal of Research & Development, da IBMmemória flash. Um cartão PCMCIA atual já permite armazenar 350 MB, ou 350 livros, e já aparecem no horizonte os Giant e Colossal Magnetoresistance (GMR e CMR), meios magnéticos extremamente densos, que permitirão armazenar entre 3,5 e 35 GB um cartão formato PCMCIA – o equivalente a mais livros que uma pessoa poderia ler em toda a sua vida – e há perspectivas de chegar a 350 GB sem alterar o formato. Um sistema de codificação de acesso permitiria cobrar os royalties pelo uso dos textos, com pagamento do valor e liberação sendo feitos pela Internet na medida das necessidades do usuário. 
A longo prazo, drives atuando no nível atômico poderiam – ainda no mesmo espaço – armazenar 10 terabits, com taxas de transferência de dados da ordem de 1,2 megabits por segundo, como citado na página do Journal of Research & Development da IBM:
High-density data storage using proximal probe techniques
by H. J. Mamin, B. D. Terris, L. S. Fan, S. Hoen, R. C. Barrett, and D. Rugar We describe some of the achievements and problems associated with proximal probe-based approaches to high-density data storage. While STM-based methods have demonstrated spectacular areal densities dwarfing anything achievable with today's storage technologies, reliability and data rate issues present serious obstacles. These problems have led us to focus on techniques based on AFM and near-field optics. First, we have developed a thermomechanical writing scheme using an AFM tip. We have addressed many of the practical issues involved, including data rate. With custom low-mass cantilevers, we have demonstrated readback on real data with a data rate of 1.2 Mb/s. We have also pursued nontopographic storage techniques based on charge storage in nitride-oxide semiconductor structures and near-field optical storage. These techniques should be able to achieve densities comparable to those reached with the AFM scheme, with the added advantage that they are fast and reversible. Although it is not yet clear whether any of these probe-based approaches can ever be made practical, they do represent potential pathways to the higher densities that will be needed in the decades ahead. 
Será o mesmo que colocar num cartão parecido com os atuais cartões de crédito o equivalente aos mais de 20 milhões de volumes existentes na Biblioteca do Congresso dos Estados Unidos...

O computador, da calculadora ao PC
Um dos primeiros a obter grandes avanços em direção à invenção do computador foi Charles Babbage. Ele desenvolveu o conceito de uma máquina de calcular programável com memória, uma unidade de controle e uma calculadora no século XIX. Ele foi, entretanto, capaz apenas de realizar parte do seu conceito.
Nos anos 40, o computador se tornou uma realidade. Vários engenheiros de desenho desenvolveram computadores com sucesso independente um do outro, durante a Segunda Guerra Mundial. Hoje, entretanto, o engenheiro civil alemão Konrad Zuse é considerado o “pai do computador”. Zuse já criava máquinas de calcular desde 1936 e em 1941, ele criou o “Z3”, a primeira calculadora de controle programado. Apesar da máquina que ele havia criado ser do tamanho de três geladeiras, ela já contava com componentes dos atuais computadores: processador de dados, memória e uma unidade de saída.
O computador pessoal, o computador de baixo custo para todos.
Em 12 de agosto de 1981, a International Business Machines (IBM) apresentou o primeiro computador pessoal, o agora legendário “IBM 5150 PC” em Nova York. Começou então a era dos computadores.
O PC da IBM contava com o sistema de operação MS DOS feito pela companhia Microsoft. Outras características eram os processadores 8088, 64 KB de memória e um BIOS (sistema de input e output básico) desenvolvido especialmente para o computador.
Nos EUA, a primeira geração de PC custava cerca de 3.500 dólares incluindo o monitor. A IBM vendeu cerca de 35.000 destes computadores em 1981. Mas a demanda logo cresceu em grandes proporções. No total, a IBM vendeu cerca de três milhões destes primeiros PCs que ficaram disponíveis até 1987.
O pioneiro de computadores Steve Wozniak havia construído um computador pequeno, o “Apple I’, em 1976. Com um custo de 20.000 dólares, ele era extremamente caro para ser utilizado em casa. O “Apple I”, que chegou ao mercado em 1977, foi o primeiro microcomputador a obter sucesso comercial.

Marcos da Tecnologia



O microchip, o pequeno chip com grande capacidade
Sem microships não haveria calculadoras, PCs e notebooks. Os chips wafer, também chamados de circuitos integrados, armazenam um infinito de informação.
Os microchips são feitos de silicone e sua produção exige muito tempo. Para criar os atuais condutores, técnicas diferentes são utilizadas para sobrepor materiais estranhos como o alumínio ou cobre na superfície de silicone.
Cada partícula de poeira conta: afinal qualquer tipo de contaminação em um local que reúne quase um bilhão de transistores ao mesmo tempo em apenas um centímetro quadrado, pode ser desastrosa.
O pioneiro americano em eletrônica, Jack Kilby que recebeu o Prêmio Nobel em Física devido ao seu trabalho em 2000, é considerado o inventor do microchip. O físico apresentou o microchip ao público nos laboratórios do Texas Instruments em 1958. Cinco transistores soldados em um pedaço de germânio para criar um circuito, o primeiro chip já era do tamanho de um clipe de papel.
As estruturas nos microchips se tornaram menores e menores. Fabricantes de chip passaram a dobrar o número de transistores em um chip a cada 18 meses como previsto pela lei Moore. Entretanto, com a escala do tamanho reduzida para átomos, os fabricantes continuam indo contra os limites da miniaturização. Chegou então a hora de tentar novos métodos de abordagem. Os pesquisadores buscam soluções como “nanotubos de 

sexta-feira, 27 de agosto de 2010










Gráficos em grande.

O MacBook Air dispõe de um avançado processador NVIDIA que é a referência para desempenhos gráficos nos computadores ultra portáteis.










Tamanho pequeno. Enorme desempenho

Enquanto que muitos computadores portáteis sacrificam o desempenho gráfico para terem um design mais compacto, o MacBook Air utiliza um processador gráfico que economiza espaço de uma forma totalmente inovadora. A maioria das placas de computador contém vários componentes: a CPU, dois chips que controlam a comunicação ao longo do computador e o processador gráfico. Mas a placa lógica no MacBook Air contém apenas dois componentes: a CPU e um processador gráfico, com toda a lógica de núcleo integrada num só chip. O processador gráfico é o NVIDIA GeForce 9400M, e ajuda o MacBook Air a atingir novos níveis de desempenho gráfico — sem sacrificar a autonomia da bateria.

Jogadores, aos seus lugares

Os jogos conseguem um aumento de desempenho até 6x no MacBook Air em relação ao modelo original. 1 Explore os ambientes 3D de Call of Duty, Quake 4 e Doom 3 num ambiente de jogo mais rápido, suave e com maior capacidade de resposta. Os gráficos de jogos são mais nítidos, mais detalhados e tiram o máximo partido do ecrã brilhante com retroiluminação LED.


Partido do iLife

iPhoto, iMovie, GarageBand, iWeb — todos ganham vida no MacBook Air. Vai ficar surpreendido com a rapidez com que pode ver fotografias, editar filmes ou criar um blogue.

Trabalhe bem. E depressa.

Pode criar projectos, folhas de cálculo e apresentações com um óptimo aspecto no iWork. 2 E pode fazer tudo no MacBook Air. Necessita de criar uma apresentação Keynote? O fantástico desempenho gráfico no MacBook Air permite que os diapositivos sejam apresentados facilmente, os gráficos criados rapidamente, e as transições são feitas com suavidade.

Dê largas ao Mac OS X Leopard

No centro de cada MacBook Air está o Mac OS X Leopard com o seu interface de utilizador com um visual espectacular e as animação das aplicações. O desempenho gráfico melhorado no MacBook Air faz com que tudo no Mac OS X — Vista Rápida, efeitos do iChat, Cover Flow, Time Machine e centenas de outros elementos gráficos — responda de forma mais suave e rápida.

Até a DisplayPort é Mini.

O MacBook Air tem uma pequena porta que faz uma grande diferença. A Mini DisplayPort é uma porta padrão que proporciona uma ligação digital pura a monitores externos — até mesmo a monitores de 30 polegadas — de forma rápida e sem falhas. Diga adeus aos conectores de vários pinos com parafusos incómodos; com o Apple LED Cinema Display, a Mini DisplayPort ultra-compacta proporciona um desempenho plug-and-play. E suporta também ligações VGA, DVI e DVI de dupla ligação.



Veja tudo em grande

Com um MacBook Air, pode trabalhar ou jogar em qualquer local. Mas há momentos em que o desempenho gráfico exige mais pixels. Pode facilmente ultrapassar essa questão ligando um fantástico Apple LED Cinema Display de 24 polegadas.
O LED Cinema Display transforma instantaneamente o MacBook Air num computador pessoal. Ligue três conectores simples — Mini DisplayPort, USB e MagSafe— e, de repente, tem mais espaço para trabalhar e jogar, mais espaço para periféricos e um carregador automático para o MacBook Air. Nem sequer necessita de tirar o adaptador de corrente do saco. Tudo o que vê é maior e ainda mais brilhante.

sexta-feira, 2 de julho de 2010

Arquitetura e Funcionamento


O Computador - Arquitetura e Funcionamento

Computador, dispositivo eletrônico capaz de receber um conjunto de instruções e executá-las realizando cálculos sobre dados numéricos, ou compilando e correlacionando outros tipos de informação.





Tipos de computadores

Atualmente utilizam-se dois tipos principais de computadores: analógicos e digitais. Os computadores analógicos aproveitam a similitude matemática entre as inter-relações físicas de determinados problemas e empregam circuitos eletrônicos ou hidráulicos para simular o problema físico. Os computadores digitais resolvem os problemas realizando cálculos e tratando cada número, dígito por dígito.

Computadores analógicos

O computador analógico é um dispositivo eletrônico ou hidráulico desenhado para manipular a entrada dos dados em termos de níveis de tensão ou pressões hidráulicas, em vez de dados numéricos. O dispositivo de cálculo analógico mais simples é a régua de cálculo, que utiliza comprimentos de escalas especialmente calibradas para facilitar a multiplicação, a divisão e outras funções. No típico computador analógico eletrônico, as entradas se convertem em tensões que podem somar-se ou multiplicar-se empregando elementos de circuito de desenho especial. As respostas são geradas continuamente para sua visualização ou para sua conversão em outra forma desejada.

Computadores digitais

O funcionamento de um computador digital se baseia em uma única operação: a capacidade de determinar se um comutador, ou porta, está aberto ou fechado. Isto é, o computador pode reconhecer apenas dois estados em qualquer de seus circuitos microscópicos: aberto ou fechado, alta ou baixa tensão ou, no caso de números, 0 ou 1. Entretanto, é a velocidade com que o computador realiza este ato tão fácil que o converte em uma maravilha da tecnologia. As velocidades do computador se medem em megahertz, ou milhões de ciclos por segundo. Os microcomputadores podem executar entre 150 e 200 milhões de operações por segundo, enquanto os supercomputadores utilizados em atividades de pesquisa e de defesa alcançam velocidades de bilhões de ciclos por segundo.

História

A primeira máquina de calcular mecânica, um precursor do computador digital, foi inventada em 1642 pelo matemático francês Blaise Pascal. Em 1670 o filósofo e matemático alemão Gottfried Wilhelm Leibniz aperfeiçoou esta máquina e inventou uma que também podia multiplicar.

O inventor francês Joseph Marie Jacquard, ao desenhar um tear automático, utilizou finas placas de madeira perfuradas para controlar o tecido utilizado nos desenhos complexos. Durante a década de 1880 o estatístico norte-americano Herman Hollerith concebeu a idéia de utilizar plaquetas perfuradas, similares às placas de Jacquard, para processar dados.

A máquina analítica

Também no século XIX o matemático e inventor britânico Charles Babbage elaborou os princípios do computador digital moderno. Inventou uma série de máquinas, como a máquina diferencial, desenhadas para solucionar problemas matemáticos complexos. Muitos historiadores consideram Babbage e sua parceira, a matemática britânica Augusta Ada Byron (1815-1852), filha do poeta inglês Lorde Byron, como os verdadeiros inventores do computador digital moderno. A tecnologia daquela época não era capaz de colocar em prática seus conceitos; porém uma de suas invenções, a máquina analítica, já tinha muitas das características de um computador moderno.

Primeiros computadores

Os computadores analógicos começaram a ser construídos em princípios do século XX. Com estas máquinas se avaliavam as aproximações numéricas de equações muito difíceis para serem resolvidas mediante outros métodos. Durante as duas guerras mundiais, utilizaram-se sistemas de informática analógicos, primeiro mecânicos e mais tarde elétricos, para predizer a trajetória dos torpedos e para o manejo a distância das bombas na aviação.

Computadores eletrônicos

Durante a II Guerra Mundial (1939-1945), criou-se o primeiro computador digital totalmente eletrônico: o Colossus. Foi utilizado para decodificar as mensagens de rádio cifradas dos alemães. Em 1939, John Atanasoff e Clifford Berry já haviam construído um protótipo de máquina eletrônica no Iowa State College (EUA). Este protótipo e as investigações posteriores se realizaram no anonimato, e mais tarde foram eclipsados pelo desenvolvimento do Calculador e Integrador Numérico Digital Eletrônico (ENIAC), em 1945. No final da década de 1950 o uso do transistor nos computadores marcou o advento de elementos lógicos menores, mais rápidos e mais versáteis do que as máquinas com válvulas. Como os transistores utilizam menos energia e têm uma vida útil mais prolongada, ao seu desenvolvimento deveu-se o nascimento de máquinas mais perfeitas, que foram chamadas computadores de segunda geração.

segunda-feira, 12 de abril de 2010

Um pouco da história dos Computadores

A Primeira Geração

J.P. Eckert e John Mauchly, da Universidade da Pensilvânia, inauguraram o novo computador em 14 de fevereiro de 1946. O ENIAC era mil vezes mais rápido do que qualquer máquina anterior, resolvendo 5 mil adições e subtrações, 350 multiplicações ou 50 divisões por segundo. E tinha o dobro do tamanho do Mark I: encheu 40 gabinetes com 100 mil componentes, incluindo cerca de 17 mil válvulas eletrônicas. Pesava 27 toneladas e media 5,50 x 24,40 m e consumia 150 kW. Apesar de seus inúmeros ventiladores, a temperatura ambiente chegava às vezes aos 67 graus centígrados. Executava 300 multiplicações por segundo, mas, como foi projetado para resolver um conjunto particular de problemas, sua reprogramação era muito lenta. Tinha cerca de 19.000 válvulas substituídas por ano. Em 1943, antes da entrada em operação do ENIAC a Inglaterra já possuía o Colossus, máquina criada por Turing para decifrar os códigos secretos alemães. Possuía 2.000 válvulas, coincidentemente o mesmo número proposto por Zuse alguns anos antes.


Foto do ENIAC

Em 1945 Von Neumann sugeriu que o sistema binário fosse adotado em todos os computadores, e que as instruções e dados fossem compilados e armazenados internamente no computador, na seqüência correta de utilização. Estas sugestões tornaram-se a base filosófica para projetos de computadores. (Atualmente pesquisam-se computadores "não Von Neumann", que funcionam com fuzzy logic, lógica confusa) A partir dessas idéias, e da lógica matemática ou álgebra de Boole, introduzida por Boole no início do século XIX, é que Mauchly e Eckert projetaram e construíram o EDVAC, Electronic Discrete Variable Automatic Computer, completado em 1952, que foi a primeira máquina comercial eletrônica de processamento de dados do mundo. Eles haviam tentado isso com o BINAC, computador automático binário, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) o suficiente para ser levado a bordo de um avião, mas que nunca funcionou a contento. O EDVAC utilizava memórias baseadas em linhas de retardo de mercúrio, bem mais caras e lentas que os CRTs, mas também com maior capacidade de armazenamento. Wilkes construiu o EDSAC, Electronic Delay Storage Automatic Calculator em 1949, que funcionava segundo a técnica de programas armazenados.


Foto do EDVAC

O primeiro computador comercial de grande escala foi o UNIVAC, UNIVersal Automatic Computer, americano, de 1951, que era programado ajustando-se cerca de 6.000 chaves e conectando-se cabos a um painel. A entrada e saída de informações era realizada por uma fita metálica de 1/2 polegada de largura e 400 m de comprimento. Ao todo, venderam-se 46 unidades do UNIVAC Modelo I, que eram normalmente acompanhados de um dispositivo impressor chamado UNIPRINTER, que, sozinho, consumia 14.000 W. Outro foi o IBM 701, de 1952, que utilizava fita plástica, mais rápida que a metálica do UNIVAC, e o IBM 704, com a capacidade fenomenal de armazenar 8.192 palavras de 36 bits, ambos da IBM. Na Inglaterra surgem o MADAM, Manchester Automatic Digital Machine, o SEC, Simple Electronic Computer, e o APEC, All-Purpose Electronic Computer.


Foto do UNIVAC

Entre 1945 e 1951, o WHIRLWIND, do MIT, foi o primeiro computador a processar informações em tempo real, com entrada de dados a partir de fitas perfuradas e saída em CRT (monitor de vídeo), ou na flexowriter, uma espécie de máquina de escrever (Whirlwind quer dizer redemoinho). Em 1947 Bardeen, Schockley e Brattain inventam o transístor, e, em 1953 Jay Forrester constrói uma memória magnética. Os computadores a transistores surgem nos anos 50, pesando 150 kg, com consumo inferior a 1.500 W e maior capacidade que seus antecessores valvulados.

A Segunda Geração

Era a segunda geração. Exemplos desta época são o IBM 1401 e o BURROUGHS B 200. Em 1954 a IBM comercializa o 650, de tamanho médio. O primeiro computador totalmente transistorizado foi o TRADIC, do Bell Laboratories. O IBM TX-0, de 1958, tinha um monitor de vídeo de primeira qualidade, era rápido e relativamente pequeno, possuia dispositivo de saída sonora e até uma caneta óptica. O PDP-1, processador de dados programável, construído por Olsen, virou sensação no MIT: os alunos jogavam Spacewar! e Rato-no-labirinto, através de um joystick e uma caneta óptica.


Foto do IBM 1401

Em 1957 o matemático Von Neumann colaborou para a construção de um computador avançado, o qual, por brincadeira, recebeu o nome de MANIAC, Mathematical Analyser Numerator Integrator and Computer. Em janeiro de 1959 a Texas Instruments anuncia ao mundo uma criação de Jack Kilby: o circuito integrado. Enquanto uma pessoa de nível médio levaria cerca de cinco minutos para multiplicar dois números de dez dígitos, o MARK I o fazia em cinco segundos, o ENIAC em dois milésimos de segundo, um computador transistorizado em cerca de quatro bilionésimos de segundo, e, uma máquina de terceira geração em menos tempo ainda.

A Terceira Geração

A terceira geração de computadores é da década de 60, com a introdução dos circuitos integrados. O Burroughs B-2500 foi um dos primeiros. Enquanto o ENIAC podia armazenar vinte números de dez dígitos, estes podem armazenar milhões de números. Surgem conceitos como memória virtual, multiprogramação e sistemas operacionais complexos. Exemplos desta época são o IBM 360 e o BURROUGHS B-3500.


Foto do Manchester Mark I e do Primeiro Chip de Computador

Em 1960 existiam cerca de 5.000 computadores nos EUA. É desta época o termo software. Em 1964, a CSC, Computer Sciences Corporation, criada em 1959 com um capital de 100 dólares, tornou-se a primeira companhia de software com ações negociadas em bolsa. O primeiro minicomputador comercial surgiu em 1965, o PDP-5, lançado pela americana DEC, Digital Equipament Corporation. Dependendo de sua configuração e acessórios ele podia ser adquirido pelo acessível preço de US $ 18,000.00. Seguiu-se o PDP-8, de preço ainda mais competitivo. Seguindo seu caminho outras companhias lançaram seus modelos, fazendo com que no final da década já existissem cerca de 100.000 computadores espalhados pelo mundo.Em 1970 a INTEL Corporation introduziu no mercado um tipo novo de circuito integrado: o microprocessador. O primeiro foi o 4004, de quatro bits. Foi seguido pelo 8008, em 1972, o difundidíssimo 8080, o 8085, etc. A partir daí surgem os microcomputadores. Para muitos, a quarta geração surge com os chips VLSI, de integração em muito larga escala. As coisas começam a acontecer com maior rapidez e freqüência. Em 1972 Bushnell lança o vídeo game Atari. Kildall lança o CP/M em 1974. O primeiro kit de microcomputador, o ALTAIR 8800 em 1974/5. Em 1975 Paul Allen e Bill Gates criam a Microsoft e o primeiro software para microcomputador: uma adaptação BASIC para o ALTAIR. Em 1976 Kildall estabelece a Digital Research Incorporation, para vender o sistema operacional CP/M. Em 1977 Jobs e Wozniak criam o microcomputador Apple, a Radio Shack o TRS-80 e a Commodore o PET. A planilha Visicalc (calculador visível) de 1978/9, primeiro programa comercial, da Software Arts. Em 1979 Rubinstein começa a comercializar um software escrito por Barnaby: o Wordstar, e Paul Lutus produz o Apple Writer. O programa de um engenheiro da NASA, Waine Ratliff, o dBASE II, de 1981. Também de 1981 o IBM-PC e o Lotus 1-2-3, de Kapor, que alcançou a lista dos mais vendidos em 1982.


Primeiro chip da Intel o 4004 com 2.300 transistors, no mesmo ano Zuffo da USP fabrica o 1o chip nacional


Foto dos Sinclair ZX81/ZX Spectrum

Computador minúsculo concebido por John Sinclair, professor na Universidade de Cambrige no U.K.. Inicialmente concebido para utilização pelos estudantes da Universidade de Cambrige começou a ser comercializado, em Portugal, circa 1980 com um preço aproximado de 12.500$00. Existia uma versão em kit para montagem que era comprada aproximadamente por 9.000$00 A CPU compreendia um processador Zilog Z80A de 8 bit a 3,25 MHZ, uma memória que compreendia uma ROM e uma RAM e uma ULA. A ROM, com 8K de capacidade, armazenava de modo permanente os programas, tabelas etc. necessários ao funcionamento do sistema e um interpretador para a linguagem de programação BASIC. A RAM compreendia uma área de trabalho disponível para o utilizador de 1K mas, era extensível até 16K. Na caixa de plástico alojava-se ainda um subsistema de comunicações para ligação em série a periféricos denominado SCL (Sinclair Computer Logic), uma unidade para entrada e saída de som, um codificador de imagens para TV. Num rasgo aberto na parte traseira da caixa de plástico existia um conector onde se podia ligar uma impressora minúscula que usava um rolo de papel especial. O computador era fornecido com um cabo para ligação ao televisor e outro para ligação a um gravador de "cassettes" musical (norma Philips). O transformador de corrente eléctrica alterna para contínua era adquirido em separado. Os programas e dados eram gravados na cassette magnética e eram também lidos a partir dela. O teclado não dispunha de teclas. Os caracteres ASCII eram impressos numa membrana. Esta tecnologia e a falta de ventilação da unidade de alimentação eléctrica eram as causas principais de avarias que enviavam o ZX81 para o caixote do lixo. Foi um computador muito popular devido ao seu baixo preço de venda.


Foto do Osborne1

Fabricado pela Osborne nos USA circa 1982. A CPU compreendia uma memória com 64KB, uma UAL e um Processador Zilog Z80A de 8 bit a 4 MHZ. A caixa, do tipo mala attaché com uma massa de 11 Kg, albergava ainda 2 unidades de disquette de 5" 1/4 com 204 KB ou em opção com 408 KB de capacidade, um écran de 5" (24 linhas por 54 colunas) a preto e branco e um teclado basculante (servia de tampa à mala) com dois blocos de teclas, um alfanumérico com os caracteres ASCII e outro numérico. Dispunha ainda de conectores para um écran externo, ports série RS-232C e paralelo IEEE-488 ou Centronics. O sistema era alimentado por uma bateria própria recarregável com uma autonomia de 5 horas, por uma bateria externa de automóvel ou por um transformador de corrente eléctrica alterna para contínua. O sistema operativo era o CP/M desenvolvido pela Digital Corporation. O software fornecido incluia um Interpretador M BASIC desenvolvido pela MICROSOFT, um Compilador BASIC desenvolvido pela Compyler Systems, uma folha de cálculo SUPERCALC (derivada do Visicalc) e um processador de texto denominado WORDSTAR. Podia ser programado em BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER e CROSS-ASSEMBLER. Última morada conhecida: desconhecida (foi visto na FILEME-82 em Lisboa).


Foto do IBM PC/XT e do Seu Processador

Fabricado pela IBM nos USA circa 1980, foi apresentado em Portugal em Janeiro de 1985 já com a versão PC-XT disponível, à qual se seguiu uma versão PC-AT. O CPU compreendia uma memória ROM de 40KB e uma memória RAM de 64KB extensível até 640KB, uma ULA e um processador Intel 8088 de 16 bit com uma frequência de clock de 4,77 MHZ. Era construido com três módulos separados: caixa, écran e teclado. O écran era a preto e branco com 25 linhas e 80 colunas podendo ser substituido por um écran a cores com 16 cores. A caixa para além do CPU albergava uma unidade de disquette de 5" 1/4 com uma capacidade de 360KB podendo alojar ainda uma outra unidade de disquette idêntica ou um disco com 10MB de capacidade, que era parte integrada na versão PC-XT. O teclado com 83 teclas, 10 das quais correspondentes a funções pré programadas, dispunha de caracteres acentuados (português). Possuia ainda saída para impressora e o PC-XT dispunha de um interface para comunicações assincronas. O sistema operativo era o PC/MS-DOS o qual era um MS-DOS desenvolvido pela Microsoft para a IBM. A linguagem de programação utilizada era o BASIC. Embora sendo um marco histórico da entrada da IBM no sector de mercado dos PC's, chegou a Portugal tardiamente não ocupando nunca o espaço já conquistado por outros fabricantes. Só cerca de dois anos depois, com a apresentação dos modelos PS/2-50 e PS/2-60, que eram equipados com um processador Intel 80286, a IBM recuperou o sector de mercado dos PC's utilizando para o efeito a penetração nas empresas onde tinha instalado mainframes e "pequenos computadores".

A Quarta Geração

Surgiram em decorrência do uso da técnica dos circuitos LSI (LARGE SCALE INTEGRATION) e VLSI (VERY LARGE SCALE INTEGRATION). Nesse período surgiu também o processamento distribuído, o disco ótico e o a grande difusão do microcomputador, que passou a ser utilizado para processamento de texto, cálculos auxiliados, etc. -1982- Surge o 286 Usando memória de 30 pinos e slots ISA de 16 bits, já vinha equipado com memória cache, para auxiliar o processador em suas funções. Utilizava ainda monitores CGA em alguns raros modelos estes monitores eram coloridos mas a grande maioria era verde, laranja ou cinza. -1985- O 386 Ainda usava memória de 30 pinos, porém devido ás sua velocidade de processamento já era possivel rodar softwares graficos mais avançados como era o caso do Windows 3.1, seu antecessor podia rodar apenas a versão 3.0 devido à baixa qualidade dos monitores CGA, o 386 já contava com placas VGA que podiam atingir até 256 cores desde que o monitor também suportasse essa configuração. -1989- O 486 DX A partir deste momento o coprocessador matemático já vinha embutido no próprio processador, houve também uma melhora sensível na velocidade devido o advento da memória de 72 pinos, muito mais rapida que sua antepassada de 30 pinos e das placas PCI de 32 bits duas vezes mais velozes que as placas ISA . Os equipamentos já tinham capacidade para as placas SVGA que poderiam atingir até 16 milhões de cores, porém este artificio seria usado comercialmente mais para frente com o advento do Windows 95. Neste momento iniciava uma grande debandada para as pequenas redes como, a Novel e a Lantastic que rodariam perfeitamente nestes equipamentos, substituindo os "micrões" que rodavam em sua grande maioria os sistema UNIX (Exemplo o HP-UX da Hewlett Packard e o AIX da IBM). Esta substituição era extremamente viável devido à diferença brutal de preço entre estas máquinas.


Foto de um 386 e um 486 e a foto de Uma Mother Board (Placa Mãe) de um 486 DX 100


A Quinta Geração

As aplicações exigem cada vez mais uma maior capacidade de processamento e armazenamento de dados. Sistemas especialistas, sistemas multimídia (combinação de textos, gráficos, imagens e sons), banco de dados distribuídos e redes neurais, são apenas alguns exemplos dessas necessidades. Uma das principais características dessa geração é a simplificação e miniaturização do computador, além de melhor desempenho e maior capacidade de armazenamento. Tudo isso, com os preços cada vez mais acessíveis. A tecnologia VLSI está sendo substituída pela ULSI (ULTRA LARGE SCALE INTEGRATION). O conceito de processamento está partindo para os processadores paralelos, ou seja, a execução de muitas operações simultaneamente pelas máquinas. A redução dos custos de produção e do volume dos componentes permitiram a aplicação destes computadores nos chamados sistemas embutidos, que controlam aeronaves, embarcações, automóveis e computadores de pequeno porte. São exemplos desta geração de computadores, os micros que utilizam a linha de processadores Pentium, da INTEL. 1993- Surge o Pentium As grandes mudanças neste periodo ficariam por conta das memórias DIMM de 108 pinos, do aparecimento das placas de video AGP e de um aprimoramento da slot PCI melhorando ainda mais seu desempenho. 1997- O Pentium II / 1999- O Pentium III / 2001- o Pentium 4 Não houveram grandes novidades após 1997, sendo que as mudanças ficaram por conta dos cada vez mais velozes processadores.


Na ordem o Celeron / Ciryx / AMD K6 / Pentium MMX


O Pentium 2 e o AMD K6-2 os TOP de Linha até 1998 / Foto de uma placa de Pentium II


O Futuro - Vem aí o computador quântico

A IBM anunciou ontem a construção do mais avançado computador quântico do mundo. A novidade representa um grande passo em relação ao atual processo de fabricação de chips com silício que, de acordo com especialistas, deve atingir o máximo de sua limitação física de processamento entre 10 e 20 anos. O computador quântico usa, em lugar dos tradicionais microprocessadores de chips de silício, um dispositivo baseado em propriedades físicas dos átomos, como o sentido de giro deles, para contar números um e zero (qubits), em vez de cargas elétricas como nos computadores atuais. Outra característica é que os átomos também podem se sobrepor, o que permite ao equipamento processar equações muito mais rápido. "Na verdade, os elementos básicos dos computadores quânticos são os átomos e as moléculas", diz Isaac Chuang, pesquisador que liderou a equipe formada por cientistas da IBM, Universidade de Staford e Universidade de Calgary. Cada vez menores Segundo os pesquisadores da IBM, os processadores quânticos começam onde os de silício acabam. "A computação quântica começa onde a lei de Moore termina, por volta de 2020, quando os itens dos circuitos terão o tamanho de átomos e moléculas", afirma Chuang. A lei de Moore, conceito criado em 65 pelo co-fundador da fabricante de processadores Intel, Gordon Moore, diz que o número de transistores colocados em um chip dobra a cada 18 meses. Quanto maior a quantidade de transistores nos chips, maior a velocidade de processamento. Essa teoria vem se confirmando desde a sua formulação. Pesquisa O computador quântico da IBM é um instrumento de pesquisa e não estará disponível nos próximos anos. As possíveis aplicações para o equipamento incluem a resolução de problemas matemáticos, buscas avançadas e criptografia, o que já despertou o interesse do Departamento de Defesa dos Estados Unidos