1. O desenvolvimento dos computadores | História da Leitura

1. O desenvolvimento dos computadores

O desenvolvimento dos computadores dependeu grandemente do desenvolvimento da eletrônica, esta, por sua vez, com raízes na eletricidade. O uso da eletricidade em computadores deve-se ao fato de que ela pode representar convenientemente dois estados, a saber, ligado e desligado. Temos essa compreensão intuitiva ao imaginarmos uma lâmpada, que, necessariamente, estará em um desses dois estados. Ao estado “com energia” ou “ligado”, associamos o número “1”; ao estado “sem energia” ou “desligado”, associamos o número “0”. Com um tratamento matemático a esses dois estados, podemos representar qualquer número. Basta adotar o sistema de numeração chamado de binário, como o exemplificado na figura 38. Apenas para fins ilustrativos, tomamos um conjunto de três lâmpadas, que podem ser desligadas (0) ou ligadas (1):

Figura 38 – Exemplo de representação binária com a utilização hipotética de três lâmpadas.


Assim, as três lâmpadas desligadas indicam o número 0; apenas a última ligada, o número 1; a penúltima, o número 2; e assim por diante. Todas as combinações possíveis permitem indicar os números de 0 a 7. Para indicar mais números, bastaria aumentar a quantidade de lâmpadas. Essencialmente, é isso o que o computador faz, embora com um número muito maior do que apenas três posições. No ambiente computacional, cada uma dessas posições é chamada de binary digit – bit. Por motivos cuja explicação foge do escopo desse trabalho, adotou-se um conjunto básico de 8 bits como unidade fundamental, chamada byte. Cada byte, usando o raciocínio acima, pode representar um número de 0 até 255. Para representar números maiores, basta utilizar-se mais bytes.

Além dos caracteres numéricos, a notação binária permite representar qualquer outro símbolo, inclusive todos os caracteres que utilizamos para o texto escrito. Essa representação é convencionada, e o padrão adotado internacionalmente é chamado de American Standard Code for Information Interchange – ASCII.[1], criado em 1963 e publicado em 1967. No quadro 1, têm-se alguns exemplos de caracteres representados pela notação binária.

Quadro 1 – Exemplos de notação ASCII para caracteres do alfabeto

 

Uma vez que são utilizados estados definidos, isto é, “0” e “1”, esse sistema é chamado de “digital”, e contrapõe ao sistema “analógico”. Um sistema digital é aquele que utiliza um conjunto de valores entre os quais não há valores intermediários, como, por exemplo, num relógio em que podemos ver até os minutos, ou até os segundos. É assim chamado por relacionar-se a digito, ou “dedo”, em latim, e encerra a ideia de uma grandeza não contínua; do primeiro dedo, passamos imediatamente para o segundo, e assim por diante. Um sistema analógico contemplaria todos os valores intermediários. O amanhecer é um processo analógico, assim como o movimento de um carro, e os ponteiros de um relógio ao passarem sobre os números do mostrador. Como os computadores utilizam o sistema digital, os dois termos são usados de modo relacionado. Assim temos, comunicação digital, leitura digital, texto digital, entre outros. Uma vez que os estados digitais usados são apenas dois, o termo “binário” também é muito usado.

A aplicabilidade desse método simples não se limita a números e letras. Qualquer outro conteúdo, por mais complexo que possa parecer, como imagens, filmes, desenhos animados, sons, música, podem ser armazenados na forma binária em qualquer computador. E nessa forma, pode ser transportado, distribuído e acessado em qualquer ponto do planeta, à velocidade da luz. Essa possibilidade mudou todo o processo de produção e transmissão de mensagens.

A analogia das lâmpadas permite estabelecer também a diferença entre dois termos comuns à área da computação, a saber, hardware e software. Na comparação, o conjunto das lâmpadas e o necessário suporte material para seu funcionamento, com fios e interruptores, constituem o hardware do sistema. Já a convenção do significado dos estados ligado e desligado e a atribuição de valores numéricos a eles representam o software do sistema. Um sistema computacional exige ambos: componentes materiais, elétricos e eletrônicos, o hardware, e componentes lógicos, aplicações, programas e normas, chamados genericamente de software. Hardware e software desenvolveram-se de modo muito relacionado. Normalmente, o desenvolvimento de software mais sofisticado estabeleceu a necessidade de hardware mais eficiente, e com maior capacidade.

Com lâmpadas nós usamos interruptores para ligar e desligar, o que é impraticável no computador, porque ele deve realizar essa operação a uma velocidade muito alta. Os primeiros componentes eletrônicos que atingiram condições de funcionar como interruptores numa velocidade suficiente para o que seriam os computadores de primeira geração foram as válvulas a vácuo, inventadas por De Forest em 1906 [2]. Várias décadas depois de seu invento, ela foi utilizada no aparelho que é considerado o primeiro computador de uso geral, em 1946, o ENIAC (Electronic Numeric Integrator and Calculator – Calculadora e Integrador Numérico Eletrônico).

Este computador foi desenvolvido no Instituto de Tecnologia de Massachusetts (MIT), com patrocínio do exército americano, fundamentalmente para a realização de cálculos. Em sua construção, um aspecto notável eram suas dimensões: pesava trinta toneladas e ocupava a área de um ginásio esportivo. Possuía dezoito mil válvulas.  O ENIAC podia realizar cinco mil operações matemáticas por segundo, com uma memória de 200 bits, e consumia 200 kW de potência. Embora sejam valores extremamente lentos para os padrões atuais, permitia realizar em 30 segundos cálculos que demorariam 12 horas com os recursos da época [3].

A primeira versão comercial desse computador primitivo foi o UNIVAC1, produzido em 1951 e usado com sucesso para processar as informações do Censo norte-americano. Essas máquinas usavam a tecnologia das válvulas a vácuo, e são classificadas como as máquinas de primeira geração. As válvulas estabeleciam um limite no desenvolvimento de máquinas maiores e mais rápidas devido à sua baixa velocidade, baixa durabilidade e alto consumo de energia.

O desenvolvimento da eletrônica levou à criação dos transistores, que alteraram radicalmente o desenvolvimento dos computadores, e deram início à segunda geração de máquinas. Os transistores, como as válvulas, atuam como interruptores de alta velocidade, para gerarem os estados de desligado (0) e ligado (1). Porém, diferente das válvulas eles atuam com velocidade muito maior, consomem menos energia, têm maior durabilidade e são bem menores. Foram inventados em 1947, na Bell Laboratories, EUA, pelos físicos Bradeen, Brattain e Shockley, invenção pela qual receberam o Prêmio Nobel.

 Os computadores de segunda geração, a partir da década de 50 utilizavam os transistores em sua construção. Enquanto uma pessoa de nível médio levaria cerca de cinco minutos para multiplicar dois números de dez dígitos, o ENIAC em dois milésimos de segundo, um computador transistorizado em cerca de quatro bilionésimos de segundo.

O desenvolvimento da tecnologia eletrônica avançou em 1957 dos transistores para os circuitos integrados, eventualmente chamados de chips. Num circuito integrado, vários transistores e outros componentes eletrônicos são montados em dimensões extremamente reduzidas, o que reduz em muito o consumo de energia e o custo. De 1959 a 1962, ou seja, apenas 3 anos, os preços dos circuitos integrados caíram 85%. Apenas como comparação, após a revolução industrial, o preço do algodão demorou setenta anos (1780 – 1850) para cair 85%. A queda continuou e, um circuito integrado que custava U$ 50,00 em 1962 passaria a custar U$ 1,00 em 1971 [4].

A partir da década de 1960, os computadores, agora de terceira geração, passaram a usar circuitos integrados, o que diminuiu ainda mais suas dimensões e custo, e aumentou enormemente sua capacidade de processamento. Dependendo da configuração, um computador poderia custar apenas U$ 18.000,00, e até o final da década de 60, mais de 100.000 computadores já estavam espalhados pelo mundo. Até então, os computadores eram classificados em máquinas maiores, ou mainframes e máquinas menores, chamados de minicomputadores [5].

Um avanço gigantesco deu-se com a introdução dos microprocessadores, pela Intel, em 1971, assinalando o início da quarta geração de computadores. Um microprocessador é uma combinação de todos os componentes necessários ao processamento das informações num único chip. Essencialmente, é o computador num único chip. A quantidade de componentes contidos num microprocessador é um dos principais fatores que determinam sua velocidade. Em 1971, um microprocessador possuía 2300 transistores. Em 2000, um microprocessador Intel modelo Pentium 4 teria 42 milhões de transistores. Em 1965, um dos fundadores da Intel, Gordon Moore, estimou que o número de transistores colocados num processador dobraria a cada 18 meses, proporção que tem se verificado [6].

Como resultado da invenção dos microprocessadores, e ainda na década de 70, um importante desenvolvimento na história dos computadores foi a criação dos microcomputadores, possível graças a essa contínua miniaturização dos componentes. Essa criação permitiu que os computadores e a tecnologia digital passassem a fazer parte do dia a dia das pessoas, tornando-se inclusive um item doméstico. O marco inicial dessa presença dos computadores deu-se em 1981, com o lançamento do Personal Computer – PC, pela IBM, junto com programas que tornaram a utilização do computador acessível a usuários não especializados, como processadores de textos e planilhas de cálculo.

Durante os anos 80, os desenvolvimentos realizados nos componentes eletrônicos os tornaram mais velozes. Passaram a ter capacidade de trabalhar com imagens, além de texto, o que facilitou grandemente sua utilização e, consequentemente, sua popularidade. Nessa fase também, passava a ser comum a ideia de interligar vários computadores para formar uma rede. Conforme veremos, as redes de computadores já existiam anteriormente, mas é com o PC que elas se tornam cada vez mais comuns.

Os programas de computadores continuam a crescer em complexidade, sendo capazes de realizar cada vez mais funções. Os ambientes gráficos e de multimídia, como nos jogos para computadores, tornam-se mais sofisticados e com níveis de definição inimagináveis. Para acompanhar essa demanda, a indústria de computadores avança em tecnologia, e busca formas de aumentar ainda mais a capacidade das máquinas. Como o próprio Moore admitiu, sua chamada “lei” teria um limite natural quando as dimensões se aproximassem das dimensões atômicas. Os últimos desenvolvimentos da ciência da computação, de fato, já têm chegado a essas dimensões, na nanotecnologia e na “Computação Quântica”. Junto com esses desenvolvimentos, continuam pesquisas que utilizam inteligência artificial, processamento paralelo e supercondutores na construção de novos sistemas.

Em julho de 1999, a revista Science publicou artigo dos cientistas Phil Kuekes e Hames Health, no qual apresentam a descoberta de um modo de usar moléculas como computadores. Ainda que distante alguns anos de poderem ser utilizados em nível industrial, esse método viabilizaria a compactação de cem computadores com a capacidade de uma máquina de 1999 para o tamanho de um “grão de sal” [7]. Essas tecnologias e outras deverão ter um profundo impacto nos sistemas computacionais nos próximos anos.


[1] Código padrão americano para intercâmbio de informação.

[2] CASTELLS, Manuel.  Op. cit., p. 76.

[3] INFORQUALI. The History of Computer.

[4] CASTELLS, Manuel. Op. cit., p. 77.

[5] MANSANO, Ricardo. Uma Pequena História dos Computadores.

[6] BRIGGS, Asa; BURKE, Peter. Op. cit., p. 86.

[7] CASTELLS, Manuel. Op. cit., p. 90.

© Marco Antonio Simoes 2022