Primeiro foi a matemática (com Pascal), que criou o conceito de calcular com os dígitos 1 e zero.
Depois veio a eletrônica, com as válvulas e, mais tarde os transistores até a consagração da minuaturização(colocar em um pequeno chip todo o circuito e transistores necessários.
Bom, vou passar um texto que pode ajudá-lo bastante.
Não tenha preguiça em lê-lo , tem muitas curiosidades interessantes:
-------------------------------------------------------------------------
1. O que é um Computador?
Até meados do século 19, um computador não era uma máquina, mas uma pessoa, que tinha a função de fazer contas e arbitrar conflitos que envolvem números. Seus descenden-tes diretos são os atuais contadores, os técnicos em contabilidade que registram os números para fins legais.
A origem da palavra computar é muito antiga e começa com o latim putare (epa!), fixar quantidades, de onde derivam palavras como disputar, reputar e imputar. O verbo putar não existe em português, mas seu DNA pode ser encontrado na palavra putativo, ainda muito usada na linguagem jurídica: quando perguntamos "Quem é o pai da criança?", os possíveis suspeitos são chamados de pais putativos. E, para os muitos curiosos, a resposta é não: aquela famosa palavrinha de quatro letras não tem nada a ver com tudo isso: ela vem do latim puttus, menino (e em Portugal ainda é usada com esse mesmo sentido; nós brasileiros, é que a pervertemos...).
Mas, voltando ao computador, no século 17 os franceses criaram o verbo computer (com acento tônico no e), com sentido de calcular, mas foram os ingleses que transforma-ram o verbo no substantivo computer (com acento tônico no u), para designar as primitivas máquinas que hoje chamamos de calculadoras.
A aplicação do termo ao moderno computador só aconteceu a partir de 1944, quando o jornal inglês London Times publicou uma então delirantíssima matéria sobre alguns equi-pamentos que no futuro poderiam vir a substituir o esforço humano.
O Times chamou uma hipotética máquina pensante de computer. Foi isso, gente.
Curiosamente, apesar de terem usado pela primeira vez a palavra computer, os france-ses jamais a aceitaram para definir as engenhocas que hoje chamamos de computadores. Para os franceses, estas caixinhas feias e cheias de fios são ordinateurs de gestion, ou seja, ordenadores de gestão, e nada mais.
2. Quem inventou o computador?
O computador é uma invenção sem inventor. Ao contrário de muitas novidades, que al-guém com nome, sobrenome e atestado de vacina desenvolveu em um laboratório, ou des-cobriu por acaso, o computador sempre foi um aperfeiçoamento constante de idéias anterio-res. Muitas vezes, nada acontecia durante séculos, até alguém dar o passo seguinte: e alguns desses passos foram gigantescos. É só ler o que vem a seguir para perceber que ainda falta muito - mas muito mesmo - para ser inventado no campo da computação.
Nos dias mais recentes, acrescentamos à indústria da invenção a industria da obsoles-cência planejada e a criação de uma famosa teoria baseada na idéia de que a capacidade de memória e gestão dos computadores dura apenas 18 meses - e que neste período novas máquinas são inventadas, tornando as anteriores medievais.
3. Quando apareceu a primeira máquina de computar?
A pouco menos de 400 anos, o que significa que a ábaco era mesmo uma invenção da-nada da boa. A única grande desvantagem do ábaco era que o operador não podia errar ou se distrair. Se uma dessas duas coisas acontecesse, ele teria que começar tudo de novo, por-que o ábaco não tinha memória.
O primeiro instrumento moderno de calcular - na verdade, uma somadora - foi cons-truído pelo físico, matemático e filósofo francês Blaise Pascal, em 1642. A máquina, com seis rodas dentadas, cada uma contendo algarismos de 0 a 9, permitia somar até três parce-las de cada vez, desde que o total não ultrapassasse 999.999. Uma multiplicação, por exem-plo de 28 por 15 era feita somando-se 15 vezes o número 28.
Aliás, soma é uma palavra interessante: em latim antigo, summa significava essência. Daí veio sumário e súmula, no sentido de resumo, duas palavra anterior à aplicação do ter-mo soma ao campo da matemática. Soma é, então uma série de parcelas resumidas em um total.
A somadora original de Pascal ainda existe, ainda funciona e está exposta no Conser-vatoire das Arts et Metiers, em Paris. Olhando para ela, qualquer pessoa com dois neurôni-os ativos diria: Mas isso é muito simples. E é mesmo, mas também é verdade que qualquer coisa parece simples depois que alguém já fez. Interessante é que a maquina não tenha sido criada por nenhum dos grandes cientistas da época: quando construiu, Pascal tinha só 19 anos. A história vem se cansando de registrar façanhas como essa: de vez em quando, um garoto aparece do nada e muda o mundo.
Antes de morrer, aos 39 anos, em 1662, Pascal daria outras grandes contribuições a vá-rios campos da ciência. Por isso, acabou ficando em segundo plano um outro invento seu, usado até hoje, uma conseqüência até meio óbvia de sua somadora original: a caixa regis-tradora.
Tente responder a esta: dependendo dos olhos de quem as vê e utiliza, qual o invento mais importante, a calculadora ou a caixa registradora?
4. Como a somadora se transformou em Computador?
A máquina de Pascal teve uma vida útil de quase 200 anos e foi sendo aperfeiçoada por diversos inventores. Funcionava cada vez melhor, mas tinha um limite: a entrada de dados dependia da eficiência da pessoa que estivesse batendo os números em suas teclas. E, mes-mo que essa tarefa fosse executada por alguém altamente treinado, esse alguém ainda seria um ser humano, e seres humanos têm limites físicos. Assim, o passo seguinte teria que ser necessariamente o aumento na velocidade de alimentação dos dados.
Quem conseguiu encontrar a solução para isso foi um francês, Joseph-Marie Jacquard, depois de passar 20 anos matutando. Curiosamente, ele era de um ramo que não tinha nada a ver com números e calculadoras: a tecelagem. Filho de tecelões - e, ele mesmo, um aprendiz têxtil desde os dez anos de idade -, Jacquard sentiu-se incomodado com a monó-tona tarefa que lhe fora confiada na adolescência: alimentar os teares com novelos de linhas coloridas para formar os desenhos no pano que estava sendo fiado. Como toda operação era manual, a tarefa de Jacquard era interminável: a cada segundo, ele tinha que mudar o no-velo, seguindo as determinações do contramestre.
Com o tempo, Jacquard foi percebendo que as mudanças eram sempre seqüenciais. E inventou um processo simples: cartões perfurados, onde o contramestre poderia registrar, ponto a ponto, a receita para confecção de um tecido. Daí, Jacquard construiu um tear au-tomático, capaz de ler os cartões e executar as operações na seqüência programada. A pri-meira demonstração prática do sistema aconteceu na virada do século 19, em 1801, quando Jacquard tinha 48 anos. Dez anos depois, já havia mais de 10 mil teares de cartões em uso na França. O método de Jacquard se espalhou pelo mundo e perdurou, inalterado, pelos 150 anos seguintes! Mas fez, talvez, a primeira vítima da tecnologia: o contramestre, importan-tíssimo no sistema de tecelagem por ser o único a saber de cabeça a seqüência de opera-ções, que foi então substituído em suas funções mais nobres por uma máquina...
Os mesmos cartões perfurados da Jacquard, que mudaram a rotina da indústria têxtil, te-riam, poucos anos depois, uma decisiva influência no ramo da computação. E, praticamente sem alterações, continuam a ser aplicados ainda hoje: foram eles, os famigerados punching cards, que causaram toda aquela confusão na Flórida, na eleição para presidente dos Esta-dos Unidos em 2000.
5. Os cartões perfurados são a origem do computador?
Sozinhos não, mas foram uns passos cruciais. Eles eram uma maneira eficiente de ali-mentar a máquina com milhares de dados em poucos minutos, eliminado a lentidão huma-na. Faltavam ainda outros dois passos, e quem primeiro conseguiu equaciona-los foi um inglês, Charles Babbage, em 1834.
Babbage chamou seu projeto de aparelho analítico e anteviu os passos que até hoje são à base do funcionamento de um computador:
§ Alimentação de dados, através de cartões perfurados.
§ Uma unidade de memória, onde os números podiam ser armazenados e reutilizados.
§ Programação seqüencial de operações, um procedimento que hoje chamamos de sistema operacional.
Infelizmente, a máquina de Babbage nem chegou a ser construída: professor de mate-mática na Universidade de Cambridge, ele não dispunha de recursos para financia-la, nem encontrou investidores dispostos a ir além de algumas doações ocasionais. Mas seus relató-rios e projetos tornaram-se leitura obrigatória - e inspiradora - para todos os cientistas que dali em diante se aventuraram pelo mesmo caminho.
Curiosamente, os planos originais de Babbage ficaram engavetados por 157 anos, até que em 1991 cientistas britânicos do Museu de Ciência, em Kensington, resolveram montar a engenhoca. Que funcionou, com uma fantástica precisão de 31 casas depois da virgula. Se bem que hoje qualquer coisa é possível... recentemente, um maluco aí pulou no primeiro pára-quedas, projetado há 550 anos por Leonardo da Vinci, e aterrissou inteirinho.
Pausa para o cafezinho. Pra ver como naqueles bons e velhos tempos havia muita coisa para ser inventada... além da tal máquina analítica, Babbage inventou também o limpa-trilhos para as locomotivas. Que tinha um nome ótimo, mas que hoje faria qualquer gerente Junior de Marketing torcer o nariz, por considera-lo de amplitude comercial limitada: cowcatcher, pegador de vacas.
Mas, se os planos de Babbage não resultaram em nada de prático na época, pelo menos seus conceitos teóricos se espalharam pelo mundo, e os famosos cartões perfurados logo ganharam sua primeira aplicação prática na computação de dados, através de Hollerith.
6. Hollerith?!
Isso mesmo, Herman Hollerith (o nome dele é o apelido que muita gente ainda dá a seu recibo de pagamento). O conceito de Holerite tinha duas etapas: primeiro, transferir dados numéricos para um cartão duro, perfurando-o em campos predeterminados; depois, trans-formar os furos em impulsos, através da energia elétrica que passava por eles, ativando des-sa forma os contadores mecânicos dentro de uma máquina. O pulo do gato de hellerith foi o de juntar duas coisas que já existiam: os cartões de Jacquard e o conceito de impul-sos elétricos para transmissão de dados, usando um princípio de Samuel Morse havia desenvolvido bem antes, em 1844, quando inventou o telégrafo e transformou letras e números em sinais elétricos.
O cartão perfurado de hollerith estreou em 1887, em estudos estatísticos sobre mortali-dade. Mas foi em 1890, no recenseamento dos Estados Unidos, que o sistema ganhou fama mundial. Pela primeira vez, o pessoal do censo não precisou fazer o estafante trabalho bra-çal de tabular os milhões de dados que haviam sido coletados pelos pesquisadores. O recen-seamento ficou pronto numa fração do tempo que normalmente levaria, gerou uma enorme economia para governo americano e deu fama instantânea a Hollerith.
Portanto, há mais de 100 anos, no final do século 19, já existiam equipamentos capazes de transferir dados máquinas, que podiam processa-los e tabula-los a grande velocidade. E, durante os 40 anos seguintes, isso pareceu coisa de ficção sideral, pelo menos para as pes-soas normais - aqueles que ainda estavam discutindo as vantagens do fogão à lenha sobre seu similar a gás. Como se vê, não é de hoje que coexistem esses mundos diferentes, o do progresso e o da manutenção. Em 1918, quase 30 anos depois da proeza futurísticas de Hollerith, uma epidemia de gripe espanhola assolou o mundo e matou 10% da popu-lação do Rio de Janeiro, incluindo o recém-eleito presidente da República, Rodrigues Alves, Hollerith e gripes espanholas são facilmente encontráveis ao mesmo tempo na histó-ria da humanidade, como se caminhássemos desajustadamente, um pé sobre a calçada e outro no asfalto, quase todo o tempo. Nada é linear, nem no uso das tecnologias, nem nas ciências, nem no desenvolvimento dos povos.
7. O que ainda estava faltando para o computador computar?
Uma guerra, talvez. Apesar de serem um dos maiores contra-sensos da humanidade, as guerras têm sido uma espécie de dínamo tecnológico: novidades que demorariam anos para surgir em tempos de paz acabam sendo antecipadas pela urgência da vitória (ou o pavor da derrota). Foi durante a Segunda Guerra Mundial (1938/1945) que a ciência da computação deu seu salto definitivo.
8. O segredo do enigma indecifrável
Até parece filme de espionagem: para cifrar suas mensagens, os nazistas haviam criado uma máquina chamada, muito apropriadamente, de Enigma.
Durante os primeiros anos da guerra, os serviços de contra-espionagem dos países alia-dos conseguiam interceptar as mensagens dos alemães, mas eram incapazes de decifra-las. E, quando finalmente conseguiam, isso pouco adiantava, porque a mensagem seguinte vi-nha num código diferente. O que o Enigma fazia era gerar novos códigos a cada mensagem. Desvendar como esses códigos eram reprogramados passou a ser prioridade absoluta, e os ingleses resolveram que isso não era trabalho para heróis com bazucas, mas para cientistas com massa cinzenta. Um deles foi Alan Turing.
Turing já havia publicado trabalhos teóricos sobre computação de dados antes da guerra e por isso foi recrutado a toque de caixa pelas Forças Armadas. Se suas teorias estivessem corretas, elas levariam à construção de uma máquina capaz de imitar o cérebro humano para explorar - como num jogo de xadrez - todas as alternativas possíveis a partir de uma variável. Como a hipotética máquina de turing estaria apta a computar e traduzir milhares de caracteres por segundo, bastaria alimenta-la com qualquer mensagem cifrada alemã, para que ela em seguida devolvesse a mesma mensagem escrita em alemão compreensível. Simples... só faltava alguém construir tal máquina.
9. E alguém construiu?
Claro, senão o filme não teria graça. Porém, mais interessante ainda foi uma nova má-quina, construída logo em seguida, a partir do aprendizado com o enigma. Maior, mais ela-borada e mais sofisticada, e não por acaso batizada de Colossus, a máquina levou um ano para ser montada nos laboratórios dos correios londrinos, pelo cientista Thomas Flowers. Mas, uma vez plugada, programada e alimentada, resolvia qualquer questão de criptografia em poucos minutos. Concluído de 1941, o colossus ainda não era um modelo bem-acabado de computador, porque só executava uma única e específica tarefa, mas mostrou que a computação poderia resolver rapidamente qualquer problema que pudesse ser transformado em instruções numéricas. Mas, como tudo isso foi mantido em segredo durante e após a guerra (as dez unidades construídas do Colossus foram desmontadas em 1946, para evitar que caíssem em mãos inimigas), a obra de Turing só se tornou pública anos depois quando outras máquinas mais eficientes já haviam surgido.
10. Quando apareceu o primeiro computador moderno?
Vários renomados pesquisadores passaram anos disputando a primazia de ter sido o cri-ador. Um deles foi o alemão Konrad Zuse que aparentemente construiu em 1941 o primeiro computador eletromecânico, perfeitamente operacional, controlado por um programa com sistema binário (que Zuse chamava de ja/nein, sim/não, o antecessor do zero/um dos bits). Mas a máquina Zuse, chamada de Z1, foi reduzida a cinzas em um bombardeio dos aliados sobre Berlim, em 1944. Porém, além do próprio Zuse, que sobreviveu ao foguetório para contar sua história, restaram as suas anotações e as plantas de construção, e os princípios do Z1 se mostraram incrivelmente semelhantes a tudo o que viria depois.
Uma ampla e muito bem-feita campanha promocional talvez explique por que hoje se acredita que o primeiro computador tenha sido uma máquina americana, o ENIAC.
Assim como o primeiro homem a voar (todos nós já aprendemos) foi um dos irmãos Writ. Quem mandou os Santos-Dumont da computação não serem um pouco menos cien-tistas e um pouco mais marqueteiros?
11. O ENIAC é de quando?
Foi ligado na tomada em 1946. Era uma geringonça que funcionava usando 17.480 vál-vulas de rádio, pesava 4 toneladas media incríveis 30 metros de comprimento por 3 de altu-ra. Ocupava uma área de 180m², e era capaz de fazer 5 mil somas por segundo. Foi cons-truído por dois cientistas da Universidade da Pennsylvania, nos Estados Unidos, e seu nome vem de letras iniciais de Electonic Numerical Integrator And Computer - Integrador e Computador Numérico-Eletrônico. Seu desenvolvimento foi financiado pelas Forças Ar-madas americanas , a um custo na época, de 500 mil dólares, o que hoje corresponderia a uns 20 milhões de dólares. Por conta da repercussão daquela matéria do London Times, a mídia americana usou a palavra computer para explicar ao povão o que aquele paquiderme era capaz de fazer. Se a escolha recaísse sobre o I de ENIAC, e não sobre o C, hoje poderí-amos ter integradores ao invés de computadores.
12. Como o primeiro computador funcionava?
Hoje, ao clicar o mouse, ou ao teclar um ESC, um usuário não tem a mínima idéia de como as coisas acontecem lá dentro do sistema. Simplesmente, o comando é obedecido, e isso parece a coisa mais natural do mundo. No ENIAC, tudo isso acontecia do lado de fora. Primeiro, um grupo de cientistas desenvolvia equações matemáticas na exata seqüência em que elas tinham que ser digeridas pelo sistema. A seguir, seis especialistas programavam o computador para executa-las, girando botões de sintonia e plugando centenas de fios nas tomadas corretas. Portanto, o que hoje chamamos de sistema operacional era em 1946, uma operação totalmente manual.
O primeiro teste do ENIAC - uma demonstração feita para generais das Forças Arma-das - calculou a trajetória de uma bala de canhão até um alvo predeterminado. Alimentando com as equações, o computador forneceu os dados para que o canhão fosse calibrado. A bala acertou o alvo, mas o que mais impressionou os generais foi o fato de que o tempo que o computador levou para fazer o cálculo foi menor que o tempo real ocorrido entre o dispa-ro do canhão e a chegada da bala ao alvo. O único problema do ENIAC era que, para cal-cular a trajetória de uma nova bala até um novo alvo, tudo tinha que ser refeito: desde as equações até o reacerto dos fios e dos botõezinhos. É exatamente essa tarefa, a mais com-plicada de todas, que hoje já vem embutida nos programas - chamados de software.
13. Mas...
Sim, sempre tem um mas. Na década de 1930, além de Konrad Zuse na Alemanha, ha-via mais uma penca de gente boa trabalhando, simultânea e isoladamente, no desenvolvi-mento de máquinas calculadoras de altíssima velocidade. Uma dessas pessoas era o doutor John Atasanoff, professor de Física na Universidade de Iowa State. Em 1939, sem muito alarde, ele conseguiu construir um aparelho experimental, que chamou de ABC (Atasanoff Berry Computer). O Berry em questão era seu assistente no projeto, o estudante Clifford Berry. O doutor Atasanoff fez demonstrações práticas de seu protótipo para diversos cien-tistas, e um deles mostrou especial interesse em conhecer todos os detalhes, tintim por tin-tim. Era o doutor John Mauchly, que trabalhava para as forças Armadas no desenvolvi-mento do ENIAC...
A repercussão positiva que o ENIAC causou junto à opinião pública americana trans-formou o doutor Mauchly (e seu associado no projeto, o doutor Eckert) em figuras proemi-nentes e acima de qualquer suspeita.
Mas o doutor Atasanoff decidiu fazer o que nenhum outro cientista ousara: levar o caso aos tribunais, onde ele acionou a dupla do ENIAC por pirataria científica. O processo se arrastou por 20 anos, dada a natural dificuldade dos juízes de decidir sobre uma questão fora de sua compreensão, complexa e de alta tecnologia, e ao fato de as testemunhas das partes envolvidas não serem, exatamente neutras. Finalmente em 1972, uma corte distrital americana decidiu que o ENIAC havia derivado das idéias do doutor Atasanoff. Não ficou muito claro o que essa derivação significava, já que o doutor Mauchly não foi condenado, nem o doutor atasanoff recebeu alguma compensação. Mas , depois de tanta briga, ele pelo menos garantiu seu lugar na história.
14. E, claro, ainda tinha a IBM...
Além do doutor Atasanoff, também a IBM reivindica sua participação na invenção do primeiro computador moderno, que teria sido o Harvard Mack I, parcialmente financiado pela IBM. O Mark I tinha o nome técnico de Calculador Automático Seqüencial Controlado e foi construído entre 1939 e 1944 (praticamente, durante toda a Segunda Guerra Mundial) pelo professor Howard Aiken. Como o próprio nome técnico já indica, o Mark I talvez te-nha sido a maior máquina de calculadora já construída (20 metros de comprimento por 3 de altura, e 750 mil componentes).
O papel da IBM no desenvolvimento da computação é inegável. Por isso se as maqui-nas Mark da Harvard e da IBM eram ou não legítimos computadores, ou apenas enormes calculadoras, é hoje uma questão secundária. O acaso se encarregaria de dar-lhes um lugar de destaque na história da computação, mas por um outro motivo, bem mais prosaico : foi num Mark II que apareceu o primeiro bug.
Não um bug, mas o bug. A palavrinha já vinha sendo usada como gíria para significar complicação desde os primórdios da Revolução industrial. No século 19, quando as maqui-nas começaram a substituir o trabalho braçal, elas foram instaladas em galpões abertos, onde havia uma variada frota de insetos voando para lá e para cá, o tempo todo. A possibi-lidade de um de eles pousar no lugar errado e causar estragos era grande, e aí qualquer pa-rada mecânica era, em principio, atribuída a um bug.
Só que no caso dos computadores foi um bug de verdade: sabe-se lá como, uma mari-posa conseguiu entrar num Mark II do centro Naval de Virgínia, nos Estados Unidos, e travou todo o sistema. O episódio aconteceu em 1945, e está perfeito e hilariamente do-cumentado, porque o técnico que descobriu a mariposa a anexou a seu relatório de Manu-tenção, grudando a danadinha com fita adesiva, após explicar tecnicamente: havia um bug no sistema. Daí em diante o nome passaria a ser sinônimo de qualquer tipo de falha ou erro, sendo que o mais famoso (e mais caro) de todos os bugs foi o do milênio, que iria paralisar o mundo na virada de 1999 para 2000. calcula-se que, para neutraliza-lo, foram gastos 120 bilhões de dólares, dinheiro suficiente para comprar todo o estoque de inseticidas do mun-do!
Mas, com ou sem bug, o desenvolvimento acelerado dos Mark e de seus sucessores imediatos era uma prova de que a IBM não pretendia deixar escapar-lhe das mãos o novo mercado de computadores, como realmente não deixou.
15. Desde quando a IBM domina o mercado de grandes computadores?
Desde sempre, quando foi constituída em 1911, a empresa fabricava equipamentos para escritórios e se chamava CTR, o que já demonstrava sua simpatia por siglas. E a letra C da sigla era inicial de computação, embora a palavra ainda não tivesse nada a ver com os atu-ais computadores, mas com as calculadoras da época. Um dos fundadores da IBM foi Her-man Hollerith, o homem dos cartões perfurados, e daí veio o T, de tabulação. O nome IBM, uma sigla para Internacional Business Machines, apareceu em 1924 e daí em diante a em-presa só fez crescer a abocanhar mercados.
A entrada da IBM no ramo de computadores, ocorreu quase que por inércia, numa épo-ca em que a maioria das empresas ainda estava em dúvida sobre a viabilidade comercial da computação, mas não queria correr o risco de ficar de fora. Aliás, esse a maioria aí incluía a própria IBM. Em 1943, seu presidente, Thomas Watson Jr., entrevistado sobre o potencial do novo segmento, declarou: "Eu não acredito que exista um mercado mundial para mais de cinco computadores."
Mister Watson vacilou? Nem tanto, porque previsões sobre computadores tem sido uma das piores armadilhas para quem se arrisca a exercícios de futurologia. Em 1949, a influ-ente revista americana Mecânica Popular profetizou, empolgadíssima: Enquanto um com-putador tem 18mil válvulas e pesa 30 toneladas, no futuro eles terão apenas mil válvulas e pesarão no máximo 1 tonelada e meia. Depois dessa, seu micro não se sentiu um tanto quanto anoréxico? Bom, para não ficarmos apenas na pré-história, que tal essa frase de Bill Gates, em 1981, quando a IBM seu computador pessoal: Não vejo motivos para algum dia alguém querer ter um micro com mais de 64K de memória. 64K??? Sim, houve um tempo em que 64K era uma memória de elefante!
De qualquer forma, e apesar das desconfianças iniciais de Mr. Watson, após a Segunda Guerra Mundial a IBM lançaria versões cada vez mais avançadas de computadores desen-volvidos especialmente para gestão de negócios. Em 1952 seria a vez do IBM 701, inaugu-rando a moda dos modelos numerados.
No começo, o maior concorrente da IBM era a Remington Rand, que produzia o UNI-VAC (Universal Automatic Computer). Em 1952, um computador UNIVAC acertou a pre-visão sobre a vitória do candidato Dwight Enseinhwer à Presidência da República, contrari-ando os institutos de pesquisas, e com isso ganhou fama e novos clientes. Mas aí o tempo foi passando, a IBM foi tomando conta do terreiro e a concorrência acabou murchando...
Tão dominante tem sido a IBM no mercado de grandes sistemas que até o governo ame-ricano caiu no pau: em 1952 e 1969, Tio Sam moveu processos contra o monopólio da IBM, que saiu de ambas as brigas sem maiores arranhões. O auge do poder da IBM seria retratado pelo diretor Stanley Kubrick, em seu filme 2001, Uma Odisséia no Espaço, de 1968. Nele, um supercomputador começava a tomar suas próprias decisões, inclusive a de eliminar alguns humanos que discordavam de suas idéias. O nome do vilão eletrônico do filme era HAL, as três letras que no alfabeto antecedem I, B e M. Mas, enfim, o ano de 2001 chegou sem que a visão apocalíptica de Kubrick se materializasse, e a humanidade vai convivendo sem maiores traumas com os bits e bytes.
16. O que é bit?
Bit é uma palavra formada pelas duas primeiras letras de binário e pela última letra de dígito (digit, em inglês). Quem inventou a palavrinha foi um engenheiro belga, Claude Shannon, em sua obra Teoria Matemática da Comunicação, de 1948. Nela, Shannon des-crevia um bit como sendo uma unidade de informação.
Por que não bid, que seria mais óbvio? Talvez porque bit, em inglês, quer dizer pequena parte. E bid significa lance, oferta. Pode ser que a formação bit seja menos correta gramati-calmente, mas define com mais perfeição aquela partezinha que início a tudo.
17. Para que serve um bit?
O bit é a base de toda a linguagem usada pelos computadores. O sistema binário, ou base dois, e graficamente é representado por duas alternativas possíveis: ou o algarismo 0, ou o 1. È como se, lá dentro da máquina, houvesse um sistema de tráfego com duas lâmpa-das: a informação entra e, se encontra com a lâmpada 1, segue em frente até a lâmpada se-guinte. Se dá de cara com a lâmpada 0, muda de direção. São bilhões de informações repe-tindo essas manobras a cada pentelhésimo de segundo. E, por incrível que pareça, sem con-gestionamentos.
18. O que é mesmo um sistema binário?
Num sistema binário usam-se só dígitos, o 0 e o 1 para representar qualquer número. Comparando com o sistema de base decimal, a relação é a seguinte:
Sistema Decimal:
1 2 3 4 5 6 7 8 9 10
Sistema Binário:
0001 0010 0011 0100 0101 0110 0111 1000 1001 1010
E por ai vai, até o infinito: por exemplo, em notação binária, 1000000000000 - 13 alga-rismo ao numeral 4096, de apenas quatro algarismo. Parece complicado, mas a vantagem do sistema binário é sua simplicidade, pelo menos do ponto de vista do computador: se cada um dos dez algarismos arábicos tivesse que ser reconhecido individualmente pelo sis-tema, os cálculos demorariam muito mais.
Os bits não servem apenas para representar números, mas para qualquer coisa que pre-cise ser informada a um computador. De uma letra ou vírgula, até a cor que queremos usar. Cada uma dessas informações é transformada em um código binário e interpretada pelo sistema. Por exemplo, ao ler 01001010 01000001 01000011 01001011, o computador sabe-ria que isso, obviamente, quer dizer JACK.
É bom a gente lembrar que o sistema binário é bem antigo - em relação à televisão, por exemplo, é 100 anos mais velho. Os cartões perfurados do século 19 já o utilizavam: ou uma determinada posição tinha um furo (1) ou não tinha (0).
O curioso nessa história toda é que a ciência da computação não foi a primeira a usar o sistema binário. Os papuas, habitantes da Nova Guiné, são uma tribo tão primitiva, mas tão primitiva, que até hoje ainda não aprenderam a contar usando os dedos. Há milênios eles se utilizam de um rudimentar sistema binário. Há um símbolo para 1, outro para 2 e daí em diante, para qualquer quantidade, emprega-se um grunhido que significa imensamente mais...
19. Quantos bits tem um byte? Ou é contrário?
Um byte tem oito bits.
20. Qual é a diferença entre um bit e um byte?
Um byte é uma informação inteira (por exemplo, um número). E os bits são as oito pe-ças que, colocadas juntas permitem ao sistema reconhecer que número é aquele. Em lin-guagem binária, o número 14 é expresso assim: 00001110. Cada um dos oito algarismos é um bit. Todos eles juntos, um byte. E o sistema lê zeros e uns, mas entende 14.
21. Por que um byte não tem dez bits, já que os sistema de base decimal são os mais usados no mundo?
São oito bits num byte porque as combinações possíveis de oito dígitos são mais que suficientes para expressar qualquer número, letra ou símbolo (nossas placas de automóveis têm sete caracteres pelo mesmo motivo). Hoje estamos muito acostumados à prevalência das métricas de base 10, mas muitas matemáticas foram construídas tendo como base o 60 - uma herança que recebemos dos babilônios, há 40 séculos - e não o 10. o triunfo do 10, fruto da prosaica vitória de nossas mãos e pés de dez dedos, não impediu no entanto que a base 60 ainda seja amplamente usada - no contar das horas e dos graus, por exemplo - e que conviva com o atual reinado da base decimal. Quem sabe se, num futuro movido a computação o oito passará a ser o único padrão?
22. E o Kilobyte?
Como todo mundo já percebeu, todo dia aparece um novo microchip com capacidade para processar o dobro de dados que o chip da véspera tinha ( o que faz com que aquele micro zerinho que nós compramos já esteja ultrapassado no momento em que é retirado da caixa). Por isso, as medidas também têm que ir aumentando. O primeiro salto foi o Kilo-byte.
23. Um kilobyte são mil bytes, assim como um quilômetro são mil metros e um quilograma são mil gramas?
Kilo é uma palavra grega que significa mil, logo um kilobyte tem mil bytes, certo? In-felizmente, a informática é simples, mas nem tanto. Um kilobyte tem 1024 bytes. Porque a base de tudo, como já vimos, é número 2, e a capacidade de processamento dos micros evolui em múltiplos, sempre dobrando em relação à medida anterior: 4k, 8k, 16k, 32k, 64k, 128k, 256k, 512k. o pulo seguinte, para 1024, dá o valor mais próximo de mil. Portanto, esse kilo de bytes aí já vem com um chorinho... Mas, para quem se liga em matemática, a explicação é que o sistema usa como base o logaritmo 2: o número 1024 corresponde a 2 elevado à décima potência.
24. Logo, a medida seguinte, o megabyte, tem 1024 mil kilobytes, certo?
É duro de acreditar, mas a resposta também é não. Um megabyte te mil kilobytes, re-dondinhos. É que a partir do megabyte todas as novas medidas são sempre mil vezes maio-res que a anterior. E todas elas derivam de palavras gregas: mega em grego quer dizer grande. Daí derivou, por exemplo megalomania, a chamada mania de grandeza.
Depois do megabyte, vem terabyte. Pense um pouquinho: que nome daria a uma medi-da mil vezes maior que uma megalomania? Monstruosa, talvez? Pois é isso mesmo, terá em grego é monstro. Então, só pra gente não se perder, um terabyte são mil megabytes, ou um milhão de kilobytes, ou 1024 bilhões de byte, ou 8.192 bilhões de zerinhos ou unzinhos, os bits.
E isso vai longe. As próximas palavras que muito em breve vão aparecer nos anúncios que qualquer jornal de domingo, anunciando uma liquidação de micros no armazém da es-quina, são o petabyte, o exabyte, o zettabyte e o yottabyte. Um yottabyte corresponde a um número que talvez nem exista uma palavra para definir: 10 elevado à 24º potência, ou de modo mais simples, 1.000.000.000.000.000.000.000.000 de bytes. Parece uma enormidade, mas bem provável que daqui a uns 20 anos um yottabyte vá valer menos que um bit furado. Felizmente, o dicionário grego é uma fonte inesgotável de palavras novas, e uma sugestão, para quando o número de bytes chegar ao centésimo zero, poderia ser quambyte, já que em grego quam significa cume quié ??
25. Por que o tamanho dos computadores foi reduzido tão rapidamente?
Porque na década de 1950 apareceu o transistor, circuito integrado para substituir as antigas válvulas. Eram elas, que ocupavam a maior parte da estrutura física de um compu-tador. Fabricado inicialmente pela Fairchild Semiconductors, o transistor era uma maravi-lha eletrônica que fazia a mesma coisa que uma válvula - deixar ou não deixar passar uma corrente elétrica - , mas ocupando um espaço muitas vezes menor: enquanto uma válvula mal cabia na palma da mão, um transistor era menor que um dedo mindinho.
Transistor é um desses nomes que aparecem ter vindo diretamente de Marte, mas o ter-mo foi inventado por um cientista dos Laboratórios Bell, John Pierce (que nas horas vagas era, claro, escritor de ficção cientifica) a partir de outras duas palavras: transferir e reter (em inglês, transfer e resistor). O nome batizou a obra de três outros cientistas dos Labora-tórios Bell, Bill Schockley, John Bardeen e Walter Brattain, que em 1945, concluíram os estudos teóricos que anos depois possibilitaram a fabricação em massa do transistor. Em 1956, eles recebiam o Prêmio Nobel por seus trabalhos. Aliás, o que esse povo dos Labo-ratórios Bell inventou de coisa e ganhou de Prêmio Nobel no século 20 daria para encher um outro livro...
Mas para nós brasileiros, que há 40 anos achávamos que computador era algo que ja-mais faria parte de nossas vidas, a novidade do transistor se encarnou numa mania instantâ-nea: o radinho de pilha - ou, como era solenemente chamado, o rádio portátil transistoriza-do que na época desencadeou um febre consumista: era um tal de levar o radinho à missa, ao cinema, ao escritório, liga-lo bem alto para todo mundo ouvir, explicar como aquela maravilha funcionava... na verdade, uma epidemia não muito diferente da que acometeria os proprietários dos primeiros telefones celulares nos anos 90.
26. O microchip é um transistor?
É uma placa minúscula com batelada de minúsculos transistores - o Pentium IV, da In-tel, tem 42 milhões deles - cada um com a mesma função do transistor original: transferir ou reter a corrente elétrica. A diferença está na dimensão: se o transistor era do tamanho de um dedo, o microchip era menor que uma impressão digital. O que permitiu o aparecimento dos microchips foi a aplicação prática de novos semicondutores de eletricidade, que têm esse semi no nome porque conduzem - ou não - uma carga elétrica. Voltando ao começo da história, o sistema binário funciona através da leitura de um impulso elétrico, e quando mais rápida for essa leitura maior será a capacidade do computador.
A vantagem do microchip sobre o transistor é o silício, um elemento que faz com que a corrente elétrica seja conduzida muito mais rapidamente de um bit para outro. Daí vem o nome Vale do Silício para a região da Califórnia, nos Estados Unidos, onde está instalado o núcleo das empresas digitais, entre elas a Intel Corporation, que criou o primeiro microchip, em 1971. Tudo em família: tanto o pessoal que fundou a Intel, dos microchips, como o povo que fundou a Fairchild, dos transistores, era gente vinda dos Laboratórios Bell.
O que as donzelas que andam inflando seus airbaigs peitorais têm a ver com isso? É só uma questão de tradução: do latim sílex veio o inglês silicon, que tanto quer dizer silício como silicone. Na hora de traduzir os implantes nos seios à base de gel, nós usamos silico-ne. Para os chips dos computadores, preferimos silício.e tanto um negócio quanto o outro não param de se expandir. Calúnia dos derrotistas que insistem em dizer que nós não temos o nosso Silycon Valley. Temos sim. E a Marquês de Sapucaí, no carnaval carioca, o que é?
27. Quanto foi que os computadores digitais subtituíram os analógicos?
Nunca. Essa parece meio difícil de acreditar, mas as palavras analógico e digital convi-vem desde os primórdios dos computadores. Só que essa noção atual de que analógico é algo arcaico, e que digital é seu sucessor moderno, não só não existia há 60 anos como era exatamente o contrário: o analógico era muito mais avançado que o digital.
Os computadores digitais - que também eram chamados, com otimismo exagerado, de cérebros eletrônicos - custavam bem menos que seus similares analógicos e tinham como principal vantagem a rapidez. Eles operavam com informações numéricas fixas - ou dígitos - e o resultado era uma única e exata solução.
Já os computadores analógicos, muito mais caros, lidavam com dados que requeriam variações contínuas, como por exemplo a alteração da velocidade, a direção do vento ou a posição de um avião numa simulação de aerodinâmica de vôo.
Aliás, as próprias origens das duas palavras já mostram a diferença na sua sofisticação: digital, como já vimos, veio de digitus, dedo. E analógico vem do grego análogos, propor-cionalidade, ou, em seu significado original, razão. Hoje, a nova razão da moçada passou a ser o mundo digital, enquanto a geração analógica parece que perdeu a razão de existir. Coisas da vida...
28. E então surgiu o microcomputador?
Muita gente vai se surpreender, mas bem antes do microcomputador surgiu o vídeo ga-me. Treze anos antes, para ser exato, em 1962. Três sujeitos de 25 anos, que trabalhavam juntos no altamente tecnológico Instituto Ingham, em Massachusetts, nos Estados Unidos, e que eram fanáticos por ficção cientifica, começaram a juntar protótipos de equipamentos que o instituto estava desenvolvendo. E se puseram a pensar se tudo aquilo não poderia ser transformado em algo útil para matar o tempo entre um projeto e outro. Para seus chefes, eles justificariam o esforço dizendo que estavam trabalhando numa demonstração das po-tencialidades interativas da computação. O resultado foi o spacewar, o primeiro game.
Aí por 1960, já existiam dois ou três programinhas que faziam bolinhas pular na tela, ou tijolos ir sendo empilhados. A grande diferença é que o spacewar permitia que duas pessoas controlassem o que estava acontecendo na tela. Para isso foram criadas duas caixas de con-trole, com três comandos: uma alavanca que movia para a frente e para trás uma nave espa-cial (na verdade, um ponto na tela), outra alavanca que acelerava a velocidade e um botão que disparava um torpedo e reduzia a nave inimiga a pó. Game over!
Os três inventores, a quem as industrias do milionário setor de joguinhos devem pelo menos uma plaquinha de agradecimento na recepção, foram Slug Russel (especialista em inteligência artificial), Wayne Witapen (matemático) e Martin graetz (nenhuma especiali-zação, mas muita imaginação). O spacewar mostraria que era possível ao operador escapar da ditadura dos programas quadrados e decidir o que iria acontecer na tela no momento seguinte.
29. Nesse mundo doido, é possível antever o futuro?
Quase nunca, mas, de vez em quando, alguém acerta na mosca. E aqui vai uma dessas histórias que, se fosse enredo da filme de Hollywood, seria considerada uma elucubração de algum roteirista com excesso de imaginação. Mas ela é real e está detalhadamente do-cumentada.
Em 1970, a Xerox Corporation, não querendo perder o bonde do avanço tecnológico, decidiu investigar algumas opções de negócios que poderia vir a ter no futuro, além de fa-bricar e alugar máquinas copiadoras. Para isso, contratou a nata das pensantes da época - cientistas, principalmente, mas também gênios recém-saídos de universidades de alta tec-nologia e confinou essa turma em seu Centro de Pesquisas em Palo Alto, cidade da Califór-nia. Ao fim quase dois anos espremendo os neurônios, a equipe conseguiu chegar a duas idéias bem interessantes:
A primeira foi um protótipo batizado de Alto, em homenagem à cidade - de uma ma-quininha desenvolvida para pertencer a um único indivíduo, que poderia, se quisesse, usa-lo até em sua própria casa. O Alto era simplesmente uma tela vertical de televisão, acoplada a um teclado semelhante ao de uma máquina de escrever, e ambos conectados a uma caixa, pouco maior que um nobreak atual, dentro da qual programas com instruções faziam a en-genhoca funcionar. O conceito era incrivelmente revolucionário para uma época em que computadores eram equipamentos enormes, pesadões e, principalmente, caríssimos, tanto que só grandes empresas podiam se dar ao luxo de possuir um.
30. A Xerox tinha inventado o microcomputador?
Inventado talvez não, porque os conceitos estavam voando há algum tempo, e alguns dos técnicos que a Xerox contratara já tinham trabalhado em projetos ligados à computação pessoal. Mas a Xerox foi a primeira a construir um micro que funcionava na prática. Só isso já seria uma história e tanto, mas o Alto tinha outras características ainda mais impressio-nantes:
· Para que o usuário de um Alto não tivesse que decorar e digitar milhares de frases com instruções, os cientistas criaram pequenos desenhos que ficavam na tela, facilmente reconhecidos, através dos quais era possível abrir os pro-gramas correspondentes. Eram os ícones, sem os quais 99% de nós não sa-beríamos como operar um micro hoje em dia.
· Para abrir os ícones, foi usado um pequeno aparelho, conectado ao micro. Ao movê-lo, o usuário via um pontinho caminhar na tela, reproduzindo o movimento feito com a mão. Era o mouse. Quando o pontinho parava sobre um ícone, tudo o que o usuário tinha a fazer era apertar um dos três botões do mouse para que o programa aparecesse na tela. O mouse não era uma idéia nova (havia sido inventado sete anos antes, 1965, por um engenheiro, Doug Engelbart, do Instituto de Pesquisa da Universidade de Stanford - e era de madeira!). Mas, ao adapta-lo ao Alto, o pessoal da Xerox encontrou o uso perfeito e definitivo para ele.
· Ao invés de fazer os caracteres - letras, números e figuras - aparecerem já formados na tela, num processo semelhante ao de uma máquina de escrever, o sistema construía cada um deles, a partir de milhões de pontos isolados (ou pixels), um processo hoje chamado de bit mapping, que é a base de qualquer sistema gráfico.
· Para operacionalizar os comandos do Alto, a Xerox criou uma linguagem com codificação própria, chamada Smalltalk, que permitia a seus programa-dores desenvolver novos programas e aplicativos compatíveis com o siste-ma. A diferença era como a de inventar uma palavra nova para um língua já existente, ou ter que criar uma nova língua todos os dias.
Foram construídas 150 unidades do Alto, mas nenhuma chegou a ser coloca à venda - se fosse, seu preço na época teria que ser superior a 30 mil dólares, o que em valores atuais corresponderia a dez vezes mais. Mas o Alto era tão avançado que muitas de suas caracte-rísticas não apareceriam nem na primeira geração de microcomputadores da Apple, em 1976, mas só na seguinte, com o Macintosh, em 1984.
31. Grande, Xerox!
Só que a história não termina aí, e fica melhor ainda. A partir do conceito do Alto, os cientistas da Xerox tiveram a sua segunda grande sacada... previram a possibilidade de criar uma rede, interligado todos os computadores pessoais, o que permitiria a seus usuários acessar e transferir dados uns para os outros. É bom lembrar que os grandes computadores tinham a capacidade de fazer esse tipo de interação na época. Nome que os cientistas da Xerox deram a essa rede: ethernet.
De uma tacada só, a Xerox havia antecipado todo a revolução das décadas seguintes, construindo o micro pessoal e antevendo a internet atual (porque no começo dos 1970 a Arpanet, avó da internet, não se parecia em nada com a internet que conhecemos hoje. E, cá entre nós, o nome Ethernet é muito mais bonito: ether, do grego aither, é a região acima das nuvens, onde o sol sempre brilha. Muito melhor que internet, a rede interativa, teria sido Eternet, a rede do espaço infinito.
Mas, poesia à parte, a Xerox investiu uma fortuna para enxergar o futuro, sem nunca ter recebido um único centavo por sua ousadia.
32. Quando o microcomputador finalmente chegou às Lojas?
Como a Xerox não colocou o Alto à venda, a honra de lançar o primeiro computador pessoal - em inglês, Personal Computer, ou PC - coube a uma pequena americana de porte médio, a MTIS (Micro Instrumentation and Telemetry Systems) em 1975. E não era bem o que hoje reconheceríamos como sendo um micro, mas um kit de partes vendidas separada-mente e que tinham que ser montadas pelo próprio usuário. Mas já tinha o cérebro dos mi-cros atuais: um único processador, o chip, fabricado pela - quem mais? Intel. E as instru-ções para ele pudesse funcionar estavam contidas em um programa em linguagem BASIC, escritas por - quem mais? - Bill Gates e seu colega de escola, Paul Allen, Ambos tinham, na época, 18 anos e estavam apenas entrando na faculdade.
O nome da preciosidade da MTIS era Altair - que pronunciado em inglês não rima com Aldair, o ex-zaqueiro da seleção Brasileira, mas com a forma verbal quer, com o r fi-nal à la interior de São Paulo. O Altair 8800 custava 395 dólares e tinha 256 bytes de me-mória. Como cada letra corresponde a um bit, e 256 bytes são 2048 bits, a memória básica do Altair era suficiente apenas para guardar na lembrança o conteúdo de uma página igual a esta...
De apelo comercial limitado - era mais um hobby restrito a um pequeno grupo de entendidos em computação que, entre outras coisas, precisava saber escrever seus próprios programas, já que o Altair não tinha nenhum software - , o bisavô de todos os micros desa-pareceu logo depois que Apple entrou no mercado.
33. Quando apareceu a Apple?
Em 1976, na garagem da casa de Steve Jobs, na Califórnia. A empresa começou no dia 1º de abril e tinha três sócios: Steve Jobs, stephen Worniak e Ron Wayne. Quando a Apple surgiu, Jobs e Wayne ainda trabalhavam na Atari e Worniak estava na Hewlett Pa-chard, a HP. Na sociedade, Worniak era o técnico, Jobs o comercial e Wayne o administra-tivo. A idéia do nome Apple foi de Jobs e outras alternativas consideradas foram Executek e Matrix (está última, aliás, bem mais apropriada que Apple, tanto sonora quanto tecnologi-camente).
A primeira loja a vender o Apple I foi a Byte Shop, da Califórnia e ao proprietário dela, Paul Terrell, deve-se uma mudança pequena, mas radical, no conceito de como vender micros ao usuário final. A idéia da Apple era competir com o Altair, portanto o Apple I também foi criado para ser vendido na forma de kit faca você mesmo. Uma caixa, que con-tinha o circuito impresso, mais um saco cheio de pequenas partes e um manual de monta-gem de 16 páginas custavam 666 dólares. Terrell prometeu a Jobs comprar 50 unidades a 500 dólares cada uma, desde que os micros já viessem montados e prontos para usar. E Jobs topou.
Em janeiro de 1977, Ron Wayne decidiu deixar a sociedade e recebeu sua parte: um cheque de 1800 dólares. Se tivesse ficado, teria se tornado milionário menos de três anos depois. A contribuição mais visível de Wayne para a Apple foi seu primeiro logotipo - uma ilustração mostrando o físico Isaac Newton embaixo de uma macieira - que logo seria substituído pela famosa maçazinha estilizada, criada por Rob Janov, diretor de arte da agência Regis McKenna (ao que consta, por menso de 500 dólares, uma das maiores barga-nhas do mercado da propaganda em todos os tempos).
34. O micro era um grande computador em tamanho menor?
Muito menor, por isso era chamado de pessoal: tinha infinitamente menos memória e menos capacidade de processar dados. A diferença básica é que os grandes computadores (chamados de mainframe, estrutura principal, já que tinham alguns periféricos conectados a eles) possuíam vários microprocessadores e o micro tinha apenas um. Aliás, é esse único microprocessador que surgiu o apelido do micro, e não de uma idéia de tamanho menor. Se fosse assim, o computador pessoal teria sido chamado de mini.
35. Por que na época nenhuma grande empresa entrou no ramo de micros?
Porque aquilo não parecia ser um grande negócio. O primeiro microcomputador Apple era vendido ao consumidor final por 800 dólares - equivalentes a uns 5 mil dólares, em valores atualizados. Era mais uma mania de fanáticos do que uma utilidade doméstica, como é hoje.
A primeira grande empresa a achar que o negócio de micros não tinha futuro foi a Hewlett Pachard (HP). Steve Worniak ainda trabalhava para a HP, em 1976, quando mon-tou o primeiro protótipo do Apple I e tentou convencer sua empresa a entrar naquele ramo. Os diretores da HP fizeram sua obrigação profissional: mandaram memorandos a diversas áreas da empresa, convidando os seus responsáveis para ver uma demonstração prática e em seguida perguntando se aquilo interessava. A resposta, unânime, foi não. Há duas ironi-as nessa história: a primeira foi que a HP mudou de idéia sete anos depois e lançou sua li-nha de micros; a segunda é que a própria HP havia sido fundada, décadas antes, William Hewlett e David Packard, também numa garagem, que ficava a poucos quarteirões da casa de Steve Jobs.
36. Então a Apple ficou sozinha no mercado?
Para não dizer que ficou sozinha, havia a Commodore, uma empresa de tecnologia, que lançou seu micro chamado PET em outubro de 1976. deu em nada, porque o micro era bem pior que o da Apple. Mas antes disso uma história incrível havia rolado: Jobs oferecera vender a Apple para a Commodore, por 100 mil dólares, mais empregos para ele e para seu sócio, wozniak. A Commodore achou demais e resolveu entrar no negócio por conta pró-pria. Quebrou a cara. E a Apple, aí sim, ficou soberana, embora não sozinha, no mercado, com tempo suficiente para se capitalizar. E só consegui fazer isso porque todos os seus concorrentes também eram de fundo de quintal.
Em 1981, a Apple já faturava 500 milhões de dólares anuais, nada mal para quem em 1976, tinha começado o negócio com um capital inicial de 1750 dólares, fruto da venda da calculadora HP de Jobs e da Kombi de Wozniak.
37. O que os primeiro micros da Apple faziam?
Não muito, se comparados com os de hoje: joguinhos que não ocupassem muita me-mória e um editor de texto bem simplesinho. O grande salto - que abriria os olhos das cor-porações para a primeira e real utilidade pr´tica do micro - viria em 1979, com VisiCalc, a mãe de todas as planilhas eletrônicas de cálculo. Foi o VisiCalc que impulsionou as vendas de um novo modelo que estava sendo lançado, o Apple II, e multiplicou da noite para o dia o valor da Apple como empresa.
38. Mas... e a IBM?
A IBM demorou para acreditar no mercado de micros e preferiu focar seus esforços nos grandes sistemas, que eram literalmente uma máquina de fazer dinheiro. Foi só em 1979, após o sucesso do VisiCalc, que IBM acordou. E aí, pulou da cama com a corda toda.
Em agosto de 1981, o micro da IBM estreou no mercado, vendido a 1565 dólares e com 16K de memória. Mas quando o IBM-PC chegou às prateleiras, reação do pessoal da Apple foi de alívio - e de certa arrogância. Steve Jobs diria: A maior empresa de computa-dores do mundo consegui construir um micro pior do que montamos seis anos atrás numa garagem.
Jobs estava enganado. Com seu sólido nome e sua estrutura de distribuição, já em seu primeiro ano no mercado a IBM vendeu 50 mil micros. E apenas dois anos depois, em 1983, passaria a Apple em vendas.
39. Por que, se o Apple era melhor?
Porque a Apple tomou uma decisão que hoje é vista como miopia mercadológica. Quando a IBM entrou no mercado, permitiu que seu sistema operacional - o MS-DOS - fosse usado também por outras companhias. Isso permitia que qualquer empresa de softwa-re pudesse desenvolver programas para os micros da IBM e que qualquer empresa de tec-nologia pudesse fabricar micros compatíveis com o IBM-PC. A primeira delas foi a com-paq, em 1983, mas logo haveria uma proliferação de marcas famosas no mercado - Toshi-ba, Dell e HP, entre outras. Já a Apple resolveu trancar a sete chaves seu sistema operacio-nal o Applesoft BASIC e portanto tinha que fazer tudo sozinha.
Rapidamente, as empresas que desenvolviam aplicativos abarrotaram o mercado com programas para os micros da IBM ou seus similares. Além disso, um disquete gravado em um IBM-PC podia rodar em micros de qualquer outra marca, menos num Apple. E um Apple só podia rodar em outro Apple. Assim a IBM estabeleceu um novo padrão para o mercado: ela e o resto de um lado, e a Apple sozinha do outro.
Era muito peso para um só prato da balança. E, além de tudo, os micros da IBM ainda era 10% mais baratos que os da Apple. Nos anos 80, Wosniak resolveu pegar seus mi-lhõeszinhos e ir curtir a vida, para tristeza de Jobs, que ficou e foi praticamente despedido da sua própria empresa, em 1985, por um presidente que ele mesmo contratara para botar a casa em ordem: John Sculley, que viera da Pepsi-Cola. Nos anos 90, Jobs retornaria à pre-sidência da Apple e mostraria seu fôlego de gato ao inovar e lançar uma linha de produtos com um visual maravilhoso, os iMac atuais.
40. Por que o Apple agora se chama Mac?
Porque em 1984 a Apple lançou um micro totalmente diferente, o Macintosh. Projeta-do pelo engenheiro Jef Raskin, o Mac com o tempo iria conquistar uma legião de admirado-res fanáticos, que não admite nem discutir a existência de outro micro. Mesmo com muito preço para pouca memória - custava 2500 dólares e tinha 128K - o Mac impressionava pela sua precisão para os trabalhos gráficos, simplicidade e facilidade de uso (foi por causa dele que apareceu a expressão user friendly). Desde o seu lançamento, o Mac tem sido o micro preferido pelas agências de propaganda, pela empresas de consultoria e de engenha-ria e por usuários que querem algo mais de um micro.
Além de seu apelo tecnológico, o Macintosh entraria também para a história da pro-paganda: seu comercial de lançamento, um filme de 60 segundos dirigido por Ridley Scott(o diretor de Alien, o oitavo passageiro e de Blade Runner, o Caçador de Andróides), foi ao ar uma única vezes, ao custo de 800 mil dólares, num dos intervalos do Super Bowl, o jogo final do campeonato de futebol americano de 1984. O filme, apropriadamente cha-mado 1984, pegava uma carona no livro de George Orwell, só que desta vez o tirano Big Brother era representado pelas empresas tradicionais de computadores, enquanto o Macin-tosh personificada a renovação e a liberdade. O anúncio proporcionou um dos maiores índi-ces de lembrança em todos os tempos - coisa que em propaganda se chama recall - e tor-nou-se um clássico.
Mas o célebre Macintosh também teve lá seus percalços. Ele era tão parecido com o Alto (aquele que a Xerox desenvolveu e não lançou em 1972), mas tão parecido, que em 1989, a Xerox entrou com uma ação judicial contra Apple, acusando-a de plágio, na melhor das hipóteses, ou de pirataria, na pior delas. Mas, apesar das visíveis similaridades, a deci-são da justiça beneficiou a Apple, ao considerar que o Mac não era uma reprodução do Alto, apenas tinha sido inspirado nele. Segundo a sentença do juiz, foi só após ter visto o Alto funcionando que os cientistas da Apple se convenceram de que tudo aquilo era possí-vel de ser feito. E então eles fizeram, mas a partir de esforços e méritos próprios.
41. Por que um nome tão estranho para um micro?
Porque Apple é maça, e McIntosh é o nome da mais famosa variedade americana de maças vermelhas. Comentou-se que Jef Raskin, ao batizar o seu projeto, errou ao soletrar o nome da maça - que os americanos sempre pronunciaram Mac, embora o a não exista quando se escreve. Raskin depois explicaria que não, que o erro tinha sido proposital, por-que o nome McIntosh já era uma marca registrada por uma empresa de equipamentos de equipamentos de som. O que não adiantou muito, porque a McIntosh do som processaria a Apple do mesmo jeito, dada a similaridade dos nomes. Um acordo entre as duas empresas, cujas cifras são mantidas até hoje em segredo, finalmente permitiu à Apple usar a marca (desde que mantivesse o famoso a no Mac e escrevesse intosh com o i minúsculo).
Mas essa não foi a primeira vez que a Apple teve que resolver judicialmente uma pendenga relativa a uma marca. Antes, em 1981, a Apple Computer já havia sido acionada pela Apple Music, empresa de propriedade dos Beatles, e as duas fizeram um acordo: a Apple podia usar o nome no ramo de computadores, desde que não invadisse nenhum setor ligado à música. Acontece que os micros da Apple, como todos os outros micros, logo pas-sariam a oferecer programas e aplicativos musicais.
A Apple music abriu novo processo, e em 1991 a Apple Computer pagou aos Beatles uma indenização de 26,5 milhões de dólares para o arquivamento da causa.
42. Nessa briga entre a IBM e a Apple, como é que Bill Gates ficou mais rico que as duas?
Ficou por dois motivos: o primeiro foi a sua percepção de que a máquina - ou har-dware - se tornaria menos importante que os programas que rodavam nela - os software. Gates fundou sua empresa na cidade de Albuquerque, Estado de New México, em 1975, e já a batizou de Micro-Soft (assim mesmo, com hífen e S maiúsculo), uma combinação de software com microcomputador. Era uma aventura, porque o incipiente mercado de micros estava nas mãos de pequenas e desconhecidas empresas com muitas idéias e pouco dinhei-ro. A própria Apple só seria fundada em ano depois que Microsoft já existia.
Mas foi o segundo motivo que transformou Gates num bilionário: quando decidiu desenvolver seu micro, a IBM não achou importante criar uma nova linguagem de progra-mação. Em vez disso, resolveu usar um sistema operacional desenvolvido por Gates - o MS-DOS, ou Microsoft Disk Operating System -, mas não o comprou, apenas o alugou, pagando à Microsoft alguns dólares por micro vendido. E, ainda por cima, permitiu que a Microsoft licenciasse a MS-DOS para outras empresas fabricantes de micros. Em poucos tempo, Gates e a Microsoft tinham nas mãos o monopólio do coração de qualquer micro: o sistema que o faz funcionar. Porque o resto era uma caixa de plástico, que qualquer um podia construir.
43. Por que a gigante IBM simplesmente não comprou a Microsoft?
Ninguém sabe, mas a melhor explicação é que decidiu que seu negócio não era des-envolver programas, mas sim vender microcomputadores às pencas, o que ela realmente conseguiu fazer. Porém, o próprio Gates também teve lá suas dúvidas sobre o futuro da Microsoft. Em 1979, quando a Microsoft era apenas uma pequena empresa que produzia programas para os nanicos concorrentes da Apple, o milionário texano Ross Perot, duas vezes candidato derrotado à presidência dos Estados Unidos, perguntou se Gates queria vender a empresa. E Gates disse yes! Perot ofereceu algo como 6 milhões de dólares pela Microsoft. Gates pediu 15 milhões. Ainda assim, era realmente uma pechincha: aqueles 15 milhões corresponderiam, em valores de hoje, a uns 90 milhões. Só para comparar com uma negociação feita num outro setor, em 1998, a Gessy Lever compraria a brasileiríssima Kibon por quase 900 milhões de dólares, dez vezes mais do Perot achou que a Microsoft não valia...
Mas não houve mesmo acordo e, anos depois num programa de televisão, Perot se lamentaria, dizendo que aquela tinha sido a pior decisão de negócios de sua vida. E o apre-sentador não resistiu: "Modéstia sua, Ross. Essa foi a pior decisão de negócios de toda his-tória da humanidade"! Portanto, Gates deve seu título de empresário mais rico do mundo à sua competência, mas também a uma mãozinha involuntária da IBM e de Ross Perot.
44. O windows é um sistema operacional ou um aplicativo?
Desde sua versão 95, o windows é um sistema operacional (o programa básico que faz o micro funcionar). Antes disso, era um aplicativo que funcionava dentro do sistema MS-DOS. O windows tem a cara de um prédio cheio de janelas - daí o seu nome - que se abrem para o usuário acessar cada programa, simplesmente clicando nos ícones desejados. Antes do windows, o usuário de um micro da IBM tinha que digitar uma instrução para abrir um programa, o que requeria memorizar centenas de abreviações em código (do tipo c:\>copy a: *.*). Um simples sinal trocado já provocava uma mensagem antipática, do tipo Abort, Retry, Fail? E aí a única solução era pegar o manual e ficar procurando a instrução correta. Tudo isso foi substituído por um simples clique do mouse em uma janelinha.
A primeira versão do windows foi lançada em 1985, não sem alguma confusão, porque ela era parecida com as janelas Macintosh, que já estava no mercado há quase um ano. E havia uma razão para isso: em 1982, Steve Jobs e Bill Gates haviam feito um acordo, pelo qual Gates poderia usar alguns dos recursos visuais do Macintosh, que ainda estava em fase protótipo, e em troca a Microsoft passaria a desenvolver softwares específicos para os mi-cros da Apple. Antes que algo de prático acontecesse, a Apple voltou atrás, mas Gates de-cidiu que o acordo continuava válido e tocou o windows em frente. A Apple processou a Microsoft, e a briga se arrastou até 1993, quando a justiça deu ganho de causa à Microsoft.
Em 1989, no auge da encrenca, Bill Gates lembrou que as janelas da Apple tinham sido, na verdade, inventadas pela Xerox, no projeto do Alto. E foi ao rebater as críticas de Jobs, mas principalmente, deu um testemunho público da importância da Xerox no desenvolvi-mento dos micros: Qualé, Steve? Só porque você arrombou a porta da Xerox antes que eu, e garfou a tevê, isso não quer dizer que eu não possa entrar depois e levar o aparelho de som...
45. Quem fez o primeiro notebook, a IBM ou a Apple?
Por incrível que pareça, nenhuma das duas. E, mais incrível ainda, não foi nenhuma das grandes empresas de tecnologia. O micro portátil foi lançado em 1981, por uma empresinha desconhecida, a Osborne Computers. O Osborne I pesava 12 quilos, mas apesar de ser um peso-pesado se tornou um sucesso instantâneo. Tinha o que um micro tinha e era uma pe-chincha: custava 1800 dólares, só 15% a mais que o micrão da IBM.
Adam Osborne, o dono da empresa, deu seu micro portátil o nome de laptop, algo como nas coxas, só que no bom sentido: é que, quando os computadores pessoais foram lançados, eles ganharam o apelido de desktop, ou em cima da mesa, para diferencia-los dos enormes computadores das empresas, que ficavam no chão. Daí, o micro portátil virou laptop, no colo. E, mais recentemente, apareceu o palmtop, porque cabe na palma da mão. Do jeito que vai, o próximo passo talvez seja o nailtop, pois deverá caber na unha - e ainda vai so-brar espaço.
Mas por que a Osborne? Da mesma forma que a IBM relutou para entrar no mercado de micros, já que os computadores gigantes eram o seu grande negócio, também os fabricantes de micros estavam mais que satisfeitos com suas vendas, que cresciam a cada ano e ainda tinham muito chão para crescer. Portanto, decidiram eles, sem consultar os consumidores: ainda era muito cedo para o lançamento de um micro portátil.
Mas foi só o Osborne I aparecer e os grandões caíram de pau. Surpreendido com a enorme demanda. Adam Osborne precisou de tempo e de capital para ampliar suas instala-ções e sua rede de distribuição, só que, enquanto se preparava, os concorrentes, muito mai-ores e mais bem aparelhados, lançaram suas próprias versões de micros portáteis, com tec-nologia mais avançada, menos peso e menor tamanho.
Vítima de seu sucesso, o Osborne foi à falência menos de dois anos após revolucionar o mercado.
46. Mas o que realmente mudou nos computadores?
Não é bem o que mudou, é o que está mudando, pois tudo indica que o processo evolu-tivo ainda está só no começo. Essa mudança está na capacidade de processamento e de ar-mazenagem de dados na memória do computador: quanto mais memória, mais tarefas po-dem ser executadas, e cada vez com mais sofisticação. Os efeitos especiais que se vêem num filme como O Parque dos Dinossauros, por exemplo, são resultados práticos dessa evolução: eles só não foram feitos antes porque não havia computadores com memória ca-paz de processar as toneladas de dados necessárias para animar os mastodontes.
Em 1981, quando a IBM lançou seu primeiro micro pessoal, cada kilobyte de memória custava aproximadamente 100 dólares (16K de memória a 1565 dólares). Hoje um micro com 60 gigabyte de memória custa 4 mil dólares, o que quer dizer que o preço de 1 kilobyte caiu para um valor cem vezes menor que 1 centavo de dólar. Ou seja, o custo para se exe-cutar uma mesma operação num micro foi reduzido para 1/10.000.000 do valor original. Se a velocidade dos aviões a jato comerciais tivesse aumentado na mesma proporção, uma hipotética viagem da terra à lua num boeing, que em 1981 levaria 17 dias, hoje seria feita em menos de 15 milésimos de segundo.
47. Mudou tudo, então?
Curiosamente, tem uma coisa que não mudou: o teclado, ou keyboard. É o certo que novas teclinhas foram adicionadas a ele - as de função, a de enter e outras - mas as letras continuam na mesma ordem desde 1873, quando a Remington & Sons, de Nova York, co-locou no mercado a primeira máquina de escrever que realmente funcionava. Na fase de testes da máquina da Remington, as letras estavam arranjadas em ordem alfabética, mas isso fazia com que as hastes se enganchassem e travassem com irritante freqüência. Então, o inventor da máquina, Chistopher Sholes, teve uma idéia: fez uma lista das letras mais usadas na língua Inglesa e colocou essas teclas o mais distante possível umas das outras, - o E e o O, por exemplo, as que mais se repetem, estão em setores opostos do teclado. Do arranjo alfabético original, ficaram apenas vagas lembranças: f-g-h vem em seqüência, as-sim como j-k-l. Por que, 130 anos depois, ninguém ainda mudou isso? É que a gente se acostumou tanto que já nem percebe...
48. Quem são ROM e a RAM?
Embora pareça nome de dupla sertaneja, ROM e RAM são os dois tipos de memória contidas no microprocessador do computador. A diferença básica entre eles é que a ROM trabalha com informações fixas e permanentes e a RAM lida com informações temporárias, que tanto podem ser gravados ou apagadas quando o computador é desligado. De forma geral, pode-se dizer que a ROM trabalha para o usuário, enquanto que o usuário trabalha com a RAM.
Essas máquinas de café de escritório ou de refrigerante dos postos de gasolina, que pa-recem um armário, tem um microprocessador. Quando o usuário escolhe sua opção - café com leite, com pouco açúcar, por exemplo -, a máquina executa uma operação, a partir de instruções fixas e seqüenciais: baixa o copinho, mistura os pós de café e de leite e o açúcar, esquenta e despeja a água, e libera o misturador de plástico. Tudo isso é feito a partir de uma memória do tipo ROM, porque o usuário não interfere no processo, nem pode mudar as proporções de pós e água na mistura.
ROM quer dizer Read-Only Memory - memória só para leitura. Isto é, leitura pelo sis-tema, não pelo usuário, que só vê as luzinhas piscando e a tela mudando enquanto o sistema lê. Já RAM significa Random Access Memory - memória de acesso aleatório, ou à vontade do freguês. Ela permite que alguém que esteja usando um aplicativo, como um editor de textos Word, possa fazer dezenas de alterações de estilo, tamanho e cor, apagar e acrescen-tar dados e inserir figuras ou outros arquivos. Essas operações são todas temporárias e exe-cutadas em qualquer ordem, dependendo do comando dado pelo usuário.
A palavra random tem origem francesa - randir - e antigamente significava galopar sem destino. Depois, foi adotada pela estatística para definir qualquer fato que acontece ao sabor do acaso, sem método, como os números da Mega Sena, por exemplo. Daí, entrou para o ramo da computação, com o sentido de você decide.
49. O que é um megahertz?
É a medida da velocidade de operação de um microprocessador. Um megahertz, ou Mhz, corresponde a 1 milhão de ciclos por segundo. Na prática, isso quer dizer que um microprocessador de 600 Mhz pode fazer 600 milhões de operações aritméticas em 1 se-gundo. A palavra é uma homenagem ao físico alemão Heinrich Hertz, que descobriu o fe-nômeno das vibrações eletromagnéticas no início do século 20.
A primeira grande aplicação prática e de alcance popular do invento de Hertz foram as transmissões de rádio (nos anos 40, os locutores das rádios do interior do Brasil proclama-vam, eufóricos: Este é o milagre do rádio, e esta é a sua rádio difusora, ZYE 6, mandando para o éter suas ondas artesianas!). É que naqueles tempos pronunciar hertzianas era meio complicado...
50. Será que o riquíssimo idioma português não poderia contribuir um pouquinho mais com a terminologia de computadores usada no brasil?
Antes de mais nada, um aviso aos navegantes: imaginar que uma língua de norma culta, ou seja, com um sistema gramatical ativo e organizado se comporta como um gueto, isolada e fechada ao meio ambiente e às influências externas, é como imaginar que as muralhas medievais são ainda hoje capazes de conter e proteger cidades.
O nosso português de hoje é uma mistura do português do século 18, que basicamente era uma variação do latim com empréstimos do grego, e que foi sofrendo a influência das línguas indígenas brasileiras (palavras como Ipanema, Paraná e Ipê), com fortíssima influ-ência moura (algodão, alguidar, álcool), e com a avassaladora presença do francês, cultura dominante em nossa elite pensante no início do século 20 (táxi, garçom, abajur guardana-po).
Dessa forma, a presença de palavras ou expressões em inglês acaba sendo uma obriga-ção do texto, e um desafio para os autores e leitores. Assim como o idioma da religião ca-tólica é o latim, o mundo dos computadores se expressa em inglês. E isso não é tão compli-cado quanto parece: depois que nós aprendemos a falar software e entendemos o que a pa-lavra significa, o termo não só nos parece perfeitamente lógico, mas também intraduzível.
Sempre é bom lembrar que tentativas passadas de nacionalizar palavras estrangeiras que não precisavam de tradução deram em nada: os puristas do início do século 20 se recusa-vam a falar football e tentaram sem sucesso impor o nome ludopédio. Hoje, pouca gente acredita que futebol não seja uma palavra brasileira. No fim das contas, quem sempre deci-de que palavra será usada é o povo - ou, no caso do computador, o usuário. Mas o idioma inglês não tem o monopólio das palavras e um bom exemplo disso é informática.
51. Informática não é uma palavra americana?
Não. Não há nada parecido na língua inglesa. O nome foi criado pelos italianos, ainda na era jurássica da computação (período anterior aos anos 70, quando qualquer computador, por mais simplesinho que fosse, pesava mais que um caminhão) e nasceu da junção de in-formazione com matemática. A palavra é bonita e prática e por isso foi aceita pelos brasilei-ros e entrou no nosso dicionário. Além dela, os italianos criaram vários outros termos, como sistemística (que não sobreviveu fora da Itália) e telemática (que hoje ainda forte e rija pelo mundo afora).
Outra opção seria fazer como os franceses, o povo mais ortodoxo do mundo na hora de defender seu idioma. Eles nunca aceitaram o termo computador aplicado às máquinas de gestão de informação. Daí, criaram a palavra ordinateur, ou seja, aquilo que ordena, que propõe uma certa lógica, que organiza o pensamento. Embora muita gente ainda ache que a palavra ideal seria desordenador, dada a desordem que a evolução digital está ocasionando em suas vidas...
52. Enquanto isso, aqui no Brasil...
Pois é, nós também temos nossa historinha digital para contar. Na década de 70, quando os micros começaram a ganhar projeção mundial, nosso governo resolveu criar uma reserva de mercado (ou seja, proibir as importações) com a melhor das intenções: permitir que os fabricantes locais desenvolvessem sua própria tecnologia para um dia competir em igualda-de de condições com os gigantes alienígenas. Como era praxe na época, foi criada uma agência governamental encarregada de regulamentar todo processo. Quando o primeiro computador brasileiro foi fabricado, a ditadura fez uma festa. Teve até padre para benzer o bichinho.
Como conseqüência, da reserva de mercado, mais que estatizada, nossa microinformáti-ca ficou engessada por longos 17 anos.
Na prática, a reserva de mercado - da qual restam resquícios, já que a importação de itens de informática continua limitada ou sobretaxada - atrasou a entrada do Brasil no mundo dos computadores pessoais: algumas privilegiadas empresas nacionais importavam os componentes lá de fora, a preços camaradas e livre de impostos, montavam os micros em Manaus, e faziam pouco mais que grudar neles os seus próprios logotipos. Embora nos-sa mão-de-obra fosse bem mais barata, e Manaus oferecesse vantagens fiscais para os montadores, os micros eram vendidos a preços cavalares, já que não havia a concorrência externa. Sem falar que nossos micros estavam sempre tecnologicamente desatualizados, já que não havia pressa.
2006-11-03 19:13:07
·
answer #1
·
answered by Rodolfo 3
·
0⤊
0⤋