Seja Bem-Vindo. Este site tem recursos de leitura de texto, basta marcar o texto e clicar no ícone do alto-falante   Click to listen highlighted text! Seja Bem-Vindo. Este site tem recursos de leitura de texto, basta marcar o texto e clicar no ícone do alto-falante

AULA 02 – INTRODUÇÃO À COMPUTAÇÃO

Objetivo da aula: explorar as principais fases da evolução histórica dos computadores.

A Pré-História da computação

A história da computação começa muito antes da criação dos primeiros computadores eletrônicos. Na antiguidade, os humanos desenvolveram métodos para contar e realizar cálculos simples.

Os ábacos, dispositivos mecânicos de cálculo, foram usados na China e na Mesopotâmia há milhares de anos. No entanto, um dos primeiros marcos notáveis foi o uso do ábaco romano, que permitia realizar operações aritméticas básicas.

Ábaco (fonte: Wikipédia)

No século V a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou meta-regras, transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a máquina de Turing.

Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.

John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os ossos de Napier, que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada.

Ossos de Napier (fonte: Wikipédia)

A primeira máquina de verdade foi construída por Wilhelm Schickard (1592-1635), sendo capaz de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal (1623-1662) a construção da primeira máquina calculadora, que fazia apenas somas e subtrações.

Wilhelm Schickard (fonte: Wikipédia)

Pascal, que aos 18 anos trabalhava com seu pai em um escritório de coleta de impostos na cidade de Rouen, desenvolveu a máquina para auxiliar o seu trabalho de contabilidade.

A calculadora usava engrenagens que a faziam funcionar de maneira similar a um odômetro.

Máquina de Pascal ou Pascalina (fonte: link)

Pascal recebeu uma patente do rei da França para lançar sua máquina no comércio. A comercialização de suas calculadoras não foi satisfatória devido a seu funcionamento pouco confiável, apesar de Pascal ter construído cerca de 50 versões.

A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen, França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm Leibniz (1646-1726), que também inventou o cálculo, o qual sonhou que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.

Em 1671, o filósofo e matemático alemão de Leipzig, Gottfried Wilhelm Leibniz introduziu o conceito de realizar multiplicações e divisões mediante adições e subtrações sucessivas. Em 1694, a máquina foi construída, no entanto, sua operação apresentava muita dificuldade e era sujeita a erros.

Em 1820, o francês natural de Paris, Charles Xavier Thomas, conhecido como Thomas de Colmar, projetou e construiu uma máquina capaz de efetuar as 4 operações aritméticas básicas: a Arithmomet. Esta foi a primeira calculadora realmente comercializada com sucesso. Ela fazia multiplicações com o mesmo princípio da calculadora de Leibniz e efetuava as divisões com a assistência do usuário.

Todas essas máquinas, porém, estavam longe de serem consideradas um computador, pois não eram programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a respeito do que fazer com os números.

Era Mecânica

Em 1801, na França, durante a Revolução Industrial, Joseph Marie Jacquard, mecânico francês, (1752-1834) inventou um tear mecânico controlado por grandes cartões perfurados. Sua máquina era capaz de produzir tecidos com desenhos bonitos e intrincados. Foi tamanho o sucesso que Jacquard foi quase morto quando levou o tear para Lyon, pois as pessoas tinham medo de perder o emprego. Em sete anos, já havia 11 mil teares desse tipo operando na França.

O funcionamento do Tear de Jacquard

A ideia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage (1792-1871), um professor de matemática de Cambridge, a desenvolver uma máquina de “tecer números”, uma máquina de calcular onde a forma de calcular pudesse ser controlada por cartões.

Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento, apesar de nunca ter sido construído com sucesso, possuía todas as funcionalidades do computador moderno. Foi descrito originalmente em 1837, mais de um século antes que qualquer equipamento do gênero tivesse sido construído com sucesso. O grande diferencial do sistema de Babbage era o fato que seu dispositivo foi projetado para ser programável, item imprescindível para qualquer computador moderno.

Tudo começou com a tentativa de desenvolver uma máquina capaz de calcular polinômios por meio de diferenças, o calculador diferencial. Enquanto projetava seu calculador diferencial, a ideia de Jacquard fez com que Babbage imaginasse uma nova e mais complexa máquina, o calculador analítico, extremamente semelhante ao computador atual.

O projeto, totalmente mecânico, era composto de uma memória, um engenho central, engrenagens e alavancas usadas para a transferência de dados da memória para o engenho central e dispositivos para entrada e saída de dados. O calculador utilizaria cartões perfurados e seria automático.

Parte da Máquina diferencial de Babbage (fonte: Wikipédia)

Sua parte principal seria um conjunto de rodas dentadas, o moinho, formando uma máquina de somar com precisão de cinquenta dígitos. As instruções seriam lidas de cartões perfurados. Os cartões seriam lidos em um dispositivo de entrada e armazenados, para futuras referências, em um banco de mil registradores. Cada um dos registradores seria capaz de armazenar um número de cinquenta dígitos, que poderiam ser colocados lá por meio de cartões a partir do resultado de um dos cálculos do moinho.

Por algum tempo, o governo britânico financiou Babbage para construir a sua invenção.

Além disso tudo, Babbage imaginou a primeira máquina de impressão, que imprimiria os resultados dos cálculos, contidos nos registradores. Babbage conseguiu, durante algum tempo, fundos para sua pesquisa, porém não conseguiu completar sua máquina no tempo prometido e não recebeu mais dinheiro. Hoje, partes de sua máquina podem ser vistas no Museu Britânico, que também construiu uma versão completa, utilizando as técnicas disponíveis na época.

Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora. Em parceria com Charles Babbage, Ada Augusta (1815-1852) ou Lady Lovelace, filha do poeta Lord Byron, era matemática amadora entusiasta. Ela se tornou a pioneira da lógica de programação, escrevendo séries de instruções para o calculador analítico. Ada inventou os conceitos de subrotina, uma seqüência de instruções que pode ser usada várias vezes, loop, uma instrução que permite a repetição de uma sequência de cartões, e do salto condicional, que permite saltar algum cartão caso uma condição seja satisfeita.

Ada Lovelace (fonte: Wikipédia)

Babbage teve muitas dificuldades com a tecnologia da época, que era inadequada para se construir componentes mecânicos com a precisão necessária. Com a suspensão do financiamento por parte do governo britânico, Babbage e Ada utilizaram a fortuna da família Byron até a falência, sem que pudessem concluir o projeto, e assim o calculador analítico nunca foi construído.

Ada Lovelace e Charles Babbage estavam avançados demais para o seu tempo, tanto que até a década de 1940, nada se inventou parecido com seu computador analítico. Até essa época foram construídas muitas máquinas mecânicas de somar destinadas a controlar negócios (principalmente caixas registradoras) e algumas máquinas inspiradas na calculadora diferencial de Babbage, para realizar cálculos de engenharia (que não alcançaram grande sucesso).

Certamente utilizando o princípio descoberto por Jacquard para comando automático de teares, Hermann Hollerith – funcionário do United States Census Bureau – inventou, em 1880, uma máquina para realizar as operações de recenseamento da população. A máquina fazia a leitura de cartões de papel perfurados em código BCD (Binary Coded Decimal) e efectuava contagens da informação referente à perfuração respectiva. O sistema foi patenteado em 8 de junho de 1887.

Tabuladora (fonte: Wikipédia)

A informação perfurada no cartão era lida numa tabuladora que dispunha de uma estação de leitura equipada com uma espécie de pente metálico em que cada dente estava conectado a um circuito eléctrico.

Cada cartão era colocado sobre uma taça que continha mercúrio e que estava conectada também ao mesmo circuito eléctrico do pente. Quando o pente era colocado sobre o cartão os dentes que atravessavam as perfurações fechavam o circuito eléctrico que accionava os contadores respectivos. O contador visualizava o resultado da acumulação pelo deslocamento de um ponteiro sobre um mostrador.

O primeiro computador eletromecânico foi construído por Konrad Zuse (1910-1995). Em 1936, esse engenheiro alemão construiu, a partir de relés que executavam os cálculos e dados lidos em fitas perfuradas, o Z1.

Há uma grande polêmica em torno do primeiro computador. O Z-1 é considerado por muitos como o primeiro computador eletromecânico.

Z1 (fonte: Wikipédia)

Zuse tentou vender o computador ao governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos americanos de desenvolver seus computadores, o chamado Eniac.

Nota

A era mecânica da computação está intimamente relacionada com a teoria da computação, pois marca o início da concepção de máquinas capazes de executar operações lógicas e aritméticas. Aqui estão algumas maneiras pelas quais a era mecânica se conecta à teoria da computação:

1. Máquina Analítica de Babbage e Ada Lovelace:

      • Charles Babbage projetou a Máquina Analítica no século XIX, uma máquina mecânica projetada para executar cálculos automaticamente.
      • Ada Lovelace, colaboradora de Babbage, é reconhecida por suas notas que expandem o conceito da máquina, sugerindo a possibilidade de programação por meio de instruções e desenvolvendo o conceito de algoritmos.
      • Essa colaboração é frequentemente considerada o início da ideia de programação e algoritmos, elementos fundamentais na teoria da computação.

2. Teoria dos Números e Máquinas Mecânicas:

      • Durante a era mecânica, os matemáticos exploraram problemas relacionados à teoria dos números e à solução de equações.
      • Máquinas mecânicas, como as propostas por Babbage, eram projetadas para executar cálculos complexos, proporcionando uma conexão direta entre os problemas matemáticos e as operações mecânicas, antecipando os fundamentos da teoria da computação.

3. Conceito de Programabilidade:

      • A Máquina Analítica era concebida para ser programável, permitindo que executasse diferentes tarefas por meio de cartões perfurados.
      • Esse conceito de programabilidade é crucial na teoria da computação, onde os algoritmos podem ser formalmente expressos e executados por máquinas de propósito geral.

4. Precursores da Lógica Computacional:

      • A era mecânica introduziu a ideia de utilizar mecanismos para realizar operações lógicas e aritméticas.
      • Essa abordagem mecânica, embora primitiva em comparação com os computadores modernos, estabeleceu os alicerces para a aplicação da lógica na computação, um tema central na teoria da computação.

Em resumo, a era mecânica da computação forneceu os alicerces conceituais e práticos para o desenvolvimento da teoria da computação, contribuindo significativamente para a compreensão de como máquinas podem ser projetadas para realizar operações lógicas e aritméticas, e como essas operações podem ser programadas e controladas. Essa conexão é fundamental para entender a evolução dos conceitos fundamentais que culminaram nos computadores modernos e na teoria da computação contemporânea.

Era Elétrica

Durante o travamento da Segunda Guerra Mundial a Marinha dos Estados Unidos, em conjunto com a Universidade de Harvard, desenvolveu o computador Harvard Mark I, projetado pelo professor Howard Aiken, com base no calculador analítico de Babbage. O Mark I ocupava 120m³ aproximadamente, conseguindo multiplicar dois números de dez dígitos em três segundos. Este computador gigante permitiu ter o primeiro centro de computação no mundo, assim dando o início á era moderna dos computadores.

MARK I (fonte: Wikipédia)

Simultaneamente, e em segredo, o Exército dos Estados Unidos desenvolvia um projeto semelhante. O engenheiro John Presper Eckert (1919-1995) e o físico John Mauchly (1907-1980) projetaram o ENIAC: Eletronic Numeric Integrator And Calculato. Com 18 000 válvulas, o ENIAC conseguia fazer 500 multiplicações por segundo, porém só ficou pronto em 1946, vários meses após o final da guerra. Tendo sido projetado para calcular trajetórias balísticas, o ENIAC foi mantido em segredo pelo governo americano até o final da guerra.

Os custos para a manutenção e conservação do ENIAC eram proibitivos, pois dezenas a centenas de válvulas queimavam a cada hora e o calor gerado por elas necessitava ser controlado por um complexo sistema de refrigeração, além dos gastos elevadíssimos de energia elétrica.

ENIAC (fonte: Wikipédia)

No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von Neumann propôs a ideia que transformou os calculadores eletrônicos em “cérebros eletrônicos”: modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam que ter três características:

  1. Codificar as instruções de uma forma possível de ser armazenada na memória do computador. Von Neumann sugeriu que fossem usados uns e zeros.
  2. Armazenar as instruções na memória, bem como toda e qualquer informação necessária a execução da tarefa, e
  3. Quando processar o programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão perfurado a cada passo.

Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez, versatilidade e auto modificação. Assim, o computador programável que conhecemos hoje, onde o programa e os dados estão armazenados na memória ficou conhecido como Arquitetura de von Neumann.

Para divulgar essa ideia, von Neumann publicou sozinho um artigo. Eckert e Mauchy não ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele. O projeto ENIAC acabou se dissolvendo em uma chuva de processos, mas já estava criado o computador moderno.

O UNIVAC I (de UNIVersal Automatic Computer – Computador Automático Universal) foi o primeiro computador comercial fabricado e comercializado nos Estados Unidos, projetado por J. Presper Eckert e John Mauchly em 1951, na empresa Eckert-Mauchly Computer Corporation, usado inicialmente no Pentágono.

O UNIVAC I foi projetado por J. Presper Eckert e John Mauchly, os inventores do ENIAC para uma empresa fundada por ambos, a Eckert-Mauchly Computer Corporation, mas só ficou pronto após esta ser adquirida pela Remington e virar a divisão UNIVAC.

O primeiro UNIVAC foi entregue ao escritório do censo dos Estados Unidos em 31 de março de 1951, mas demorou para começar a funcionar, então o primeiro que entrou em operação foi o segundo a ser fabricado, para o Pentágono. Era programado ajustando-se cerca de 6 000 chaves e conectando-se cabos a um painel.

Por volta de dezembro de 1954, quinze UNIVACs haviam sido entregues para companhias de peso como a General Electric a US Steel e a Metropolitan Life Insurance.

Projetado para custar US$ 159 000, o UNIVAC I foi vendido por um preço entre US$ 1 250 000 e US$ 1 500 000. No total, 46 unidades deste primeiro modelo foram fabricadas.

Algumas unidades estiveram em serviço por muitos anos. A primeira unidade funcionou até 1963. Duas unidades da própria Remington funcionaram até 1968 e outra unidade, de uma companhia de seguros do Tennessee, até 1970, com mais de treze anos de serviço.

O UNIVAC foi um dos primeiros computadores do Brasil, adquirido pelo IBGE em 1961 por US$ 2 976 351, incluídos acessórios e periféricos, para processar dados do censo.

Nota

Válvula Eletrônica

O funcionamento da válvula eletrônica é bem simples. O filamento acende e aquece o cátodo, com isso, ele libera elétrons que ficam girando em sua volta. Graças a tensão positiva aplicada na placa, faz com ela atraia os elétrons emitidos pelo cátodo, gerando uma corrente dentro da válvula.

O triodo mecanicamente é um diodo termiônico com um elemento a mais, isto é, uma grade de controle, acrescentada entre o cátodo e o ânodo cuja função principal é controlar a corrente da placa (ânodo); é o dispositivo utilizado para a amplificação de sinais entre outras.

Quem Inventou a Válvula Eletrônica?

Revolução dos Transistores

Transístor ou transistor é um dispositivo semicondutor usado para amplificar ou trocar sinais eletrônicos e potência elétrica. É composto de material semicondutor com pelo menos três terminais para conexão a um circuito externo. Uma tensão ou corrente aplicada a um par de terminais do transistor controla a corrente através de outro par de terminais. Como a potência controlada (saída) pode ser maior que a potência de controle (entrada), um transistor pode amplificar um sinal. Hoje, alguns transistores são embalados individualmente, mas muitos outros são encontrados embutidos em circuitos integrados. O termo provém do inglês transfer varistor (varistor de transferência), como era conhecido pelos seus inventores.

Uma réplica do primeiro transistor (fonte: Wikipédia)

O transistor é o bloco de construção fundamental dos dispositivos eletrônicos modernos e é onipresente nos sistemas modernos. Julius Edgar Lilienfeld patenteou um transistor de efeito de campo em 1926, mas não foi possível construir um dispositivo de trabalho naquele momento. O primeiro dispositivo praticamente implementado foi um transistor de contato pontual inventado em 1947 pelos físicos estadunidenses John Bardeen, Walter Brattain e William Shockley. O transistor revolucionou o campo da eletrônica e abriu caminho para rádios, calculadoras e computadores menores e mais baratos, entre outras coisas. O transistor está na lista de marcos do IEEE em eletrônica, e Bardeen, Brattain e Shockley dividiram o Prêmio Nobel de Física em 1956 por sua conquista.

Transistores com diferentes encapsulamentos (fonte: Wikipédia)

A maioria dos transistores é feita de silício puro ou germânio, mas alguns outros materiais semicondutores também podem ser usados. Um transistor pode ter apenas um tipo de portador de carga, em um transistor de efeito de campo, ou pode ter dois tipos de portadores de carga em dispositivos de transistor de junção bipolar. Comparado com válvula termiônica, os transistores são geralmente menores e requerem menos energia para operar. Certos tubos de vácuo têm vantagens sobre os transistores em frequências de operação muito altas ou altas tensões operacionais. Muitos tipos de transistores são feitos para especificações padronizadas por vários fabricantes.

Transístor Explicado – Como funcionam os transístores

Nota

Miniaturização

A miniaturização na eletrônica é um conceito fundamental que teve um impacto profundo no campo da computação. A capacidade de reduzir o tamanho dos componentes eletrônicos, como transistores e circuitos integrados, trouxe inúmeras vantagens e impulsionou o avanço tecnológico. Aqui estão algumas das razões pelas quais a miniaturização é crucial para a computação:

1. Aumento da Capacidade de Processamento:

        • Com a miniaturização, é possível colocar um grande número de transistores e outros componentes em um espaço muito reduzido.
        • Isso resulta em processadores mais poderosos, capazes de realizar operações computacionais complexas em uma fração do tempo necessário por tecnologias mais antigas.

2. Redução de Custos:

        • A miniaturização permite a produção em massa de chips e componentes eletrônicos, o que, por sua vez, reduz os custos de produção.
        • Isso torna os dispositivos eletrônicos, incluindo computadores, mais acessíveis para consumidores e empresas.

3. Melhoria da Eficiência Energética:

        • Componentes menores geralmente consomem menos energia para realizar as mesmas tarefas.
        • A miniaturização contribui para o desenvolvimento de dispositivos mais eficientes energeticamente, prolongando a vida da bateria e reduzindo o consumo de energia em operações computacionais.

4. Avanços na Mobilidade:

        • A miniaturização é crucial para dispositivos portáteis, como laptops, smartphones e tablets.
        • Isso permite a criação de dispositivos compactos e leves que ainda oferecem desempenho significativo, impulsionando a mobilidade e a praticidade no uso diário.

5. Integração de Funcionalidades:

        • A miniaturização permite a integração de diversas funcionalidades em um único chip ou dispositivo.
        • Isso leva ao desenvolvimento de sistemas em chip (SoCs) que combinam CPU, GPU, memória e outros componentes em uma única unidade, resultando em dispositivos mais eficientes e compactos.

6. Avanços em Tecnologias de Armazenamento:

        • A miniaturização também impacta tecnologias de armazenamento, como discos rígidos e memória flash, aumentando a capacidade de armazenamento e reduzindo o tamanho dos dispositivos de armazenamento.

7. Facilitação da Internet das Coisas (IoT):

        • A miniaturização é essencial para a implementação de sensores e dispositivos IoT em escala reduzida, permitindo a integração desses dispositivos em diversos ambientes.

Em resumo, a miniaturização na eletrônica é um motor impulsionador da inovação na computação, permitindo o desenvolvimento de dispositivos mais poderosos, eficientes, acessíveis e portáteis. Esse avanço contínuo na miniaturização tem sido crucial para o desenvolvimento e a evolução da tecnologia da informação e é uma das razões pelas quais os dispositivos eletrônicos modernos são tão poderosos e ubíquos.

A primeira geração de computadores

A primeira geração de computadores surgiu em volta de 1940 e durou até 1956. O funcionamento dos primeiros computadores era conseguido através de válvulas termiônicas (ou, tubos de vácuo).

Uma válvula, ou tubo de vácuo, é um componente eletrônico em forma de lâmpada, responsável por amplificar ou modificar um sinal elétrico. Este dispositivo foi fundamental para o desenvolvimento das telecomunicações e da computação e, na verdade, ainda é usado hoje em dispositivos como o forno de micro-ondas ou transmissores de radiofrequência.

Os computadores de primeira geração conseguiam realizar milhares de cálculos por segundo, mas só podiam realizar uma operação por vez e consumiam muita energia elétrica.

Eles foram programados em linguagem de máquina, uma linguagem de programação de baixo nível, e a entrada e saída dos dados era feita a partir de cartões perfurados.

O primeiro computador lançado foi o ENIAC (Electronic Numerical Integrator and Computer ou, em português, computador e integrador numérico eletrônico), em 1946, e possuía quase 18 mil tubos de vácuo (17.468).

Segunda geração de computadores: diodos e transistores

De 1956 a 1963, foi a época da segunda geração de computadores, que só foi possível com a invenção dos diodos e transistores. Isso marcou a substituição dos tubos de vácuo e um importante avanço no mundo da computação.

O diodo é um semi condutor utilizado para transformar a corrente alternada em corrente contínua. Já o transistor é um dispositivo que funciona como um regulador da corrente elétrica, o que permitiu a criação de computadores com maior eficiência energética.

Os computadores de segunda geração não se diferenciaram apenas pela tecnologia e pelo menor tamanho, mas pela mudança na linguagem de programação, que passou para a linguagem assembly.

Essa linguagem é básica e não é portátil, ou seja, não poderia ser usada em outro computador, mas consome menos recursos que sua antecessora.

Para a inserção de dados, os cartões foram substituídos pelos rolos de fita perfurada.

Um exemplo de computador de segunda geração é o PDP-1, um dispositivo desenvolvido em 1960 para a pesquisa científica e onde o primeiro jogo de videogame da história foi jogado, o Spacewar!.

Terceira geração: circuitos integrados

De 1964 a 1971, o mercado foi dominado pela terceira geração de computadores, caracterizada pela incorporação de circuitos integrados que substituíram os transistores.

Um circuito integrado é um chip feito de silício que possui diferentes componentes que formam uma espécie de circuito em miniatura.

Nesse tipo de computador, os dados de entrada e saída eram gerenciados por dispositivos periféricos como monitor, teclado ou impressora.

Além disso, generalizou-se o uso de sistemas operacionais, que são um tipo de software que permite a execução de múltiplas instruções simultaneamente.

A partir desta geração, linguagens de programação de alto nível começaram a ser utilizadas de forma massiva como COBOL, FORTAN, Pascal, etc.

Esses tipos de linguagens diferem das linguagens de baixo nível por serem muito mais próximas da linguagem natural (usada por humanos) do que da linguagem de máquina (código binário). Além disso, elas são portáteis, portanto, podem ser usados em outros dispositivos.

Um exemplo de computador de terceira geração foi o UNIVAC 1108, uma atualização do UNIVAC de primeira geração criado na década de 1950.

Quarta geração: microprocessadores

A partir de 1971, os computadores deixaram de funcionar com circuitos integrados e incorporaram os microprocessadores. Um microprocessador é um circuito integrado, mas muito mais complexo, capaz de gerenciar todas as funções de um computador. É por isso que também é conhecida como Unidade Central de Processamento ou CPU.

Nessa época a popularização dos disquetes permitiu separar o usuário e programador. Foi possível copiar softwares em disquetes e distribuí-los, sem a necessidade de realizar uma programação para cada máquina.

A quarta geração de computadores foi caracterizada também por incluir dois tipos de memória:

Memória RAM : armazena os dados do programa temporariamente, enquanto o equipamento está ligado.

Memória ROM : armazena os dados do programa permanentemente.

Esses tipos de computadores usam linguagens de programação de alto nível, como JavaScript, Python ou Java.

A entrada e saída dos dados são feitas através de dispositivos periféricos como teclado, scanner, monitor, CDs, DVDs, etc. Além disso, seu tamanho e a diminuição dos custos de produção fizeram com que esse tipo de computador fosse vendido em massa.

Um exemplo de computadores de quarta geração seria o Apple Macintosh e os PCs, como os famosos 286, 386, 486 e 586 da IBM, muito populares na década de 1990.

Quinta geração: inteligência artificial, computação quântica e nanotecnologia

A quinta geração de computadores é composta por todos os dispositivos já criados ou em processo de criação que incorporam tecnologias como inteligência artificial, computação quântica ou nanotecnologia.

A inteligência artificial permite aos computadores reconhecer e aprender a linguagem humana de forma autônoma, sem a intervenção do usuário.

A incorporação da tecnologia quântica permitiria aos computadores trabalhar com enormes quantidades de dados que ainda não são possíveis de processar.

Já a nanotecnologia favorece a criação de componentes cada vez menores com maior capacidade de processamento e armazenamento.

A quinta geração de computadores é portátil e se caracteriza pelo fato de que a entrada e saída de dados podem ser feitas a partir do hardware, mas também a partir do reconhecimento de voz ou facial.

Os smartphones revolucionaram o modo de uso dos computadores – Um exemplo de computadores de quinta geração são os smartphones, que possuem maior capacidade de armazenamento e velocidade do que um computador de quarta geração. Além disso, são pequenos, têm ligação à Internet e reconhecem a linguagem natural e as expressões faciais.

Era do Microprocessador

O primeiro processador

O primeiro microprocessador do mundo foi o Intel 4004. Ele foi lançado em 15 de novembro de 1971 e não era muito poderoso, principalmente comparado com o que temos hoje. Seu trabalho fundamental era realizar operações matemáticas simples em uma calculadora japonesa chamada “Busicom 141-PF” – mas era muito bom nisso. Os planos originais citam 12 processadores sob medida, mas os funcionários da Intel “Ted” Hoff, Stan Mazor e Federico Faggin adaptaram o projeto para um conjunto de apenas 4 processadores, incluindo a CPU 4004. O Intel 4004 (i4004), uma CPU de 4 bits, 2.300 transistors e velocidade de clock que ultrapassava os 100 KHz, foi o primeiro microprocessador em um único chip, bem como o primeiro disponível comercialmente. O objetivo era reunir em um microprocessador todos os elementos necessários para criar um computador, com exceção dos dispositivos de entrada e saída.

Intel 4004 (fonte: Wikipédia)

As gerações de microprocessadores e suas características

A evolução dos microprocessadores é frequentemente dividida em diferentes gerações, cada uma delas trazendo avanços significativos em termos de desempenho e eficiência.

Primeira geração

A primeira geração de microprocessadores foi marcada pela introdução do Intel 4004. Este chip de 4 bits tinha uma frequência de clock de apenas 740 kHz, mas estabeleceu o padrão para a arquitetura de microprocessadores que seguiria.

Segunda geração

A segunda geração de microprocessadores trouxe melhorias significativas em termos de desempenho. Com chips como o Intel 8080 e o Zilog Z80, vimos a introdução de microprocessadores de 8 bits, que poderiam executar operações mais complexas e lidar com quantidades maiores de memória.

Terceira geração

A terceira geração marcou a transição para a arquitetura de 16 bits, com chips como o Intel 8086 e o Motorola 68000. Estes microprocessadores trouxeram um aumento significativo no desempenho, permitindo a execução de programas de software mais avançados.

Quarta geração

A quarta geração viu a introdução de microprocessadores de 32 bits, que proporcionaram um aumento ainda maior na capacidade de processamento. Esta geração também viu a introdução de recursos como a multitarefa e a memória virtual, permitindo uma maior eficiência e flexibilidade no uso de recursos do sistema.

Gerações atuais e futuras

As gerações atuais de microprocessadores apresentam arquiteturas de 64 bits, suporte para múltiplos núcleos e uma série de tecnologias que melhoram o desempenho e a eficiência. No futuro, podemos esperar ver avanços contínuos em termos de desempenho, eficiência energética e miniaturização, bem como a introdução de novas tecnologias, como a computação quântica.

Personagens Importantes

Hoje os personagens importantes da revolução do microcomputador, já estão sendo citados em livros de história. Mas uma melhores formas de entender o que aconteceu naquela época é ouvir ou ver uma boa história e bem contada. Assista o vídeo abaixo, está dublado em português.

Piratas do Vale do Silício from Evandro “Evandro Pereira” Pereira on Vimeo.

Redes e Internet

internet surgiu a partir de pesquisas militares no auge da Guerra Fria. Neste contexto, em que os dois blocos ideológicos e politicamente antagônicos exerciam enorme controle e influência no mundo, qualquer mecanismo, qualquer inovação, qualquer ferramenta nova poderia contribuir nessa disputa liderada pela União Soviética e pelos Estados Unidos: as duas superpotências compreendiam a eficácia e a necessidade absoluta dos meios de comunicação. Nessa perspectiva, o governo dos Estados Unidos temia um ataque russo às bases militares. Um ataque poderia trazer a público informações sigilosas, tornando os EUA vulneráveis. Então foi idealizado um modelo de troca e compartilhamento de informações que permitisse a descentralização das mesmas. Assim, se o Pentágono fosse atingido, as informações armazenadas ali não estariam perdidas. Era preciso, portanto, criar uma rede, a ARPANET, criada pela ARPA, sigla para Advanced Research Projects Agency. Em 1962, J. C. R. Licklider, do Instituto Tecnológico de Massachusetts (MIT), já falava em termos da criação de uma Rede Intergaláctica de Computadores (Intergalactic Computer Network, em inglês). A Internet também teve outros importantes atores que influenciaram o seu surgimento, dentre eles: professores universitários (como Ken King), estudantes (como Vint Cerf), empresas de tecnologia (como a IBM) e alguns políticos norte-americanos (como Al Gore); caindo-se, portanto, a tese que vigorava anteriormente que enfatizava somente a vertente militar da sua criação.

Mapa da Internet (Wikipédia – 2023)

A ARPANET funcionava através de um sistema conhecido como chaveamento de pacotes, que é um sistema de transmissão de dados em rede de computadores no qual as informações são divididas em pequenos pacotes, que por sua vez contém trecho dos dados, o endereço do destinatário e informações que permitiam a remontagem da mensagem original. O ataque inimigo nunca aconteceu, mas o que o Departamento de Defesa dos Estados Unidos não sabia era que dava início ao maior fenômeno midiático do século XX’, único meio de comunicação que em apenas 4 anos conseguiria atingir cerca de 50 milhões de pessoas.

Em 29 de Outubro de 1969 ocorreu a transmissão do que pode ser considerado o primeiro E-mail da história. O texto desse primeiro e-mail seria “LOGIN”, conforme desejava o Professor Leonard Kleinrock da Universidade da Califórnia em Los Angeles (UCLA), mas o computador no Stanford Research Institute, que recebia a mensagem, parou de funcionar após receber a letra “O”.

Já na década de 1970, a tensão entre URSS e EUA diminui. As duas potências entram definitivamente naquilo em que a história se encarregou de chamar de Coexistência Pacífica. Não havendo mais a iminência de um ataque imediato, o governo dos EUA permitiu que pesquisadores que desenvolvessem, nas suas respectivas universidades, estudos na área de defesa pudessem também entrar na ARPANET. Com isso, a ARPANET começou a ter dificuldades em administrar todo este sistema, devido ao grande e crescente número de localidades universitárias contidas nela.

Dividiu-se então este sistema em dois grupos, a MILNET, que possuía as localidades militares e a nova ARPANET, que possuía as localidades não militares. O desenvolvimento da rede, nesse ambiente mais livre, pôde então acontecer. Não só os pesquisadores como também os alunos e os amigos dos alunos, tiveram acesso aos estudos já empreendidos e somaram esforços para aperfeiçoá-los. Houve uma época nos Estados Unidos em que sequer se cogitava a possibilidade de comprar computadores prontos, já que a diversão estava em montá-los.

A mesma lógica se deu com a Internet. Jovens da contracultura, ideologicamente engajados em uma utopia de difusão da informação, contribuíram decisivamente para a formação da Internet como hoje é conhecida. A tal ponto que o sociólogo espanhol e estudioso da rede Manuel Castells afirmou no livro A Galáxia da Internet (2003) que A Internet é, acima de tudo, uma criação cultural.

Um sistema técnico denominado Protocolo de Internet (Internet Protocol) permitia que o tráfego de informações fosse encaminhado de uma rede para outra. Todas as redes conectadas pelo endereço IP na Internet comunicam-se para que todas possam trocar mensagens. Através da National Science Foundation, o governo norte-americano investiu na criação de backbones (que significa espinha dorsal, em português), que são poderosos computadores conectados por linhas que tem a capacidade de dar vazão a grandes fluxos de dados, como canais de fibra óptica, elos de satélite e elos de transmissão por rádio. Além desses backbones, existem os criados por empresas particulares. A elas são conectadas redes menores, de forma mais ou menos anárquica. É basicamente isto que consiste a Internet, que não tem um dono específico.

O cientista Tim Berners-Lee, do CERN, criou a World Wide Web em 1992.

Timothy John Berners-Lee (Wikipédia – 2023)

A empresa norte-americana Netscape criou o protocolo HTTPS (HyperText Transfer Protocol Secure), possibilitando o envio de dados criptografados para transações comercias pela internet.

Por fim, vale destacar que já em 1992, o então senador Al Gore, já falava na Superhighway of Information. Essa “superestrada da informação” tinha como unidade básica de funcionamento a troca, compartilhamento e fluxo contínuo de informações pelos quatro cantos do mundo através de uma rede mundial, a Internet. O que se pode notar é que o interesse mundial aliado ao interesse comercial, que evidentemente observava o potencial financeiro e rentável daquela “novidade”, proporcionou o boom (explosão) e a popularização da Internet na década de 1990. Até 2003, cerca de mais de 600 milhões de pessoas estavam conectadas à rede. Segundo a Internet World Estatistics, em junho de 2007 este número se aproxima de 1 bilhão e 234 milhões de usuários.

TCP/IP

Com muitos diferentes métodos de redes, alguma coisa era necessária para a unificação dos mesmos.Robert Kahn da DARPA e ARPANET recrutaram Vint Cerf da Universidade de Stanford para trabalhar com ele nesse problema. Em 1973, eles logo trabalharam com uma reformulação fundamental, onde as diferenças entre os protocolos de rede eram escondidas pelo uso de um protocolo inter-redes comum, e, ao invés da rede ser a responsável pela confiabilidade, como no ARPANET, os hospedeiros ficaram como responsáveis. Cerf creditou Hubert Zimmerman, Gerard LeLann e Louis Pouzin (designer da rede CYCLADES) como fundamentais nesse novo design de rede.

A especificação do protocolo resultante contém o primeiro uso atestado do termo internet, como abreviação de internetworking; depois RFCs repetiram seu uso, então a palavra começou como um adjetivo, ao invés do nome que é hoje. Com o papel da rede reduzida ao mínimo, ficou possível a junção de praticamente todas as redes, não importando suas características, assim, resolvendo o problema inicial de Kahn. O DARPA concordou em financiar o projeto de desenvolvimento do software, e depois de alguns anos de trabalho, a primeira demonstração de algo sobre gateway entre a rede de Packet Radio na Baía de SF área e a ARPANET foi conduzida. Em 22 de novembro de 1977, uma demonstração de árvore de redes foi conduzida incluindo a ARPANET, o Packet Radio Network e a rede Atlantic Packet Satellite – todas patrocinadas pela DARPA. Decorrentes das primeiras especificações do TCP em 1974, TCP/IP emergiu em meados do final de 1978, em forma quase definitiva. Em 1981, os padrões associados foram publicados como RFCs 791, 792 e 793 e adotado para uso. O DARPA patrocinou e incentivou o desenvolvimento de implementações TCP/IP para vários sistemas operacionais e depois programou uma migração de todos os hospedeiros de todas as suas redes de pacotes para o TCP/IP. Em 1º de janeiro de 1983, data conhecida como Flag Day, o protocolo TCP/IP se tornou o único protocolo aprovado pela ARPANET, substituindo o antigo protocolo NCP.

A Internet no Brasil e a RNP

No Brasil, os primeiros embriões de rede surgiram em 1988 e ligavam universidades do Brasil a instituições nos Estados Unidos. No mesmo ano, o Ibase começou a testar o Alternex, o primeiro serviço brasileiro de Internet não-acadêmica e não-governamental. Inicialmente o AlterNex era restrito aos membros do Ibase e associados e só em 1992 foi aberto ao público.

Em 1989, o Ministério da Ciência e Tecnologia lança um projeto pioneiro, a Rede Nacional de Ensino e Pesquisa (RNP). Existente ainda hoje, a RNP é uma organização de interesse público cuja principal missão é operar uma rede acadêmica de alcance nacional. Quando foi lançada, a organização tinha o objetivo de capacitar recursos humanos de alta tecnologia e difundir a tecnologia Internet através da implantação do primeiro backbone nacional.

O backbone funciona como uma espinha dorsal, é a infraestrutura que conecta todos os pontos de uma rede. O primeiro backbone brasileiro foi inaugurado em 1991, destinado exclusivamente à comunidade acadêmica. Mais tarde, em 1995, o governo resolveu abrir o backbone e fornecer conectividade a provedores de acesso comerciais. A partir dessa decisão, surgiu uma discussão sobre o papel da RNP como uma rede estritamente acadêmica com acesso livre para acadêmicos e taxada para todos dos outros consumidores. Com o crescimento da Internet comercial, a RNP voltou novamente a atenção para a comunidade científica.

A partir de 1997, iniciou-se uma nova fase na Internet brasileira. O aumento de acessos a rede e a necessidade de uma infraestrutura mais veloz e segura levou a investimentos em novas tecnologias. Entretanto, devido a carência de uma infraestrutura de fibra óptica que cobrisse todo o território nacional, primeiramente, optou-se pela criação de redes locais de alta velocidade, aproveitando a estrutura de algumas regiões metropolitanas. Como parte desses investimentos, em 2000, foi implantado o backbone RNP com o objetivo de interligar todo o país em uma rede de alta tecnologia. Atualmente (2007), o RNP conecta os 26 estados brasileiros e interliga mais de 300 instituições de ensino superior e de pesquisa no país, como o INMETRO e suas sedes regionais.

Outro avanço alcançado pela RNP ocorreu em 2002. Nesse ano, o então presidente da república transformou a RNP em uma organização social. Com isso ela passa a ter maior autonomia administrativa para executar as tarefas e o poder público ganha meios de controle mais eficazes para avaliar e cobrar os resultados. Como objetivos dessa transformação estão o fornecimento de serviços de infraestrutura de redes IP avançadas, a implantação e a avaliação de novas tecnologias de rede, a disseminação dessas tecnologias e a capacitação de recursos humanos na área de segurança de redes, gerência e roteamento.

A partir de 2005, a comunicação entre os point of presence (PoPs) da rede começou a ser ampliada com o uso de tecnologia óptica, o que elevou a capacidade de operação a 11 Gbit/s.

A base instalada de computadores no Brasil atinge 40 milhões, de acordo com pesquisa (divulgada em 2007) da Escola de Administração de Empresas de São Paulo da Fundação Getúlio Vargas. O número, que inclui computadores em empresas e residências, representa um crescimento de 25% sobre a base registrada no mesmo período do ano passado (2006).

Slides

Apostila

Fim da Aula 02

 

Click to listen highlighted text!