Computador

Tempo de leitura: 42 minutes

Introdução

Geralmente, um computador é qualquer dispositivo que pode realizar cálculos numéricos – até mesmo uma máquina de somar, um ábaco ou uma régua de cálculo. Atualmente, entretanto, o termo geralmente se refere a um dispositivo eletrônico que pode executar automaticamente uma série de tarefas de acordo com um conjunto preciso de instruções. O conjunto de instruções é chamado de programa e as tarefas podem incluir fazer cálculos aritméticos, armazenar, recuperar e processar dados, controlar outro dispositivo ou interagir com uma pessoa para realizar uma função de negócios ou para jogar um jogo.

Os computadores de hoje são maravilhas da miniaturização. Cálculos que antes exigiam máquinas que pesavam 30 toneladas e ocupavam salas do tamanho de um depósito agora podem ser feitos por computadores que pesam menos de 140 gramas e cabem no bolso de um terno ou na bolsa. Os “cérebros” dos computadores de hoje são circuitos integrados (ICs), às vezes chamados de microchips ou simplesmente chips. Cada um desses minúsculos wafers de silício pode conter mais de um bilhão de componentes eletrônicos microscópicos e são projetados para muitas operações específicas. Alguns chips constituem a unidade de processamento central (CPU) de um computador, que controla a operação geral do computador; alguns são coprocessadores matemáticos que podem realizar milhões de operações matemáticas por segundo; e outros são chips de memória que podem armazenar bilhões de caracteres de informação de uma vez.

Em 1953, havia apenas cerca de 100 computadores em uso em todo o mundo. Hoje, bilhões de computadores formam o núcleo dos produtos eletrônicos, e computadores programáveis ​​são usados ​​em residências, escolas, empresas, repartições governamentais e universidades para quase todos os fins concebíveis.

Os computadores vêm em muitos tamanhos e formas. Computadores para fins especiais ou dedicados são projetados para executar tarefas específicas. Suas operações são limitadas aos programas embutidos em seus microchips. Esses computadores são a base para calculadoras eletrônicas e podem ser encontrados em milhares de outros produtos eletrônicos, incluindo relógios digitais (controle de tempo, alarmes e monitores), câmeras (monitoramento de velocidades do obturador e configurações de abertura) e automóveis (controle de injeção de combustível, aquecimento e ar condicionado e monitoramento de centenas de sensores eletrônicos).

Computadores de uso geral, como computadores pessoais e comerciais, são muito mais versáteis porque podem aceitar novos programas. Cada novo programa permite que o mesmo computador execute um conjunto diferente de tarefas. Por exemplo, um programa instrui o computador a ser um processador de texto, outro o instrui a gerenciar estoques e ainda outro o transforma em um videogame.

Uma variedade de computadores portáteis leves, incluindo laptops e notebooks, foram desenvolvidos. Embora alguns computadores de uso geral sejam tão pequenos quanto rádios de bolso, os menores computadores geralmente reconhecidos são chamados de subportáteis. Normalmente consistem em uma CPU, armazenamento eletromecânico ou de estado sólido e memória, uma tela de cristal líquido (LCD) e um teclado substancial – todos alojados em uma única unidade do tamanho de um volume de enciclopédia. Os tablets são computadores com tela de toque de painel único que não possuem teclados.

Os computadores pessoais (PCs) de mesa modernos são muitas vezes mais poderosos do que os gigantescos computadores comerciais de um milhão de dólares das décadas de 1960 e 1970. Os PCs de hoje podem realizar vários bilhões de operações por segundo. Esses computadores são usados ​​não apenas para gerenciamento doméstico e entretenimento pessoal, mas também para a maioria das tarefas automatizadas exigidas por pequenas empresas, incluindo processamento de texto, geração de listas de mala direta, rastreamento de estoque e cálculo de informações contábeis. Os computadores desktop mais rápidos são chamados de estações de trabalho e geralmente são usados ​​para aplicações científicas, de engenharia ou de negócios avançados.

Os servidores são computadores rápidos que possuem maiores recursos de processamento de dados do que a maioria dos PCs e estações de trabalho e podem ser usados ​​simultaneamente por muitas pessoas. Freqüentemente, vários PCs e estações de trabalho são conectados a um servidor por meio de uma rede local (LAN). O servidor controla os recursos compartilhados pelas pessoas que trabalham nos PCs e nas estações de trabalho. Um exemplo de recurso compartilhado é uma grande coleção de informações chamada banco de dados.

Mainframes são computadores grandes, extremamente rápidos e multiusuário, que geralmente contêm matrizes complexas de processadores, cada um projetado para executar uma função específica. Como podem lidar com enormes bancos de dados, acomodar simultaneamente dezenas de usuários e realizar operações matemáticas complexas, eles têm sido o esteio da indústria, da pesquisa e dos centros de computação universitários.

A velocidade e o poder dos supercomputadores, a classe de computador mais rápida, estão quase além da compreensão humana e suas capacidades estão continuamente sendo aprimoradas. A mais rápida dessas máquinas pode realizar muitos trilhões de operações por segundo em algum tipo de cálculo e pode fazer o trabalho de milhares de PCs. Os supercomputadores atingem essas velocidades por meio do uso de várias técnicas avançadas de engenharia. Por exemplo, o circuito crítico é super-resfriado a uma temperatura quase zero absoluto para que os elétrons possam se mover na velocidade da luz, e muitas unidades de processamento são ligadas de tal forma que podem trabalhar em um único problema simultaneamente. Como esses computadores podem custar bilhões de dólares – e porque podem ser grandes o suficiente para cobrir o tamanho de duas quadras de basquete – eles são usados ​​principalmente por agências governamentais e grandes centros de pesquisa.

O desenvolvimento do computador progrediu rapidamente tanto nas extremidades superiores quanto nas inferiores do espectro da computação. Na extremidade superior, os cientistas empregam uma tecnologia chamada processamento paralelo, na qual um problema é dividido em subproblemas menores que são então distribuídos entre os vários computadores que estão conectados em rede. Por exemplo, milhões de pessoas contribuíram com seu tempo em seus computadores para ajudar a analisar sinais do espaço sideral no programa de busca de inteligência extraterrestre (SETI). No outro extremo do espectro, as empresas de informática desenvolveram pequenos dispositivos portáteis. Os assistentes pessoais digitais (PDAs) do tamanho da palma da mão normalmente permitem que as pessoas usem uma caneta para inserir informações manuscritas por meio de uma tela sensível ao toque, reproduzir arquivos de música MP3 e jogos e se conectar à Internet por meio de provedores de serviços de Internet sem fio. Os smartphones combinam os recursos de computadores portáteis e telefones celulares e podem ser usados ​​para uma ampla variedade de aplicações.

Os pesquisadores estão atualmente desenvolvendo microchips chamados processadores de sinal digital (DSPs) para permitir que os computadores reconheçam e interpretem a fala humana. Esse desenvolvimento promete levar a uma revolução na maneira como os humanos se comunicam e transferem informações.
Computadores no Trabalho – Aplicativos

 

Computadores no Trabalho – Aplicativos

Os computadores modernos têm uma infinidade de aplicações em campos que vão desde as artes às ciências e de finanças pessoais a comunicações avançadas. O uso de supercomputadores está bem estabelecido na pesquisa e no governo.

Comunicação

Os computadores possibilitam todas as comunicações modernas. Eles operam sistemas de comutação telefônica, coordenam lançamentos e operações de satélite, ajudam a gerar efeitos especiais para filmes e controlam o equipamento em transmissões de televisão e rádio. As redes locais conectam os computadores em departamentos separados de empresas ou universidades, e a Internet conecta computadores em todo o mundo. Jornalistas e escritores usam processadores de texto para escrever artigos e livros, que então enviam eletronicamente aos editores. Os dados podem ser posteriormente enviados diretamente para compositores controlados por computador.

 

Ciência e Pesquisa

Cientistas e pesquisadores usam computadores de várias maneiras para coletar, armazenar, manipular e analisar dados. A execução de simulações é uma das aplicações mais importantes. Os dados que representam um sistema da vida real são inseridos no computador, e o computador manipula os dados para mostrar como o sistema natural provavelmente se comportará sob uma variedade de condições. Desta forma, os cientistas podem testar novas teorias e projetos ou examinar um problema que não se presta à experimentação direta. Programas de desenho auxiliado por computador (CAD) permitem que engenheiros e arquitetos projetem modelos tridimensionais na tela do computador. Os químicos podem usar simulações de computador para projetar e testar modelos moleculares de novos medicamentos. Alguns programas de simulação podem gerar modelos de condições climáticas para ajudar os meteorologistas a fazer previsões. Os simuladores de vôo são ferramentas valiosas de treinamento para pilotos.

 

Indústria

Os computadores abriram uma nova era na fabricação e no desenvolvimento de produtos de consumo. Nas fábricas, os programas de manufatura assistida por computador (CAM) ajudam as pessoas a planejar programações de produção complexas, controlar estoques e contas, operar linhas de montagem automatizadas e controlar robôs. Computadores dedicados são usados ​​rotineiramente em milhares de produtos, desde calculadoras a aviões.

Governo

As agências governamentais são as maiores usuárias de mainframes e supercomputadores. Os computadores são essenciais para compilar dados do censo, lidar com registros fiscais, manter registros criminais e outras tarefas administrativas. Os governos também usam supercomputadores para pesquisas meteorológicas, interpretação de dados de satélite, desenvolvimento de armas e criptografia (renderização e decifração de mensagens em código secreto).

 

 

Educação

Os computadores provaram ser ferramentas educacionais valiosas. A instrução assistida por computador (CAI) usa aulas computadorizadas que variam de exercícios simples e sessões práticas a tutoriais interativos complexos. Esses programas tornaram-se ferramentas essenciais de ensino em escolas médicas e centros de treinamento militar, onde os tópicos são complexos e o custo de professores humanos é extremamente alto. Uma grande variedade de recursos educacionais, como enciclopédias e outras obras de referência, estão disponíveis para usuários de PC.

 

Artes e Entretenimento

Os videogames são um dos aplicativos de PC mais populares. Os recursos gráficos e de som em constante aprimoramento dos PCs os tornaram ferramentas populares para artistas e músicos. Os PCs podem exibir milhões de cores, produzir imagens muito mais nítidas do que as de um aparelho de televisão e se conectar a vários instrumentos musicais e sintetizadores.

Programas de pintura e desenho permitem que os artistas criem imagens realistas e exibições animadas com muito mais facilidade do que com ferramentas mais tradicionais. Os programas “Morphing” permitem que fotógrafos e cineastas transformem imagens fotográficas em qualquer tamanho e forma que possam imaginar. Supercomputadores podem inserir imagens animadas realistas em quadros de um filme de forma tão perfeita que os espectadores não conseguem distinguir atores reais de imagens geradas por computador. Os músicos podem usar computadores para criar composições de várias vozes e reproduzir músicas com centenas de variações. Os processadores de fala permitem que um computador simule a fala e o canto. As indústrias de arte e entretenimento tornaram-se usuárias tão importantes de computadores que estão substituindo os militares como a força motriz do avanço da tecnologia da computação.

 

 

 

 

Tipos de computadores

Existem dois tipos fundamentalmente diferentes de computadores – analógicos e digitais. (Os computadores híbridos combinam elementos de ambos os tipos.) Computadores analógicos resolvem problemas usando dados que mudam continuamente (como temperatura, pressão ou voltagem) em vez de manipular dígitos binários discretos (1s e 0s) como um computador digital. No uso atual, o termo computador geralmente se refere a computadores digitais. Os computadores digitais geralmente são mais eficazes do que os analógicos por três motivos principais: eles não são tão suscetíveis à interferência de sinal; eles podem transmitir dados com mais precisão; e seus dados binários codificados são mais fáceis de armazenar e transferir do que os sinais analógicos.

Computadores Analógicos

Os computadores analógicos funcionam convertendo dados de condições físicas em constante mudança em quantidades mecânicas ou elétricas correspondentes. Eles oferecem soluções contínuas para os problemas nos quais estão operando. Por exemplo, um velocímetro de automóvel é um computador analógico mecânico que mede as rotações por minuto do eixo de transmissão e traduz essa medição em uma exibição de milhas ou quilômetros por hora. Computadores eletrônicos analógicos em fábricas de produtos químicos monitoram temperaturas, pressões e taxas de fluxo. Eles enviam tensões correspondentes para vários dispositivos de controle, que, por sua vez, ajustam as condições de processamento químico para seus níveis adequados. Embora os computadores digitais tenham se tornado rápidos o suficiente para substituir a maioria dos computadores analógicos, os computadores analógicos ainda são comuns para sistemas de controle de vôo em veículos de aviação e espaciais.

 

Digital Computers

Com toda a sua aparente complexidade, os computadores digitais são máquinas basicamente simples. Cada operação que executam, desde navegar em uma espaçonave até jogar xadrez, é baseada em uma operação-chave: determinar se certos interruptores eletrônicos, chamados de portões, estão abertos ou fechados. O verdadeiro poder de um computador está na velocidade com que verifica essas chaves.

Um computador pode reconhecer apenas dois estados em cada um de seus milhões de interruptores de circuito – ligado ou desligado, ou alta ou baixa voltagem. Atribuindo números binários a esses estados – 1 para ligado e 0 para desligado, por exemplo – e ligando muitos interruptores, um computador pode representar qualquer tipo de dados, de números a letras e notas musicais. Este processo é denominado digitalização.

Bits, bytes e o sistema de números binários

Na maior parte de nossa vida cotidiana, usamos o sistema de numeração decimal. O sistema usa 10 dígitos que podem ser combinados para formar números maiores. Quando um número é escrito, cada um dos dígitos representa uma potência diferente de 10. Por exemplo, no número 9.253, o dígito mais à direita (3) é o número de 1s, o próximo dígito (5) é o número de 10s, o próximo dígito (2) é o número de 100s e o último dígito (9) é o número de 1.000s. Assim, o valor do número é

O número 100 pode ser escrito como 10 × 10 ou 102 e 1.000 como 10 × 10 × 10 ou 103. O pequeno número elevado é chamado de potência, ou expoente, e indica quantas vezes deve ser multiplicado um número por si mesmo . Além disso, 10 pode ser escrito como 101 e 1 como 100. Portanto, outra maneira de olhar para o número 9.253 é

Como a chave eletrônica de um computador tem apenas dois estados, os computadores usam o sistema numérico binário. Este sistema tem apenas dois dígitos, 0 e 1. Em um número binário como 1101, cada dígito binário, ou bit, representa uma potência diferente de 2, com o dígito mais à direita representando 20. As primeiras potências são 20 = 1, 21 = 2, 22 = 2 × 2 = 4 e 23 = 2 × 2 × 2 = 8. Assim como no sistema de numeração decimal, o valor do número binário pode ser calculado somando as potências:

Portanto, o binário 1101 é igual ao decimal 13.

Um computador geralmente funciona com grupos de bits por vez. Um grupo de oito bits é denominado byte. Um byte pode representar os 256 valores binários diferentes 00000000 a 11111111, que são iguais aos valores decimais de 0 a 255. Isso é valores suficientes para atribuir um código numérico a cada letra do alfabeto latino (maiúsculas e minúsculas, mais alguns acentuados letras), os 10 dígitos decimais, sinais de pontuação e símbolos matemáticos comuns e outros símbolos especiais. Portanto, dependendo do contexto de um programa, o valor binário 01000001 pode representar o valor decimal 65, a letra maiúscula A ou uma instrução para o computador mover dados de um lugar para outro.

A quantidade de dados que podem ser armazenados na memória de um computador ou em um disco é referida em termos de números de bytes. Os computadores podem armazenar bilhões de bytes em sua memória, e um disco moderno pode armazenar dezenas, ou mesmo centenas, de bilhões de bytes de dados. Para lidar com números tão grandes, as abreviações K, M e G (para “quilo”, “mega” e “giga”, respectivamente) são freqüentemente usadas. K representa 210 (1.024 ou cerca de mil), M representa 220 (1.048.576 ou cerca de um milhão) e G representa 230 (1.073.741.824, ou cerca de um bilhão). A abreviatura B significa byte eb significa bit. Portanto, um computador com 256 MB (megabyte) de memória pode armazenar cerca de 256 milhões de caracteres. Um disco de 80 GB (gigabyte) armazena cerca de 80 bilhões de caracteres.

Partes de um sistema de computador digital

Um computador funcional requer hardware e software. Hardware são as peças físicas, eletrônicas e mecânicas do computador. O software consiste em programas que instruem o hardware a executar tarefas.

 

 

 

Hardware

O hardware de um computador digital é um sistema complexo de quatro elementos funcionalmente diferentes – uma unidade de processamento central, dispositivos de entrada, dispositivos de armazenamento de memória e dispositivos de saída – ligados por uma rede de comunicação ou barramento. O barramento normalmente é incorporado à placa de circuito principal, chamada de placa-mãe, que é conectada a todos os outros componentes.

A unidade central de processamento

O coração de um computador é a unidade central de processamento (CPU). Além de realizar operações aritméticas e lógicas nos dados, ele cronometra e controla o resto do sistema. As CPUs do mainframe e do supercomputador às vezes consistem em vários microchips vinculados, chamados microprocessadores, cada um dos quais executa uma tarefa separada, mas a maioria dos outros computadores requer apenas um único microprocessador como CPU.

A maioria das CPUs tem três seções funcionais:

(1) a unidade aritmética / lógica (ALU), que realiza operações aritméticas (como adição e subtração) e operações lógicas (como testar um valor para ver se ele é verdadeiro ou falso);
(2) locais de armazenamento temporário, chamados de registros, que contêm dados, instruções ou os resultados intermediários de cálculos; e
(3) a seção de controle, que cronometra e regula todos os elementos do sistema de computador e também traduz os padrões dos registros em atividades do computador (como instruções para adicionar, mover ou comparar dados).

Um relógio muito rápido regula e regula um CPU. Cada tique, ou ciclo, do relógio faz com que cada parte da CPU comece sua próxima operação e fique sincronizada com as outras partes. Quanto mais rápido o clock da CPU, mais rápido o computador pode executar suas tarefas. A velocidade do clock é medida em ciclos por segundo, ou hertz (Hz). Os computadores de mesa de hoje têm CPUs com relógios de 1 a 4 GHz (gigahertz). Os computadores desktop mais rápidos, portanto, têm relógios de CPU que marcam 4 bilhões de vezes por segundo. Os primeiros PCs tinham clocks de CPU que operavam a menos de 5 MHz. Uma CPU pode realizar uma operação muito simples, como copiar um valor de um registrador para outro, em apenas um ou dois ciclos de clock. As operações mais complicadas, como dividir um valor por outro, podem exigir dezenas de ciclos de clock.

Dispositivos de entrada

Componentes conhecidos como dispositivos de entrada permitem aos usuários inserir comandos, dados ou programas para processamento pela CPU. Os teclados de computador, muito parecidos com os teclados de máquinas de escrever, são os dispositivos de entrada mais comuns. As informações digitadas no teclado são traduzidas em uma série de números binários que a CPU pode manipular.

Outro dispositivo de entrada comum, o mouse, é um dispositivo mecânico ou ótico com botões na parte superior e uma bola rolante ou um sensor ótico em sua base. Para mover o cursor na tela de exibição, o usuário move o mouse em uma superfície plana. O usuário seleciona operações, ativa comandos ou cria ou altera imagens na tela pressionando os botões do mouse.

Outros dispositivos de entrada incluem joysticks e trackballs. Canetas de luz podem ser usadas para desenhar ou apontar itens ou áreas na tela. Um teclado digitalizador sensibilizado traduz as imagens desenhadas nele com uma caneta ou estilete eletrônico em uma imagem correspondente na tela do monitor. Telas sensíveis ao toque permitem que os usuários apontem para itens ou áreas na tela e ativem comandos. Scanners ópticos “lêem” caracteres ou imagens em uma página impressa e os traduzem em números binários que a CPU pode usar. O circuito de reconhecimento de voz digitaliza as palavras faladas e as insere no computador.

 

Dispositivos de armazenamento de memória

A maioria dos computadores digitais armazena dados tanto internamente, na chamada memória principal, quanto externamente, em unidades de armazenamento auxiliares. À medida que um computador processa dados e instruções, ele armazena temporariamente informações na memória principal, que consiste em uma memória de acesso aleatório (RAM). Acesso aleatório significa que cada byte pode ser armazenado e recuperado diretamente, em oposição a sequencialmente como na fita magnética.

Os chips de memória são soldados nas placas de circuito impresso, ou módulos de RAM, que se conectam a soquetes especiais na placa-mãe de um computador. Com o aumento dos requisitos de memória para computadores pessoais, normalmente de quatro a 16 chips de memória são soldados em um módulo. Na RAM dinâmica, o tipo de RAM comumente usado para a memória geral do sistema, cada chip consiste em milhões de transistores e capacitores. (Cada capacitor armazena um bit de dados, 1 ou 0. Os chips de memória de hoje podem armazenar cada um até 512 Mb (megabits) de dados; um conjunto de 16 chips em um módulo de RAM pode armazenar até 1 GB de dados. Esse tipo de memória interna também é chamado de memória de leitura/gravação.

Outro tipo de memória interna consiste em uma série de chips de memória somente leitura (ROM). Ao contrário da RAM, o que é armazenado na ROM persiste quando a alimentação é removida. Assim, os chips ROM são armazenados com instruções especiais do fabricante que normalmente não podem ser acessadas ou alteradas. Os programas armazenados nesses chips correspondem a comandos e programas de que o computador precisa para inicializar, ou para se preparar para a operação e para realizar as operações básicas. Como a ROM é, na verdade, uma combinação de hardware (microchips) e software (programas), costuma ser chamada de firmware.

As unidades de armazenamento auxiliares suplementam a memória principal, mantendo programas e dados que são muito grandes para caber na memória principal de uma só vez. Eles também oferecem um método mais permanente e seguro para armazenar programas e dados.

Muitos dispositivos auxiliares de armazenamento, incluindo disquetes, discos rígidos e fita magnética, armazenam dados reorganizando magneticamente as partículas de metal em suas superfícies. As partículas orientadas em uma direção representam 1s, e as partículas orientadas em outra direção representam 0s. As unidades de disquete (que leem e gravam dados em discos magnéticos removíveis) podem armazenar de 1,4 a 2,8 MB de dados em um disco e têm sido usadas principalmente em PCs. As unidades de disco rígido, ou unidades de disco rígido, contêm mídia magnética não removível e são usadas com todos os tipos de computadores. Eles acessam dados muito rapidamente e podem armazenar centenas de GB de dados.

Dispositivos de armazenamento de fita magnética são geralmente usados ​​junto com discos rígidos em grandes sistemas de computador que lidam com grandes volumes de dados em constante mudança. As unidades de fita, que acessam os dados sequencialmente e de forma relativamente lenta, fazem backup regularmente ou duplicam os dados nos discos rígidos para proteger o sistema contra perda de dados durante falhas de energia ou mau funcionamento do computador.

A memória flash é um meio de armazenamento eletrônico de estado sólido que combina a capacidade de gravação da RAM com a persistência da ROM. Desde sua invenção em duas formas básicas no final dos anos 1980 (pela Intel e Toshiba), ele se tornou padrão para dispositivos portáteis como câmeras digitais, telefones celulares, PDAs, tocadores de MP3 e máquinas de videogame. No início do século 21, dispositivos de memória flash que cabiam em um chaveiro e tinham capacidade de armazenamento de até 1 GB (e mais tarde) começaram a servir como discos rígidos portáteis.

Os discos ópticos são dispositivos de armazenamento auxiliar não magnético desenvolvidos a partir da tecnologia de CD (CD) de áudio. Os dados são codificados em um disco como uma série de fossos e espaços planos, chamados de terrenos, cujos comprimentos correspondem a diferentes padrões de 0s e 1s. Um CD removível de 12 centímetros (43/4 polegadas) contém uma trilha em espiral com mais de 4,8 quilômetros de comprimento, na qual quase 1 GB de informação pode ser armazenado. Todo o texto desta enciclopédia, por exemplo, ocuparia apenas um quinto de um CD. Os CDs somente leitura, cujos dados podem ser lidos, mas não alterados, são chamados de CD-ROMs (disco compacto – memória somente leitura). CDs graváveis ​​- chamados de CD-R para gravar uma vez / ler muitos discos (WORM) e CD-RW para discos regraváveis ​​- têm sido usados ​​por muitas empresas e universidades para fazer backups periódicos de bancos de dados variáveis ​​e por indivíduos para criar (“gravar”) seus próprios CDs de música.

O disco de vídeo digital (DVD) é um formato óptico mais recente que usa um laser de alta potência para ler regiões menores de armazenamento de dados. Embora os DVDs tenham o mesmo tamanho que os CDs, os discos de um lado (os mais comuns) armazenam até 4,7 GB. Existem vários tipos de DVDs graváveis ​​e regraváveis.

 

 

 

Dispositivos de saída

Os componentes que permitem ao usuário ver ou ouvir os resultados do processamento de dados do computador são conhecidos como dispositivos de saída. O mais comum é o terminal de exibição de vídeo (VDT), ou monitor, que usa um tubo de raios catódicos (CRT) ou tela de cristal líquido (LCD) para mostrar caracteres e gráficos em uma tela semelhante a uma televisão.

Modems (modulador-desmoduladores) são dispositivos de entrada/saída (E/S) que permitem aos computadores transferir dados entre si. Um modem básico em um computador traduz os pulsos digitais em sinais analógicos (som) e, em seguida, transmite os sinais por meio de uma linha telefônica ou rede de comunicação para outro computador. Um modem no computador do outro lado da linha reverte o processo. Diferentes tipos de modems são usados ​​para transmitir informações em redes de telefone digital (linha de assinante digital ou DSL, modems), linhas de televisão a cabo (modems a cabo) e redes sem fio (modems de rádio de alta frequência).

As impressoras geram cópias impressas – uma versão impressa das informações armazenadas em um dos sistemas de memória do computador. As impressoras coloridas a jato de tinta e preto e branco são as mais comuns, embora o custo decrescente das impressoras coloridas a laser tenha aumentado sua presença fora da indústria editorial.

A maioria dos PCs também possui alto-falantes de áudio. Eles permitem que o usuário ouça sons, como música ou palavras faladas, gerados pelo computador.

 

Software

Dois tipos de software instruem um computador a realizar suas tarefas – software de sistemas e software de aplicativos. O software de sistema é um componente permanente do computador que controla suas funções fundamentais. Diferentes tipos de software de aplicativos são carregados no computador conforme necessário para realizar tarefas específicas para o usuário, como processamento de texto. O software de aplicativos requer as funções fornecidas pelo software de sistema.

Software de sistemas

O sistema operacional (SO) de um computador é o software de sistema que permite que todos os componentes de hardware e software diferentes funcionem juntos. É composto por um conjunto de programas que gerencia todos os recursos do computador, incluindo os dados na memória principal e no armazenamento auxiliar. Um sistema operacional fornece serviços que são necessários para aplicativos e software, como a leitura de dados de um disco rígido. Partes de um sistema operacional podem ser armazenadas permanentemente na ROM de um computador.

Drivers são programas de sistema operacional que gerenciam dados de diferentes dispositivos de E / S. Os drivers entendem as diferenças nos dispositivos e realizam as traduções apropriadas dos dados de entrada e saída.

Os computadores gravam dados e lêem de um armazenamento auxiliar em coleções chamadas de arquivos. O sistema de arquivos de um SO permite que os programas dêem nomes aos arquivos e mantém o controle da localização de cada arquivo. Um sistema de arquivos também pode agrupar arquivos em diretórios ou pastas.

Um sistema operacional permite que programas sejam executados. Quando um programa está em execução, ele está instruindo o computador. Por exemplo, quando um usuário joga um videogame, o programa de videogame está em execução. Um sistema operacional gerencia processos, cada um dos quais consiste em um programa em execução e os recursos de que o programa requer. Um sistema operacional avançado oferece suporte a multiprocessamento para permitir que vários programas sejam executados simultaneamente. Também pode incluir serviços de rede que permitem que programas executados em um computador se comuniquem com programas executados em outro.

Os sistemas operacionais modernos fornecem uma interface gráfica do usuário (GUI) para tornar o software aplicativo mais fácil de usar. Uma GUI permite que um usuário de computador trabalhe diretamente com um programa aplicativo, manipulando texto e gráficos na tela do monitor por meio do teclado e de um dispositivo apontador, como um mouse, em vez de apenas digitar instruções nas linhas de comando. O computador Macintosh da empresa Apple Computer, lançado em meados da década de 1980, teve o primeiro software baseado em GUI comercialmente bem-sucedido.

Outro exemplo de software de sistema é um sistema de banco de dados. Um sistema de banco de dados funciona com o sistema de arquivos e inclui programas que permitem que vários usuários acessem os arquivos simultaneamente. Os sistemas de banco de dados geralmente gerenciam grandes quantidades (muitos gigabytes) de dados de maneira segura.

Os computadores que usam sistemas de armazenamento de memória em disco possuem sistemas operacionais de disco (DOS). Os sistemas operacionais populares para PCs incluem MS-DOS e Windows, desenvolvidos pela Microsoft Corporation no início dos anos 1980 e 1990, respectivamente. Estações de trabalho, servidores e alguns computadores mainframe geralmente usam o sistema operacional UNIX originalmente projetado pela Bell Laboratories no final dos anos 1960. Uma versão do UNIX chamada Linux ganhou popularidade no final dos anos 1990 para PCs.

Software de aplicativos

O software de aplicativos consiste em programas que instruem o computador a realizar tarefas específicas para o usuário, como processamento de texto, operação de planilhas, gerenciamento de contas em estoques, manutenção de registros ou jogo de videogame. Esses programas, chamados de aplicativos, são executados apenas quando são necessários. O número de aplicativos disponíveis é tão grande quanto o número de usos diferentes dos computadores.

Programação

O software é escrito por profissionais conhecidos como programadores de computador. A maioria dos programadores em grandes corporações trabalha em equipes, com cada pessoa se concentrando em um aspecto específico do projeto total. (Os oito programas que executavam cada nave no programa do ônibus espacial, por exemplo, consistiam em um total de cerca de meio milhão de instruções separadas e foram escritos por centenas de programadores.) Por esta razão, software científico e industrial às vezes custa muito mais do que os computadores nos quais os programas são executados. Programadores individuais podem trabalhar com fins lucrativos, como hobby ou como alunos, e são os únicos responsáveis ​​por todo o projeto.

Os programas de computador consistem em estruturas de dados e algoritmos. As estruturas de dados representam as informações que o programa processa. Algoritmos são as sequências de etapas que um programa segue para processar as informações. Por exemplo, um programa de aplicação de folha de pagamento tem estruturas de dados que representam informações pessoais, incluindo as horas trabalhadas de cada funcionário e taxa de pagamento. Os algoritmos do programa incluem instruções sobre como calcular o pagamento de cada funcionário e como imprimir os contracheques.

Geralmente, os programadores criam software usando o seguinte processo de desenvolvimento:

(1) Compreender os requisitos do software, que são uma descrição do que o software deve fazer. Os requisitos geralmente não são escritos por programadores, mas por pessoas que estão em contato próximo com os futuros clientes ou usuários do software.
(2) Criar as especificações do software, uma descrição detalhada das tarefas necessárias e como os programas irão instruir o computador a realizar essas tarefas. As especificações de software geralmente contêm diagramas conhecidos como fluxogramas que mostram os vários módulos, ou partes dos programas, a ordem das ações do computador e o fluxo de dados entre os módulos.
(3) Escreva o código – as instruções do programa codificadas em uma linguagem de programação específica.
(4) Teste o software para ver se ele funciona de acordo com as especificações e, possivelmente, envie o programa para teste alfa, no qual outros indivíduos da empresa testam o programa independentemente.
(5) Depure o programa para eliminar erros de programação, comumente chamados de bugs. (O termo bug foi cunhado no início dos anos 1940, quando os programadores que procuravam a causa de um misterioso mal funcionamento no enorme computador Mark I descobriram uma traça em um interruptor elétrico vital. Depois disso, os programadores se referiram à correção de erros de programação como depuração.)
(6) Envie o programa para teste beta, no qual os usuários testam o programa extensivamente em condições da vida real para ver se ele funciona corretamente.
(7) Liberar o produto para uso ou venda depois de ter passado em todos os testes e verificado o cumprimento de todos os requisitos.

Essas etapas raramente ocorrem de maneira linear. Os programadores costumam ir e voltar entre as etapas 3, 4 e 5. Se o software falhar em seus testes alfa ou beta, os programadores terão que voltar para uma etapa anterior. Freqüentemente, os gerentes de programação agendam vários testes alfa e beta. Mudanças nos requisitos de software podem ocorrer a qualquer momento, e os programadores precisam refazer partes de seu trabalho para atender aos novos requisitos.

Freqüentemente, a etapa mais difícil no desenvolvimento do programa é o estágio de depuração. Problemas no projeto e na lógica do programa são freqüentemente difíceis de detectar em programas grandes, que consistem em dezenas de módulos divididos em unidades ainda menores chamadas de sub-rotinas ou subprogramas. Além disso, embora um programa possa funcionar corretamente, considera-se que ele tem bugs se for mais lento ou menos eficiente do que deveria.

Linguagens de programação

Nos primeiros computadores eletrônicos, os programadores tiveram que redefinir interruptores e religar os painéis do computador para fazer alterações nos programas. Embora os programadores ainda devam “definir” (para 1) ou “limpar” (para 0) milhões de interruptores nos microchips, eles agora usam linguagens de programação para dizer ao computador para fazer essas alterações.

Existem dois tipos gerais de linguagens – baixo nível e alto nível. As linguagens de baixo nível são semelhantes à linguagem binária interna de um computador, ou linguagem de máquina. Eles são difíceis de serem usados ​​por humanos e não podem ser usados ​​alternadamente em diferentes tipos de computadores, mas produzem os programas mais rápidos. Linguagens de alto nível são menos eficientes, mas são mais fáceis de usar porque se parecem mais com as línguas faladas ou matemáticas.

Um computador “entende” apenas uma linguagem – padrões de 0s e 1s. Por exemplo, o comando para mover o número 255 para um registro da CPU, ou local da memória, pode ser parecido com: 00111110 11111111. Um programa pode consistir em milhares dessas operações. Para simplificar o procedimento de programação de computadores, uma linguagem de baixo nível chamada linguagem assembly atribui um código mnemônico a cada instrução em linguagem de máquina para torná-la mais fácil de lembrar e escrever. O código binário acima pode ser escrito em linguagem assembly como: MVI A, 0FFH. Para o programador, isso significa “MoVe imediatamente para registrar A o valor 0FFH.” (O 0FFH representa o valor decimal 255.) Um programa pode incluir milhares desses mnemônicos, que são então montados ou traduzidos para a linguagem de máquina do computador.

Linguagens de alto nível usam comandos fáceis de lembrar, como PRINT, OPEN, GOTO e INCLUDE, e notação matemática para representar grupos freqüentemente usados ​​de instruções em linguagem de máquina. Inseridos no teclado ou em um programa, esses comandos são interceptados por um programa separado – chamado de interpretador ou compilador – que traduz os comandos em linguagem de máquina. A etapa extra, entretanto, faz com que esses programas sejam executados mais lentamente do que programas em linguagens de baixo nível.

A primeira linguagem de alto nível para processamento de dados de negócios foi chamada de FLOW-MATIC. Ele foi desenvolvido no início dos anos 1950 por Grace Hopper, uma programadora de computadores da Marinha dos Estados Unidos. Naquela época, os computadores também estavam se tornando uma ferramenta científica cada vez mais importante. Uma equipe liderada por John Backus da International Business Machines (IBM) Corporation começou a desenvolver uma linguagem que simplificaria a programação de fórmulas matemáticas complicadas. Concluído em 1957, FORTRAN (tradução de fórmula) se tornou a primeira linguagem de programação abrangente de alto nível. Sua importância foi imediata e duradoura, e as novas versões da linguagem ainda são amplamente utilizadas em aplicações científicas e de engenharia.

O FORTRAN manipulava números e equações com eficiência, mas não era adequado para tarefas relacionadas a negócios, como criar, mover e processar arquivos de dados. Vários fabricantes de computadores, com o apoio do governo dos Estados Unidos, desenvolveram em conjunto o COBOL (Common Business-Oriented Language) no início dos anos 1960 para atender a essas necessidades. COBOL se tornou a linguagem de programação mais importante para aplicativos comerciais e relacionados a negócios, e as versões mais recentes ainda são amplamente utilizadas hoje.

John Kemeny e Thomas Kurtz, dois professores do Dartmouth College, desenvolveram uma versão simplificada do FORTRAN, chamada BASIC (Beginner’s All-purpose Symbolic Instruction Code), em 1965. Considerado muito lento e ineficiente para uso profissional, o BASIC era, no entanto, simples de aprender e fácil de usar e se tornou uma importante ferramenta acadêmica para ensinar fundamentos de programação para usuários de computador não profissionais. A explosão do uso de microcomputadores no final dos anos 1970 transformou o BASIC em uma linguagem de programação universal. Como quase todos os microcomputadores foram vendidos com alguma versão do BASIC incluída, milhões de pessoas agora usam a linguagem, e dezenas de milhares de programas BASIC são agora de uso comum. No início da década de 1990, a Microsoft Corporation aprimorou o BASIC com uma GUI para criar Visual Basic, que se tornou uma linguagem popular para criar aplicativos de PC.

Em 1968, Niklaus Wirth, um professor em Zurique, na Suíça, criou Pascal, que deu o nome do filósofo e matemático francês do século 17, Blaise Pascal. Por ser uma linguagem altamente estruturada que apoiava boas técnicas de programação, era frequentemente ensinada em universidades durante as décadas de 1970 e 1980 e ainda influencia as linguagens de programação de hoje. Pascal foi baseado em ALGOL (Algorithmic Language), uma linguagem que era popular na Europa durante os anos 1960.

Os programas escritos em LISP (Processamento de Lista) manipulam dados simbólicos (em oposição a numéricos) organizados em estruturas de lista. Desenvolvido no início dos anos 1960 no Instituto de Tecnologia de Massachusetts sob a liderança do Professor John McCarthy, o LISP é usado principalmente para programação de inteligência artificial (IA). Os programas de inteligência artificial tentam tornar os computadores mais úteis usando os princípios da inteligência humana em sua programação.

A linguagem conhecida como C é uma linguagem rápida e eficiente para muitos computadores e sistemas operacionais diferentes. Os programadores costumam usar C para escrever software de sistemas, mas muitos aplicativos de qualidade profissional e comercial também são escritos em C. Dennis Ritchie nos Bell Laboratories originalmente projetados em C para o sistema operacional UNIX no início dos anos 1970.

Em 1979, o idioma Ada, projetado no CII Honeywell Bull por uma equipe internacional liderada por Jean Ichbiah, foi escolhido pelo Departamento de Defesa dos Estados Unidos como seu idioma padronizado. Chamava-se Ada, em homenagem a Augusta Ada Byron, que trabalhou com Charles Babbage em meados de 1800 e é considerado o primeiro programador do mundo. A linguagem Ada tem sido usada para programar sistemas embarcados, que são partes integrantes de sistemas maiores que controlam máquinas, armas ou fábricas.

Linguagens como FORTRAN, Ada e C são chamadas de linguagens procedurais porque os programadores dividem seus programas em subprogramas e sub-rotinas (também chamadas de procedimentos) para lidar com diferentes partes do problema de programação. Esses programas operam “chamando” os procedimentos um após o outro para resolver todo o problema.

Durante a década de 1990, a programação orientada a objetos (OOP) se tornou popular. Este estilo de programação permite que os programadores construam seus programas a partir de “objetos” reutilizáveis. Um objeto de software pode modelar um objeto físico no mundo real. Consiste em dados que representam o estado do objeto e o código que define o comportamento do objeto. Como um objeto chamado sedan compartilha atributos com o objeto mais genérico chamado carro no mundo real, um objeto de software pode herdar o estado e o comportamento de outro objeto. A primeira linguagem popular para programação orientada a objetos foi C ++, projetada por Bjarne Stroustrup da Bell Laboratories em meados da década de 1980. James Gosling, da Sun Microsystems Corporation, criou uma versão simplificada de C ++ chamada Java em meados da década de 1990. Java se tornou popular para escrever aplicativos para a Internet.

Centenas de linguagens de programação ou variantes de linguagem existem hoje. A maioria foi desenvolvida para escrever tipos específicos de aplicativos. No entanto, muitas empresas insistem em usar as linguagens mais comuns para que possam aproveitar as vantagens de programas escritos em outros lugares e garantir que seus programas sejam portáteis, o que significa que serão executados em computadores diferentes.

 

A Internet e a World Wide Web

Uma rede de computadores é a interconexão de muitos computadores individuais, assim como uma estrada é a ligação entre as casas e os prédios de uma cidade. Ter muitos computadores separados conectados em uma rede oferece muitas vantagens para organizações como empresas e universidades. As pessoas podem compartilhar arquivos de forma rápida e fácil; modificar bancos de dados; enviar memorandos chamados e-mail (correio eletrônico); executar programas em mainframes remotos; e acessar informações em bancos de dados que são muito grandes para caber no disco rígido de um pequeno computador. As redes fornecem uma ferramenta essencial para o roteamento, gerenciamento e armazenamento de grandes quantidades de dados que mudam rapidamente.

A Internet é uma rede de redes: a conexão internacional de centenas de milhares de empresas, universidades e organizações de pesquisa com milhões de usuários individuais. Foi originalmente formada em 1970 como uma rede militar chamada ARPANET (Advanced Research Projects Agency Network) como parte do Departamento de Defesa dos Estados Unidos. A rede foi aberta para usuários não militares na década de 1970, quando universidades e empresas que faziam pesquisas relacionadas à defesa tiveram acesso, e floresceu no final da década de 1980, quando a maioria das universidades e muitas empresas ao redor do mundo ficaram online. Em 1993, quando os provedores comerciais de serviços de Internet foram autorizados a vender conexões de Internet a indivíduos, o uso da rede cresceu tremendamente. Simultaneamente, outras redes de longa distância (WANs) em todo o mundo começaram a se conectar com a rede americana para formar uma Internet verdadeiramente internacional. Milhões de novos usuários surgiram em poucos meses e uma nova era de comunicações por computador começou.

A maioria das redes na Internet disponibiliza determinados arquivos para outras redes. Esses arquivos comuns podem ser bancos de dados, programas ou e-mail de pessoas na rede. Com centenas de milhares de sites internacionais, cada um fornecendo milhares de dados, é fácil imaginar a massa de dados brutos disponíveis para os usuários. Os usuários podem baixar ou copiar informações de um computador remoto para seus PCs e estações de trabalho para visualização e processamento.

O cientista da computação britânico Tim Berners-Lee inventou a World Wide Web a partir de 1989 como uma forma de organizar e acessar informações na Internet. Sua introdução ao público em geral em 1992 fez com que a popularidade da Internet explodisse quase da noite para o dia. Em vez de ser capaz de baixar apenas texto linear simples, com a introdução da World Wide Web, os usuários podem baixar páginas da Web que contenham texto, gráficos, animação, vídeo e som. Um programa chamado navegador da Web é executado nos PCs e estações de trabalho dos usuários e permite que eles visualizem e interajam com essas páginas.

O hipertexto permite que um usuário vá de uma página da Web para outra usando o mouse para clicar em links de hipertexto especiais. Por exemplo, um usuário que visualiza páginas da Web que descrevem aviões pode encontrar um link para “motores a jato” em uma dessas páginas. Ao clicar nesse link, o usuário salta automaticamente para uma página que descreve os motores a jato. Os usuários “navegam na Web” quando saltam de uma página para outra em busca de informações. Programas especiais chamados mecanismos de busca ajudam as pessoas a encontrar informações na web.

Muitas empresas comerciais mantêm sites, ou conjuntos de páginas da Web, que seus clientes podem ver. As empresas também podem vender seus produtos em seus sites. Os clientes que visualizam as páginas da Web podem aprender sobre os produtos e comprá-los diretamente das empresas, enviando os pedidos de volta pela Internet. Comprar e vender ações e outros investimentos e pagar contas eletronicamente são outras atividades comuns na web.

Muitas organizações e instituições educacionais também possuem sites. Eles usam seus sites para se promoverem e suas causas, para disseminar informações e para solicitar fundos e novos membros. Alguns candidatos políticos, por exemplo, têm tido muito sucesso em arrecadar fundos de campanha pela Internet. Muitos indivíduos também possuem sites. Eles podem preencher suas páginas com fotografias e informações pessoais para visualização por amigos e associados.

Os sites são mantidos em computadores chamados servidores web. A maioria das empresas e muitas organizações têm seus próprios servidores Web. Esses servidores costumam ter bancos de dados que armazenam o conteúdo exibido nas páginas de seus sites. Indivíduos com sites podem usar os servidores da Web de seus provedores de serviços de Internet.

As páginas da Web são programadas em uma linguagem chamada HTML (HyperText Markup Language). Os designers de páginas da Web podem tornar suas páginas mais interativas e dinâmicas incluindo pequenos programas escritos em Java chamados applets. Quando os navegadores da Web baixam as páginas, eles sabem como renderizar o HTML (converter o código em texto e gráficos para exibição na tela) e executar os miniaplicativos Java. Os servidores da Web são comumente programados em C, Java ou em uma linguagem chamada Perl (linguagem prática de extração e relatório), que foi desenvolvida em meados da década de 1980 por Larry Wall, um administrador de sistema de computador.

 

 

História do Computador

As idéias e invenções de muitos matemáticos, cientistas e engenheiros pavimentaram o caminho para o desenvolvimento do computador moderno. Em certo sentido, o computador na verdade tem três datas de nascimento – uma como dispositivo de computação mecânica, por volta de 500 aC, outra como conceito (1833) e a terceira como o moderno computador digital eletrônico (1946).

Dispositivos de cálculo

A primeira calculadora mecânica, um sistema de cordas e contas móveis chamado ábaco, foi criada na Babilônia por volta de 500 aC. O ábaco forneceu o método de cálculo mais rápido até 1642, quando o cientista francês Blaise Pascal inventou uma calculadora feita de rodas e engrenagens. Quando uma roda de unidades se movia uma volta (além de 10 entalhes), ela movia a roda de dezenas um entalhe; quando a roda das dezenas movia uma revolução, ela movia a roda das centenas um entalhe; e assim por diante. Muitos cientistas e inventores, incluindo Gottfried Wilhelm Leibniz, W.T. Odhner, Dorr E. Felt, Frank S. Baldwin e Jay R. Monroe, fizeram melhorias na calculadora mecânica de Pascal.

Além da máquina de adição

O conceito de computador moderno foi esboçado pela primeira vez em 1833 pelo matemático britânico Charles Babbage. Seu projeto de um “motor analítico” continha todos os elementos necessários de um computador moderno: dispositivos de entrada, um armazenamento (memória), um moinho (unidade de computação), uma unidade de controle e dispositivos de saída. O projeto exigia mais de 50.000 peças móveis em uma máquina movida a vapor do tamanho de uma locomotiva. A maioria de suas ações deveria ser executada por meio do uso de cartões perfurados – uma adaptação de um método que já estava sendo usado para controlar máquinas automáticas de tecelagem de seda chamadas teares Jacquard. Embora Babbage tenha trabalhado na máquina analítica por quase 40 anos, ele nunca concluiu a construção da máquina completa.

Herman Hollerith, um inventor americano, passou a década de 1880 desenvolvendo uma máquina de calcular que contava, agrupava e classificava as informações armazenadas em cartões perfurados. Quando os cartões eram colocados em sua máquina, eles pressionavam uma série de pinos de metal que correspondiam à rede de perfurações potenciais. Quando um pino encontrou um orifício (feito para representar idade, ocupação e assim por diante), ele completou um circuito elétrico e avançou a contagem para aquela categoria. Hollerith começou processando registros municipais e estaduais antes de receber o contrato para ajudar a classificar as informações estatísticas para o censo de 1890 dos Estados Unidos. Seu “tabulador” rapidamente demonstrou a eficiência da manipulação mecânica de dados. O censo anterior levou sete anos e meio para tabular à mão, mas, usando o tabulador, a contagem simples para o censo de 1890 levou apenas seis semanas, e uma análise em escala real de todos os dados levou apenas dois anos e meio .

Em 1896, Hollerith fundou a Tabulating Machine Company para produzir máquinas semelhantes. Em 1924, após várias fusões, a empresa mudou seu nome para International Business Machines Corporation (IBM). A IBM tornou as máquinas de cartão perfurado o sistema de informações de negócios dominante até o final dos anos 1960, quando uma nova geração de computadores tornou as máquinas de cartão perfurado obsoletas.

No final dos anos 1920 e 1930, vários novos tipos de calculadoras foram construídos. Vannevar Bush, um engenheiro americano, desenvolveu um computador analógico que chamou de analisador diferencial; foi a primeira calculadora capaz de resolver fórmulas matemáticas avançadas chamadas equações diferenciais. Embora vários tenham sido construídos e usados ​​em universidades, sua gama limitada de aplicações e falta de precisão inerente impediram uma adoção mais ampla.

 

Computadores Digitais Eletrônicos

De 1939 a 1942, os físicos americanos John V. Atanasoff e Clifford Berry construíram um computador baseado no sistema de numeração binária. Seu ABC (Atanasoff-Berry Computer) costuma ser creditado como o primeiro computador digital eletrônico. Atanasoff concluiu que os números binários eram mais adequados para computação do que os números decimais porque os dois dígitos 1 e 0 podiam ser facilmente representados por circuitos elétricos, que estavam ligados ou desligados. Além disso, George Boole, um matemático britânico, já havia desenvolvido um sistema completo de álgebra binária que poderia ser aplicado a circuitos de computador. A álgebra booleana, desenvolvida em 1848, preencheu a lacuna entre a matemática e a lógica ao simbolizar todas as informações como verdadeiras ou falsas.

O computador moderno surgiu de intensos esforços de pesquisa realizados durante a Segunda Guerra Mundial. Os militares precisavam de calculadoras balísticas mais rápidas, e os criptógrafos britânicos precisavam de máquinas para ajudar a quebrar os códigos secretos alemães.

Já em 1941, o inventor alemão Konrad Zuse produziu um computador operacional, o Z3, que foi usado no projeto de aeronaves e mísseis. O governo alemão recusou-se a ajudá-lo a refinar a máquina, entretanto, e o computador nunca atingiu todo o seu potencial. Os computadores de Zuse foram destruídos durante a Segunda Guerra Mundial, mas ele foi capaz de salvar um modelo parcialmente concluído, o Z4, cujos programas foram inseridos em um filme descartado de 35 milímetros.

O matemático de Harvard Howard Aiken dirigiu o desenvolvimento da Harvard-IBM Automatic Sequence Controlled Calculator, mais tarde conhecida como Harvard Mark I – um computador eletrônico que usava 3.304 relés eletromecânicos como interruptores liga-desliga. Concluída em 1944, sua função principal era criar tabelas de balística para tornar a artilharia da Marinha mais precisa.

A existência de um dos primeiros computadores eletrônicos digitais foi mantida tão secreta que não foi revelada até décadas depois de ter sido construída. Colossus era uma das máquinas que os criptógrafos britânicos usavam para quebrar os códigos militares secretos alemães. Foi desenvolvido por uma equipe liderada pelo engenheiro britânico Tommy Flowers, que completou a construção do primeiro Colossus no final de 1943. As mensagens eram codificadas como símbolos em fitas de papel, que o computador de 1.500 tubos lia a cerca de 5.000 caracteres por segundo.

A distinção como o primeiro computador eletrônico de uso geral apropriadamente pertence ao ENIAC (Integrador Numérico Eletrônico e Computador). Projetado por dois engenheiros americanos, John W. Mauchly e J. Presper Eckert, Jr., o ENIAC entrou em serviço na Universidade da Pensilvânia em 1946. Sua construção foi um enorme feito de engenharia – a máquina de 30 toneladas tinha 5,5 metros) de altura e 80 pés (24 metros) de comprimento e continha 17.468 tubos de vácuo ligados por 500 milhas (800 quilômetros) de fiação. ENIAC realizou cerca de 5.000 adições por segundo. Seu primeiro teste operacional incluiu cálculos que ajudaram a determinar a viabilidade da bomba de hidrogênio.

 

Para alterar as instruções ou programa do ENIAC, os engenheiros tiveram que religar a máquina, um processo que pode levar vários dias. Os próximos computadores foram construídos de forma que os programas pudessem ser armazenados na memória interna e pudessem ser facilmente alterados para adaptar o computador a diferentes tarefas. Esses computadores seguiram as descrições teóricas do computador “universal” ideal (de uso geral) esboçado primeiro pelo matemático inglês Alan Turing e mais tarde refinado por John von Neumann, um matemático nascido na Hungria.

A invenção do transistor em 1947 trouxe uma revolução no desenvolvimento do computador. Tubos de vácuo quentes e pouco confiáveis ​​foram substituídos por pequenos transistores de germânio (mais tarde silício) que geravam pouco calor, mas funcionavam perfeitamente como interruptores ou amplificadores.

O avanço na miniaturização de computadores veio em 1958, quando Jack Kilby, um engenheiro americano, projetou o primeiro circuito integrado verdadeiro. Seu protótipo consistia em um wafer de germânio que incluía transistores, resistores e capacitores – os principais componentes do circuito eletrônico. Usando chips de silício menos caros, os engenheiros conseguiram colocar mais e mais componentes eletrônicos em cada chip. O desenvolvimento da integração em grande escala (LSI) tornou possível empilhar centenas de componentes em um chip; a integração em grande escala (VLSI) aumentou esse número para centenas de milhares; e as técnicas de integração em escala ultra grande (ULSI) aumentaram ainda mais esse número para muitos milhões ou mais componentes em um microchip do tamanho de uma unha.

Outra revolução na tecnologia de microchip ocorreu em 1971, quando o engenheiro americano Marcian E. Hoff combinou os elementos básicos de um computador em um minúsculo chip de silício, que ele chamou de microprocessador. Este microprocessador – o Intel 4004 – e as centenas de variações que se seguiram são os computadores dedicados que operam milhares de produtos modernos e formam o coração de quase todos os computadores eletrônicos de uso geral

 

Mainframes, supercomputadores e minicomputadores

A IBM introduziu a família de computadores System/360 em 1964 e depois dominou a computação de mainframe durante a década seguinte para aplicações comerciais, científicas e militares em grande escala. O System/360 e seu sucessor, o System/370, eram uma série de modelos de computador de potência crescente que compartilhavam uma arquitetura comum para que programas escritos para um modelo pudessem rodar em outro.

Também em 1964, a Control Data Corporation apresentou o computador CDC 6600, que foi o primeiro supercomputador. Era popular entre laboratórios de armas, organizações de pesquisa e agências governamentais que exigiam alto desempenho. Os fabricantes de supercomputadores de hoje incluem IBM, Hewlett-Packard, NEC, Hitachi e Fujitsu.

No final dos anos 1950, a Digital Equipment Corporation (DEC) construiu uma série de computadores menores que chamou de minicomputadores. Eles eram menos poderosos do que os mainframes, mas eram baratos o suficiente para que as empresas pudessem comprá-los em vez de alugá-los. O primeiro modelo de sucesso foi o PDP-8 lançado em 1965. Ele usava um dispositivo semelhante a uma máquina de escrever chamado Teletipo para inserir e editar programas e dados. Em 1970, a DEC entregou seu minicomputador PDP-11 e, no final dos anos 1970, lançou sua linha de computadores VAX. Na década seguinte, os computadores VAX foram populares como computadores departamentais em muitas empresas, organizações e universidades. No final do século 20, no entanto, o papel dos minicomputadores havia sido assumido principalmente por PCs e estações de trabalho.

 

A revolução do PC

Em meados da década de 1970, os microchips e microprocessadores reduziram drasticamente o custo dos milhares de componentes eletrônicos necessários a um computador. O primeiro computador de mesa acessível projetado especificamente para uso pessoal foi chamado de Altair 8800 e foi vendido pela Micro Instrumentation Telemetry Systems em 1974. Em 1977, a Tandy Corporation se tornou a primeira grande empresa de eletrônicos a produzir um computador pessoal. Eles adicionaram um teclado e um monitor ao computador e ofereceram um meio de armazenar programas em um gravador de fita cassete.

Logo depois, o empresário Steven Jobs e Stephen Wozniak, seu sócio engenheiro, fundaram uma pequena empresa chamada Apple Computer, Inc. Eles lançaram o computador Apple II em 1977. Seu monitor suportava gráficos coloridos de qualidade relativamente alta e tinha um disquete dirigir. A máquina inicialmente era popular para rodar videogames. Em 1979, Daniel Bricklin escreveu um programa de planilha eletrônica chamado VisiCalc que rodava no Apple II. De repente, as empresas tiveram um motivo legítimo para comprar computadores pessoais, e a era da computação pessoal começou para valer.

A BM lançou seu computador pessoal (PC) em 1981. Como resultado da competição dos fabricantes de clones (computadores que funcionavam exatamente como um IBM PC), o preço dos computadores pessoais caiu drasticamente. Na década de 1990, os computadores pessoais eram muito mais poderosos do que as máquinas multimilionárias dos anos 1950. Em rápida sucessão, os computadores encolheram da mesa para o laptop e, finalmente, do tamanho da palma da mão.

 

 

A Fronteira do Computador

À medida que os computadores pessoais se tornaram mais rápidos e poderosos no final da década de 1980, os desenvolvedores de software descobriram que eram capazes de escrever programas tão grandes e sofisticados quanto os que antes eram executados apenas em mainframes. Os gigantescos simuladores de voo de um milhão de dólares nos quais os pilotos militares e comerciais treinados foram as primeiras simulações do mundo real a serem movidas para o computador pessoal. O aumento da velocidade e da potência dos computadores mainframe permitiu que os cientistas e engenheiros da computação resolvessem problemas que nunca foram tentados antes usando computadores.

Realidade virtual

Os simuladores de vôo são exemplos perfeitos de programas que criam uma realidade virtual, ou uma “realidade” gerada por computador na qual o usuário não apenas assiste, mas pode participar. O usuário fornece entrada para o sistema pressionando botões ou movendo um manche ou joystick, e o computador usa dados do mundo real para determinar os resultados dessas ações. Por exemplo, se o usuário puxar o manche do simulador de voo, o computador traduz a ação de acordo com as regras integradas derivadas do desempenho de um avião real. O monitor mostra exatamente o que a tela de visualização de um avião mostraria quando ele começasse a subir. Se o usuário continuar a instruir o “avião virtual” a subir sem aumentar o acelerador, ele irá “estolar” (como faria um avião real) e o “piloto” perderá o controle. Assim, as ações físicas do usuário são refletidas imediata e realisticamente na tela do computador.

Os programas de realidade virtual oferecem aos usuários três recursos essenciais – imersão, navegação e manipulação. Para que a realidade alternativa seja eficaz, as pessoas devem se sentir imersas nela, não apenas como se a estivessem vendo em uma tela. Para esse fim, alguns programas exigem que as pessoas usem fones de ouvido ou óculos 3-D ou controladores especiais ou pedais. O meio mais sofisticado de imergir os usuários em um programa de realidade virtual é através do uso de monitores tipo head-mounted, capacetes que transmitem imagens ligeiramente diferentes para ambos os olhos e que movem a imagem do computador na direção em que o usuário move sua cabeça.

Os programas de realidade virtual também criam um mundo através do qual se pode navegar de forma tão “realista” quanto no mundo real. Por exemplo, uma cena de rua sempre mostrará as mesmas portas e janelas, que, embora sua perspectiva possa mudar, são sempre absolutamente consistentes internamente. O aspecto mais importante de um programa de realidade virtual é sua capacidade de permitir que as pessoas manipulem objetos naquele mundo. Pressionar um botão pode disparar uma arma, segurar uma tecla pode aumentar a velocidade de um avião, clicar com o mouse pode abrir uma porta ou pressionar as teclas de seta pode girar um objeto.

Multimídia

No início da década de 1990, os fabricantes começaram a produzir unidades de CD-ROM de baixo custo que podiam acessar mais de 650 MB de dados de um único disco. Este desenvolvimento iniciou uma revolução multimídia. O termo multimídia se refere à capacidade de um computador de incorporar vídeo, fotografias, música, animações, gráficos e assim por diante junto com o texto. O aparecimento posterior de CDs e DVDs graváveis, que podem armazenar quantidades ainda maiores de dados, como um filme de longa-metragem inteiro em um disco, aumentou ainda mais os recursos de multimídia para os PCs.

Os clipes de áudio e vídeo requerem uma enorme quantidade de espaço de armazenamento e, por isso, até a década de 1990, os programas não podiam usar nada além das animações e sons mais rudimentares. Os disquetes e os discos rígidos eram pequenos demais para acomodar as centenas de megabytes de dados necessários.

Computadores mais rápidos e a rápida proliferação de programas multimídia mudaram a maneira como muitas pessoas obtêm informações. Ao usar links de hipertexto de maneira semelhante à forma como são usados ​​nas páginas da Web, o material pode ser apresentado para que os usuários possam lê-lo de uma maneira tipicamente humana, por associação. Por exemplo, ao ler sobre o discurso de Gettysburg de Abraham Lincoln, os usuários podem querer aprender sobre a Batalha de Gettysburg. Eles podem precisar apenas clicar no link destacado “Batalha de Gettysburg” para acessar o texto, as fotografias e os mapas apropriados. “Pennsylvania” pode estar a outro clique de distância e assim por diante. A ampla gama de aplicativos para multimídia, de enciclopédias e programas educacionais a jogos interativos usando filmagens e filmes com roteiro, biografias de atores, notas do diretor e críticas, torna-o um dos campos mais emocionantes e criativos da computação

A Internet

O advento da Internet e da World Wide Web causou uma revolução na disponibilidade de informações não vista desde a invenção da imprensa escrita. Essa revolução mudou a maneira como muitas pessoas acessam informações e se comunicam. Muitas pessoas compram computadores domésticos para que possam acessar a Web na privacidade de suas casas.

Organizações que possuem grandes quantidades de informações impressas, como grandes bibliotecas, universidades e institutos de pesquisa, estão trabalhando para transferir suas informações para bancos de dados. Uma vez no computador, as informações são categorizadas e indexadas. Quando o banco de dados é colocado em um servidor da Web, os usuários podem acessar e pesquisar as informações usando a Web, gratuitamente ou mediante o pagamento de uma taxa.

A Internet fornece acesso a informações instantâneas ao vivo de uma variedade de fontes. Pessoas com câmeras digitais podem registrar eventos, enviar as imagens para um servidor da Web e permitir que pessoas em qualquer lugar do mundo vejam as imagens assim que elas são gravadas. Muitas das principais organizações de coleta de notícias aumentaram o uso da Web para divulgar suas histórias. Fontes e organizações de notícias menores e independentes, que podem não ter recursos para transmitir ou publicar em outra mídia, oferecem cobertura alternativa de eventos na web.

Pessoas em todo o mundo podem usar a Internet para se comunicarem, como por meio de e-mail, páginas pessoais da Web, sites de redes sociais ou “salas de bate-papo” da Internet, onde os indivíduos podem digitar mensagens para manter conversas ao vivo. O potencial para compartilhar informações e opiniões é quase ilimitado.

Inteligência artificial e sistemas especialistas

A definição padrão de inteligência artificial é “a capacidade de um robô ou computador de imitar as ações ou habilidades humanas, como resolução de problemas, tomada de decisão, aprendizado, raciocínio e autoaperfeiçoamento”. Os computadores de hoje podem duplicar alguns aspectos da inteligência. Por exemplo, eles podem realizar tarefas direcionadas a objetivos (como encontrar a solução mais eficiente para um problema complexo) e seu desempenho pode melhorar com a experiência (como em computadores que jogam xadrez). No entanto, o programador escolhe a meta, estabelece o método de operação, fornece os dados brutos e coloca o processo em movimento. Os computadores não são em si inteligentes.

É amplamente aceito que a inteligência humana tem três componentes principais: (1) consciência, (2) a capacidade de classificar o conhecimento e retê-lo e (3) a capacidade de fazer escolhas com base nas memórias acumuladas. Sistemas especialistas, ou computadores que imitam os processos de tomada de decisão de especialistas humanos, já existem e executam com competência o segundo e o terceiro aspectos da inteligência. O INTERNIST, por exemplo, foi um dos primeiros sistemas de computador projetados para diagnosticar doenças com uma precisão que rivaliza com a dos médicos humanos. PROSPECTOR é um sistema especialista desenvolvido para auxiliar os geólogos na busca por novos depósitos minerais. Usando informações obtidas em mapas, levantamentos e perguntas que faz aos geólogos, o PROSPECTOR prevê a localização de novos depósitos.

À medida que os computadores ficam mais rápidos, os engenheiros desenvolvem novos métodos de processamento paralelo (nos quais vários processadores trabalham simultaneamente em um problema) e, à medida que os vastos sistemas de memória são aperfeiçoados, a consciência – a etapa final para a inteligência – não é mais inconcebível. Alan Turing criou o teste mais famoso para avaliar a inteligência do computador. O “teste de Turing” é uma sessão de interrogatório em que um humano faz perguntas a duas entidades, A e B, que ele ou ela não pode ver. Uma entidade é humana e a outra é um computador. O interrogador deve decidir, com base nas respostas, qual é o humano e qual é o computador. Se o computador se disfarça com sucesso como humano – e ele e o humano podem mentir durante o questionamento – então o computador provou ser inteligente.

O Futuro dos Computadores

A pesquisa e o desenvolvimento no mundo dos computadores seguem simultaneamente dois caminhos – em hardware e software. O trabalho em cada área influencia o outro.

Muitos sistemas de hardware estão atingindo limitações naturais. Os chips de memória que podiam armazenar 512 Mb estavam em uso no início do século 21, mas o circuito de conexão era tão estreito que sua largura teve que ser medida em átomos. Esses circuitos são suscetíveis a mudanças de temperatura e à radiação dispersa na atmosfera, o que pode fazer com que um programa falhe (falhe) ou perca dados. Os microprocessadores mais novos têm tantos milhões de interruptores gravados neles que o calor que geram se tornou um problema sério.

Por essas e outras razões, muitos pesquisadores acham que o futuro do hardware de computador pode não estar em uma maior miniaturização, mas em novas arquiteturas radicais ou projetos de computador. Por exemplo, quase todos os computadores de hoje processam informações em série, um elemento de cada vez. Computadores maciçamente paralelos – consistindo de centenas de microchips pequenos, simples, mas estruturalmente ligados – dividem as tarefas em suas menores unidades e atribuem cada unidade a um processador separado. Com muitos processadores trabalhando simultaneamente em uma determinada tarefa, o problema pode ser resolvido muito mais rapidamente.

Um grande avanço tecnológico foi feito em 2003 pela Sun Microsystems, Inc. Enquanto o circuito integrado permitiu que milhões de transistores fossem combinados em um processo de fabricação em um chip de silício, a Sun deu o próximo passo para a integração em escala wafer. Em vez de produzir centenas de microprocessadores em cada wafer de silício, cortá-los em chips separados e anexá-los a uma placa de circuito, a Sun descobriu como fabricar diferentes chips de ponta a ponta em um único wafer. Quando introduzido na fabricação em grande escala, esse processo promete eliminar as placas de circuito, acelerar a transferência de dados entre diferentes elementos em cem vezes e reduzir substancialmente o tamanho do hardware do computador.

Duas direções exóticas de pesquisa de computador envolvem o uso de material genético biológico e os princípios da mecânica quântica. Na computação de DNA, milhões de fios de DNA são usados ​​para testar possíveis soluções para um problema, com vários métodos químicos usados ​​para gradativamente eliminar falsas soluções. Demonstrações sobre como encontrar os horários de roteamento mais eficientes já se mostraram muito promissores; técnicas de laboratório mais eficientes precisam ser desenvolvidas, no entanto, antes que a computação de DNA se torne prática.

A computação quântica se baseia na estranha propriedade de “superposição” na qual as partículas subatômicas, chamadas qubits (bits quânticos), não têm estados claramente definidos. Como cada partícula pode estar em um dos dois estados de spin, ou em ambos, os cálculos podem ser feitos simultaneamente para ambos os estados. Isso pode não parecer uma grande melhoria, mas apenas quatro qubits com dois estados cada leva a 16 configurações diferentes (24). Se um sistema de 30 qubits pudesse ser protegido de interferências externas (decoerência), ele teria um desempenho tão rápido quanto um supercomputador digital realizando 10 trilhões de um certo tipo de operação por segundo (10 teraflops).

Várias centenas de milhares de robôs controlados por computador atualmente trabalham em linhas de montagem industrial no Japão e nos Estados Unidos. Eles consistem em quatro elementos principais: sensores (para determinar a posição ou ambiente), efetores (ferramentas para realizar uma ação), sistemas de controle (um computador digital e sensores de feedback) e um sistema de energia. Os robôs também têm sido usados ​​em explorações científicas perigosas demais para serem executadas por humanos, como descer até vulcões ativos, coletar dados em outros planetas e explorar sítios nucleares nos quais ocorreu vazamento de radiação. À medida que os computadores se tornam mais eficientes e os programas de inteligência artificial se tornam mais sofisticados, os robôs serão capazes de realizar tarefas mais difíceis e mais humanas.

Por mais empolgantes que sejam todos os desenvolvimentos de hardware, eles dependem de software bem concebido e bem escrito. O software controla o hardware e forma uma interface entre o computador e o usuário. O software está se tornando cada vez mais amigável (fácil de usar por usuários de computador não profissionais) e inteligente (capaz de se adaptar aos hábitos pessoais de um usuário específico). Alguns programas de processamento de texto aprendem o estilo de escrita do usuário e oferecem sugestões; alguns programas de jogo aprendem com a experiência e se tornam oponentes mais difíceis quanto mais são jogados. Os programas futuros prometem se adaptar à personalidade e aos hábitos de trabalho de seus usuários, de modo que o termo computação pessoal adquira um significado totalmente novo.

A própria programação está se tornando mais avançada. Embora alguns tipos de programação exijam um conhecimento ainda maior, mais e mais pessoas com pouca ou nenhuma experiência tradicional em programação de computadores podem fazer outras formas de programação. A tecnologia de programação orientada a objetos, em conjunto com interfaces gráficas de usuário, permitirá que futuros usuários controlem todos os aspectos do hardware e software do computador simplesmente movendo e manipulando ícones gráficos exibidos na tela.

Outra abordagem à programação é chamada de computação evolucionária, por seu uso de código de computador que produz e avalia automaticamente “gerações” sucessivas de um programa. Segmentos curtos de código de computador, chamados de algoritmos, são semeados em um ambiente artificial onde competem. Em intervalos regulares, os algoritmos considerados melhores de acordo com os critérios fornecidos pelo usuário são coletados, possivelmente “mutados” e “reproduzidos”. Ao longo de milhares, ou mesmo milhões, de gerações de computadores, programas de computador altamente eficientes foram produzidos. Até o momento, a necessidade de elaborar critérios de “sobrevivência” para os algoritmos genéticos tem limitado o uso dessa técnica à pesquisa acadêmica.

 

Obrigado por gastar seu tempo lendo este artigo. Compartilhe se você gostou!

 

 

 

Visits: 1 Visits: 1200524