IFBA: Instituto Federal de Educação Ciência e Tecnologia da Bahia
Curso: Licenciatura em Computação
Discentes: Adriano Miranda, Adriana Souza, Anderson Aguiar, Luís Cláudio Oliveira e Raian Santos
Docente: Matuzalém Guimarães
Equipe: 03
Assunto Abordado: A Evolução dos Processadores e o processador AMD K6-3 (Características e Funcionamento.

Evolução dos Processadores

Introdução

O processador é o cérebro do micro, encarregado de processar a maior parte das informações. Ele é também o componente onde são usadas as tecnologias de fabricação mais recentes. Existem no mundo(atualmente) apenas quatro grandes empresas com tecnologia para fabricar processadores competitivos para micros PC: a Intel (que domina mais de 60% do mercado), a AMD (que disputa diretamente com a Intel), a VIA (que fabrica os chips Via C3 e C7, embora em pequenas quantidades) e a IBM, que esporadicamente fabrica processadores para outras empresas, como a Transmeta.

A definição técnica para processadores é a seguinte :“É um circuito integrado de controle das funções de cálculos e tomadas de decisões de um computador, por isso é considerado o cérebro do mesmo. Ele faz parte de um importante elemento do computador, a Unidade Central de Processamento (em inglês CPU: Central Processing Unit). Hoje todos os circuitos e chips dispostos em diversas placas que compunham a Unidade Central de Processamento estão integrados no microprocessador.”



A Arquitetura de von Neumann (de John von Neumann)

É uma arquitetura de computador que se caracteriza pela possibilidade de uma máquina digital armazenar seus programas no mesmo espaço de memória que os dados, podendo assim manipular tais programas.
A máquina proposta por Von Neumann reúne os seguintes componentes: (i) uma memória, (ii) uma unidade aritmética e lógica (ALU), (iii) uma unidade central de processamento (CPU), composta por diversos registradores, e (iv) uma Unidade de Controle (CU), cuja função é a mesma da tabela de controle da Máquina de Turing universal: buscar um programa na memória, instrução por instrução, e executá-lo sobre os dados de entrada.

Cada um dos elementos apresentados é realizado à custa de componentes físicos independentes, cuja implementação tem variado ao longo do tempo, consoante a evolução das tecnologias de fabricação, desde os relés electromagnéticos, os tubos de vácuo (ou válvulas), até aos semicondutores, abrangendo os transistores e os circuitos eletrônicos integrados, com média, alta ou muito alta densidade de integração (MSI - medium scale, LSI - large scale, ou VLSI - very large scale integration), medida em termos de milhões transistores por pastilha de silício.

As interações entre os elementos exibem tempos típicos que também têm variado ao longo do tempo, consoante as tecnologias de fabricação. Atualmente, as CPUs processam instruções sob controlo de relógios cujos períodos típicos são da ordem de 1 nanosegundo, ou seja, 10 − 9 segundos. As memórias centrais têm tempos típicos de acesso da ordem da dezena de nanosegundos. As unidades de entrada e saída exibem tempos típicos extremamente variáveis, mas que são tipicamente muito superiores à escala do nanosegundo. Por exemplo, os discos rígidos exibem tempos da ordem dos milissegundos (milésimo de segundo, 10 − 3). Outros dispositivos periféricos são inertes, a não ser que sejam ativados por utilizadores humanos. Por exemplo, ao se fazer "copy and paste" nao se-percebe nada do que foi descrito acima, pois um teclado só envia informação para o computador após serem pressionada as devidas teclas. Assim, este dispositivo se comunica com a CPU eventualmente e, portanto, exibe tempos indeterminados. Na figura abaixo, temos um diagrama da arquitetura de Neumann:




Clock e Hertz 

Clock é um circuito oscilador que tem a função de sincronizar e ditar a medida de velocidade de transferência de dados no computador, por exemplo, internamente ou externamente (barramento). Esta frequência é medida em ciclos por segundo, ou Hertz. A velocidade do processador está relacionada não exclusivamente ao clock, mas sim a instruções por ciclos deste clock. Qualquer alteração realizada de forma a fazer com que o processador trabalhe acima de sua capacidade normal de trabalho, para o qual foi projetado, é denominada Overclocking.


  •       Funcionamento
É um pequeno cristal de quartzo que fica na placa mãe, tem exatamente a mesma função: marcar o tempo. Para que o computador funcione, tudo tem que funcionar de maneira sincronizada, como uma orquestra. Cada vez que é gerado um pulso de clock, todos os dispositivos realizam uma operação, param e continuam o que estiverem fazendo no próximo ciclo. Como num cruzamento, onde os carros trafegam hora num sentido, hora no outro, orientados pelo farol.

O cristal vibra numa frequência de 4,77 MHz. Esta frequência é multiplicada pela placa mãe para gerar os 66 ou 100 MHz do barramento. Outros dispositivos podem dividir ou multiplicar a frequência da placa mãe: o barramento PCI por exemplo funciona a 33 MHz, caso a placa mãe esteja funcionando a 66 MHz, então a frequência será dividida por 2, ou seja, para cada 2 ciclos da placa mãe será gerado um ciclo do barramento PCI. Se a placa estiver funcionando a 100 MHz então a frequência será dividida por 3. O processador multiplica a frequência da placa mãe. Um Pentium II de 400 MHz por exemplo multiplica por 4 a frequência de 100 MHz da placa mãe, gerando 4 ciclos para cada ciclo da placa. Um 200 MMX multiplica por 3 a frequência de 66 MHz gerada pela placa mãe e assim por diante.

  • Clock interno e externo

Clock interno: o clock interno indica a frequência na qual o processador trabalha. Portanto, num Pentium 4 de 2,8 GHz, o “2,8 GHz” indica o clock interno. Este geralmente é obtido através de um multiplicador do clock externo. Por exemplo, se o clock externo for de 66 MHz, o multiplicador terá de ser de 3x para fazer com o que processador funcione a 200 MHz (66 x 3).

Clock externo: também conhecido como FSB (Front Side Bus), o clock externo, por sua vez, é o que indica a freqüência de trabalho do barramento (conhecido como barramento externo) de comunicação com a placa-mãe (na verdade, chipset, memória, etc). Por exemplo, o processador AMD Sempron 2200+ trabalha com clock externo de 333 MHz.

 
Arquitetura Externa de um processador (Barramento de Dados, Barramento de endereços, Barramento de Controle)


Para que o computador possa oferecer recursos e possibilidades diversas de uso ao usuário, é necessário a utilização de dispositivos adicionais, como placas de vídeo e de som, modem, disco rígido, teclado, etc. Estes componentes são conhecidos como Dispositivos de Entrada (teclado e mouse, por exemplo) e Saída (placa de vídeo e som, por exemplo). Em inglês, utiliza-se a sigla I/O, de Input/Output.
Para que o processador possa trabalhar com esses dispositivos, ele usa um barramento para se comunicar. Assim é possível que o processador envie informações (por exemplo, os dados para uma impressora, quando você pede para imprimir um arquivo) e receba (por exemplo, quando você digita algo no teclado). Esse barramento é conhecido como “barramento de dados” (ou data bus).
No entanto, quando o processador trabalha com a memória, ele faz uso de um “barramento de endereços” (também chamado de “clock externo”), pois através de um “endereço” é que o processador localizará os dados que precisa e que estão armazenados na memória do computador. É também por este barramento que o processador consegue determinar para qual dispositivo serão enviados os dados tratados. Seu valor é medido em Hz.
A grande maioria dos processadores, possui terminais ou pinos de contato (vulgarmente chamados de “perninhas”). Cada um destes pinos possui uma função e trabalha com 1 bit por vez. Assim, quando se diz que o barramento de dados trabalha a 16 bits, isso quer dizer que, pelo menos teoricamente, o processador destina 16 “perninhas” para esta função. A mesma regra vale para o barramento de endereços, ou seja, este também trabalha com uma certa quantidade de pinos, correspondentes à quantidade de bits.

Arquitetura Interna de um processador


  • Unidade lógica e aritmética(ULA): ou em inglês Arithmetic Logic Unit (ALU) é a unidade do processador (Central Processing Unit, ou simplesmente CPU), que realmente executa as operações aritméticas e lógicas referenciadas pelos opcodes.Registrador de uma unidade central de processamento é um tipo de memória de pequena capacidade porém muito rápida, contida no CPU, utilizada no armazenamento temporário durante o processamento. Os registradores estão no topo da hierarquia de memória, sendo assim são o meio mais rápido e caro de se armazenar um dado. Em vez de trabalhar diretamente com duas entradas simultaneamente, os microprocessadores modernos trabalham uma de cada vez. O primeiro padrão de entrada é carregado para uma área especial denominada registrador. Um registrador funciona tanto como memória quanto área de trabalho. Ele armazena as seqüências de bits até que possam ser trabalhadas ou até que haja uma saída. O registrador também é conectado aos circuitos de processamento do microprocessador de modo que as alterações solicitadas pelas instruções possam aparecer no registrador. A maioria dos microprocessadores normalmente tem vários registradores, alguns dedicados a funções especiais (por exemplo, memorizar qual etapa de uma função o chip está realizando no momento) e alguns com funções gerais. Outras instruções do microprocessador fazem com que o chip transfira números para seus registradores, a fim de serem processados mais tarde, ou com que ele transporte informações de um registrador para outro local - por exemplo, para a memória ou para uma porta de saída. Algumas instruções requerem a execução de uma série de etapas." [ROS 9?]

    É na verdade, uma "grande calculadora eletrônica" do tipo desenvolvido durante a II Guerra Mundial, e sua tecnologia já estava disponível quando os primeiros computadores modernos foram construídos.
    O matemático John von Neumann propôs o conceito de ULA em 1945, quando escreveu um relatório sobre os fundamentos para um novo computador chamado EDVAC.
    A tecnologia utilizada foi inicialmente relés, herança da telefonia, e posteriormente válvulas, herança da radiofonia. Com o aparecimento dos transistores, e depois dos circuitos integrados, os circuitos da unidade aritmética e lógica passaram a ser implementados com a tecnologia de semi-condutores.
    A ULA executa as principais operações lógicas e aritméticas do computador. Ela soma, subtrai, divide, determina se um número é positivo ou negativo ou se é zero. Além de executar funções aritméticas, uma ULA deve ser capaz de determinar se uma quantidade é menor ou maior que outra e quando quantidades são iguais. A ULA pode executar funções lógicas com letras e com números.

    Resumindo...



    -A ULA executa operações aritméticas comuns.
    -Também toma decisões lógicas, resolvendo sintaxes lógicas em uma programação.
    

Um símbolo esquemático típico para uma ULA, onde "A" e "B" são operandos, "R" é a saída, "F" é a entrada da unidade de controle e "D" é a saída de status
Registradores

Tudo o que o microprocessador faz é executar uma série dessas instruções individuais. A simples subtração ou soma de dois números pode exigir dezenas de etapas.
O número de registradores internos é uma indicação de quantas informações o processador pode operar ao mesmo tempo, ou de uma só vez. Os processadores de hoje usam pelo menos 32 bits de registradores internos.

"Alguns processadores tem um barramento interno de dados (feito nos caminhos dos dados e unidades de armazenamento que chamamos de registradores internos), que é diferente do barramento de dados externo. Os chips 8088 e 386SX são exemplos dessa diferença, onde o barramento de dados interno é o dobro da largura do externo. Estes chips foram desenvolvidos assim a fim de baratear o custo do processador. Só que compromete o desempenho geral do sistema. Isto é, no caso do 386SX, ele trabalha internamente com 32 bits, e externamente com 16 bits. Já o 386DX, trabalha interna e externamente com 32 bits." [ROS 9?]
"Os registradores internos são freqüentemente mais largos que o barramento de dados, o que significa que o chip requer dois ciclos para preencher um registrador antes deste registrador poder operar totalmente. O 386DX consegue preencher um registrador em um único ciclo de processamento, enquanto que o 386SX necessita de pelo menos dois ciclos de processamento para tal. O mesmo ocorre quando envia dados para o barramento." [ROS 9?]

Com o Pentium, é um caso de situação oposta. O chip tem um barramento de dados de 64 bits, mas somente registradores de 32 bits. Porém, o Pentium possui dois canais (pipeline) para processar informação, que são de 32 bits, e juntos, formam 64 bits. Em outra forma de análise, o Pentium é como se fosse dois chips de 32 bits em um. Com 64 bits de barramento, há um preenchimento muito eficiente dos registradores.

Lei de Moore X Produção


Inicialmente a lei de Moore não passava de uma observação, mas acabou por tornar-se um objetivo para as indústrias de semicondutores, fazendo as mesmas desprenderem muitos recursos para poder alcançar as previsões de Moore no nível de desempenho e isso que torna a lei de Moore realmente importante, pois sem ela, talvez não tivéssemos um desenvolvimento tão acelerado em nível de hardware e com custos cada vez mais acessíveis.

Segunda lei de Moore

A indústria de semicondutores teve de investir em Pesquisa e desenvolvimento, e testes dos novos chips fazendo com que houvesse a formulação de uma “segunda lei de Moore” onde era previsto um aumento no custo dos chips seguindo o aumento do desempenho haja vista que a industria de chips depende diretamente do custo de commodities como petróleo. Atualmente o custo final do desenvolvimento dos chips de 65nM excede US$3.000.000.

Curiosidades

Em Abril de 2005, a Intel ofertou dez mil dólares para quem vendesse a cópia original da Electronics Magazine onde Moore havia feito sua citação. David Clark, um engenheiro residente no Reino Unido, foi o primeiro a encontrar uma cópia e oferecê-la a Intel.

 Fim da lei de Moore

Segundo Carl Anderson, pesquisador da área de concepção de computadores da IBM, a Lei de Moore pode estar chegando ao fim. Entre os motivos para que Anderson faça tal previsão está o fato de que os engenheiros estão desenvolvendo sistemas que exigem menos recursos do processador e os custos para pesquisas de novos processadores estão cada vez mais altos.

 


Crescimento do número de transistores para processadores Intel (pontos) e Lei de Moore (Linha de cima=18 meses, linha de baixo=24 meses)