Sei sulla pagina 1di 58

Transístor

Origem: Wikipédia, a enciclopédia livre.


(Redirecionado de Transistor)
Ir para: navegação, pesquisa
Esta página ou secção não cita nenhuma fonte ou
referência, o que compromete sua credibilidade. (desde
junho de 2009).
Por favor, melhore este artigo providenciando fontes
fiáveis e independentes, inserindo-as no corpo do texto
por meio de notas de rodapé. Encontre fontes: Google —
notícias, livros, acadêmico — Scirus

Transistores com diferentes encapsulamentos. À esquerda um transistor de sinal em


encapsulamento TO-92. À direita um transistor de alta potência em encapsulamento
metálico TO-3.

O transistor é um componente eletrônico que começou a popularizar-se na década de


1950, tendo sido o principal responsável pela revolução da eletrônica na década de
1960. São utilizados principalmente como amplificadores e interruptores de sinais
elétricos. O termo vem de transfer resistor (resistor/resistência de transferência), como
era conhecido pelos seus inventores.

O processo de transferência de resistência, no caso de um circuito analógico, significa


que a impedância característica do componente varia para cima ou para baixo da
polarização pré-estabelecida. Graças a esta função, a corrente elétrica que passa entre
coletor e emissor do transistor varia dentro de determinados parâmetros pré-
estabelecidos pelo projetista do circuito eletrônico. Esta variação é feita através da
variação de corrente num dos terminais chamados base, o que, consequentemente,
ocasiona o processo de amplificação de sinal.

Entende-se por "amplificar" o procedimento de tornar um sinal elétrico mais fraco num
mais forte. Um sinal elétrico de baixa intensidade, como os sinais gerados por um
microfone, é injetado num circuito eletrônico (transistorizado por exemplo), cuja função
principal é transformar este sinal fraco gerado pelo microfone em sinais elétricos com as
mesmas características, mas com potência suficiente para excitar os alto-falantes. A este
processo todo dá-se o nome de ganho de sinal.

Índice
[esconder]

• 1 Invenção
• 2 Alguns números
• 3 Importância
• 4 Fabricação
• 5 Funcionamento
• 6 Características de um transistor
• 7 Referências

• 8 Ver também

[editar] Invenção
O transistor de silicio e germanio foi inventado nos Laboratórios da Bell Telephone por
Bardeen e Brattain em 1947 e, inicialmente, demonstrado em 23 de Dezembro de 1948,
por John Bardeen, Walter Houser Brattain e William Bradford Shockley, que foram
laureados com o Nobel de Física em 1956. Ironicamente, eles pretendiam fabricar um
transistor de efeito de campo (FET) idealizado por Julius Edgar Lilienfeld antes de
1925, mas acabaram por descobrir uma amplificação da corrente no ponto de contato do
transistor. Isto evoluiu posteriormente para converter-se no transistor de junção bipolar
(BJT). O objetivo do projeto era criar um dispositivo compacto e barato para substituir
as válvulas termoiônicas usadas nos sistemas telefônicos da época.

Os transistores bipolares passaram, então, a ser incorporados a diversas aplicações, tais


como aparelhos auditivos, seguidos rapidamente por rádios transistorizados. Mas a
indústria norte-americana não adotou imediatamente o transistor nos equipamentos
eletrônicos de consumo, preferindo continuar a usar as válvulas termoiônicas, cuja
tecnologia era amplamente dominada. Foi por meio de produtos japoneses, notadamente
os rádios portáteis fabricados pela Sony, que o transistor passou a ser adotado em escala
mundial.

Nessa época, o MOSFET (Metal Oxide Silicon Field Effect Transistor – Transistor de
Efeito de Campo formado por Metal, Óxido e Silício) ficou em segundo plano, quase
esquecido. Problemas de interface inviabilizavam a construção dos MOSFETs.
Contudo, em 1959, Atalla e Kahng, da Bell Labs, fabricaram e conseguiram a operação
de um transistor MOS. Nessa época, os transistores MOS eram tidos como curiosidade,
devido ao desempenho bastante inferior aos bipolares.

A grande vantagem dos transistores em relação às válvulas foi demonstrada em 1958,


quando Jack Kilby, da Texas Instruments, desenvolveu o primeiro circuito integrado,
consistindo de um transistor, três resistores e um capacitor, implementando um
oscilador simples. A partir daí, via-se a possibilidade de criação de circuitos mais
complexos, utilizando integração de componentes. Isto marcou uma transição na
história dos transistores, que deixaram de ser vistos como substitutos das válvulas e
passaram a ser encarados como dispositivos que possibilitam a criação de circuitos
complexos, integrados.

Em 1960, devido a sua estrutura mais simples, o MOS passou a ser encarado como um
dispositivo viável para circuitos digitais integrados. Nessa época, havia muitos
problemas com estados de impurezas, o que manteve o uso do MOS restrito até o fim da
década de 60. Entre 1964 e 1969, identificou-se o Sódio Na como o principal causador
dos problemas de estado de superfície e começaram a surgir soluções para tais
problemas.

No início da tecnologia MOS, os transistores PMOS foram mais utilizados, apesar de o


conceito de Complementary MOS (CMOS) já ter sido introduzido por Weimer. O
problema ainda era a dificuldade de eliminação de estados de superfície nos transistores
NMOS.

Em 1970, a Intel anunciava a primeira DRAM, fabricada com tecnologia PMOS. Em


1971, a mesma empresa lançava o primeiro microprocessador do mundo, o 4004,
baseado em tecnologia PMOS. Ele tinha sido projetado para ser usado em calculadoras.
Ainda em 1971, resolviam-se os problemas de estado de superfície e emergia a
tecnologia NMOS, que permitia maior velocidade e maior poder de integração.

O domínio da tecnologia MOS dura até o final dos anos 70. Nessa época, o NMOS
passou a ser um problema, pois com o aumento da densidade dos CIs, a tecnologia
demonstrou-se insuficiente, pois surgem grandes problemas com consumo de potência
(que é alto nesse tipo de tecnologia). Com isso, a tecnologia CMOS começava a ganhar
espaço.

A partir da década de 80, o uso de CMOS foi intensificado, levando a tecnologia a ser
usada em 75% de toda a fabricação de circuitos, por volta do ano 2000.

[editar] Alguns números


O primeiro processador de 8 bits (Intel 8008) usava tecnologia PMOS e tinha freqüência
de 0,2 MHz. Ano de fabricação: abril/1972 – 3500 transistores com 10 um ou
10000 nm, com uma tensão de trabalho de 5 V;

10 anos depois, a Intel lançou o 80286, com freqüências de 6, 10 e 12 MHz, fabricado


com tecnologia CMOS – 134.000 transistores 1,5 um ou 1500 nm, com uma tensão de
trabalho de 5 V;

O Pentium 4, lançado em janeiro de 2002, trabalha com freqüências de 2200 a 3000


MHz, com 55 milhões de transistores CMOS 130 nm. A série de chips Radeon 2000,
por exemplo, atinge os 500 milhões de transistores, chegando à casa dos 40 nm.

[editar] Importância
O transistor é considerado por muitos uma das maiores descobertas ou invenções da
história moderna, tendo tornado possível a revolução dos computadores e equipamentos
eletrônicos. A chave da importância do transistor na sociedade moderna é sua
possibilidade de ser produzido em enormes quantidades usando técnicas simples,
resultando preços irrisórios.

É conveniente salientar que é praticamente impossível serem encontrados circuitos


integrados que não possuam, internamente, centenas, milhares ou mesmo milhões de
transistores, juntamente com outros componentes como resistências e condensadores.
Por exemplo, o microprocessador Cell do console tem aproximadamente 234 milhões
de transistores, usando uma arquitetura de fabricação de 45 nanômetros, ou seja, a porta
de controle de cada transistor tem apenas 45 milionésimos de um milímetro.

Seu baixo custo permitiu que se transformasse num componente quase universal para
tarefas não-mecânicas. Visto que um dispositivo comum, como um refrigerador, usaria
um dispositivo mecânico para o controle, hoje é frequente e muito mais barato usar um
microprocessador contendo alguns milhões de transistores e um programa de
computador apropriado para realizar a mesma tarefa. Os transistores, hoje em dia, têm
substituído quase todos os dispositivos eletromecânicos, a maioria dos sistemas de
controle, e aparecem em grandes quantidades em tudo que envolva eletrônica, desde os
computadores aos carros.

Seu custo tem sido crucial no crescente movimento para digitalizar toda a informação.
Com os computadores transistorizados a oferecer a habilidade de encontrar e ordenar
rapidamente informações digitais, mais e mais esforços foram postos em tornar toda a
informação digital. Hoje, quase todos os meios na sociedade moderna são fornecidos
em formato digital, convertidos e apresentados por computadores. Formas analógicas
comuns de informação, tais como a televisão ou os jornais, gastam a maioria do seu
tempo com informação digital, sendo convertida no formato tradicional apenas numa
pequena fração de tempo.

[editar] Fabricação

Símbolos dos transistores bipolares

Os materiais utilizados na fabricação do transistor são principalmente o Silício (Si), o


Germânio (Ge), o Gálio (Ga) e alguns óxidos. Na natureza, o silício é um material
isolante elétrico, devido à conformação das ligações eletrônicas de seus átomos,
gerando uma rede eletrônica altamente estável. Atualmente, o transistor de germânio
não é mais usado, tendo sido substituído pelo de silício, que possui características muito
melhores.

O silício é purificado e passa por um processo que forma uma estrutura cristalina em
seus átomos. O material é cortado em finos discos, que a seguir vão para um processo
chamado de dopagem, onde são introduzidas quantidades rigorosamente controladas de
materiais selecionados (conhecidos como impurezas) que transformam a estrutura
eletrônica, introduzindo-se entre as ligações dos átomos de silício, roubando ou doando
elétrons dos átomos, gerando o silício P ou N, conforme ele seja positivo (tenha falta de
elétrons) ou negativo (tenha excesso de elétrons). Se a impureza tiver um elétron a mais,
um elétron fica sobrando na estrutura cristalina. Se tiver um elétron a menos, fica
faltando um elétron, o que produz uma lacuna (que funciona como se fosse um buraco
móvel na estrutura cristalina). Como resultado, temos ao fim do processo um
semicondutor.

O transistor é montado justapondo-se uma camada P, uma N e outra P, criando-se um


transistor do tipo PNP. O transistor do tipo NPN é obtido de modo similar. A camada
do centro é denominada base, e as outras duas são o emissor e o coletor. No símbolo do
componente, o emissor é indicado por uma seta, que aponta para dentro do transistor se
o componente for PNP, ou para fora, se for NPN.

Cientistas portugueses do Centro de Investigação de Materiais (Cenimat) da Faculdade


de Ciências e Tecnologia da Universidade Nova de Lisboa, conseguiram fabricar pela
primeira vez transistores com papel.[1]. Essa equipe de investigadores foi liderada por
Elvira Fortunato e Rodrigo Martins.

[editar] Funcionamento

Transístor moderno de alta potência

No transistor de junção bipolar ou TJB (BJT – Bipolar Junction Transistor na


terminologia inglesa), o controle da corrente coletor-emissor é feito injetando corrente
na base. O efeito transistor ocorre quando a junção coletor-base é polarizada
reversamente e a junção base-emissor é polarizada diretamente. Uma pequena corrente
de base é suficiente para estabelecer uma corrente entre os terminais de coletor-emissor.
Esta corrente será tão maior quanto maior for a corrente de base, de acordo com o
ganho.

[editar] Características de um transistor


O fator de multiplicação da corrente na base (iB), mais conhecido por Beta do transistor
ou por hfe, que é dado pela expressão iC = iB x ß

• iC: corrente de coletor


• iB: corrente de base
• B: beta (ganho de corrente de emissor)
Configurações básicas de um transistor:

Existem três configurações básicas (BC, CC e EC), cada uma com suas vantagens e
desvantagens.

Base comum (BC)

• Baixa impedância(Z) de entrada.


• Alta impedância(Z) de saída.
• Não há defasagem entre o sinal de saída e o de entrada.
• Amplificação de corrente igual a um.

Coletor comum (CC)

• Alta impedância(Z) de entrada.


• Baixa impedância(Z) de saída.
• Não há defasagem entre o sinal de saída e o de entrada.
• Amplificação de tensão igual a um.

Emissor comum (EC)

• Média impedância(Z) de entrada.


• Alta impedância(Z) de saída.
• Defasagem entre o sinal de saída e o de entrada de 180°.
• Pode amplificar tensão e corrente, até centenas de vezes.

Os transistores possuem diversas características. Seguem alguns exemplos dos


parâmetros mais comuns que poderão ser consultadas nos datasheets dos fabricantes:

• Tipo: é o nome do transistor.


• Pol: polarização; negativa quer dizer NPN e positiva significa PNP.
• VCEO: tensão entre coletor e emissor com a base aberta.
• VCER: tensão entre coletor e emissor com resistor no emissor.
• IC: corrente máxima do coletor.
• PTOT: é a máxima potência que o transistor pode dissipar
• Hfe: ganho (beta).
• Ft: freqüência máxima.
• Encapsulamento: a maneira como o fabricante encapsulou o transistor nos
fornece a identificação dos terminais.

Existem também outros tipos de transistores, notadamente os de efeito de campo


(transistores FET, de Field Effect Transistor); neste caso, o controle da corrente é feito
por tensão aplicada à porta.
Flip-flop
Origem: Wikipédia, a enciclopédia livre.

Ir para: navegação, pesquisa

Este artigo ou seção precisa ser wikificado


(desde Dezembro de 2010).
Por favor ajude a formatar este artigo de acordo
com as diretrizes estabelecidas no livro de estilo.

Em eletrônica e circuitos digitais, o flip-flop ou multivibrador biestável é um circuito


digital pulsado capaz de servir como uma memória de um bit. Um flip-flop tipicamente
inclui zero, um ou dois sinais de entrada, um sinal de clock, e um sinal de saída, apesar
de muitos flip-flops comerciais proverem adicionalmente o complemento do sinal de
saída. Alguns flip-flops também incluem um sinal da entrada clear, que limpa a saída
atual. Como os flip-flops são implementados na forma de circuitos integrados, eles
também necessitam de conexões de alimentação. A pulsação ou mudança no sinal do
clock faz com que o flip-flop mude ou retenha seu sinal de saída, baseado nos valores
dos sinais de entrada e na equação carecterística do flip-flop.

De forma geral podemos representar o flip-flop como um bloco onde temos 2 saídas: Q
e Q' (Q linha), entrada para as variáveis e uma entrada de controle (Clock). A saída Q
será a principal do bloco. Este dispositivo possui basicamente dois estados de saída.
Para o flip-flop assumir um destes estados é necessário que haja uma combinação das
variáveis e do pulso de controle (Clock). Após este pulso, o flip-flop permanecerá neste
estado até a chegada de um novo pulso de clock e, então, de acordo com as variáveis de
entrada, mudará ou não de estado.

Quatro tipos de flip-flops possuem aplicações comuns em sistemas de clock sequencial:


estes são chamados o flip-flop T ("toggle"), o flip-flop S-R ("set-reset"), o flip-flop J-K
e o flip-flop D ("delay").O comportamento de um flip-flop é descrito por sua equação
característica, que prevê a "próxima" (após o próximo pulso de clock) saída, Qnext, em
termos dos sinais de entrada e/ou da saída atual, Q.

O primeiro flip-flop eletrônico foi inventado em 1919 por William Eccles e F. W.


Jordan (Radio Review Dez 1919 páginas 143 em diante). Ele foi inicialmente chamado
de circuito de disparo Eccles-Jordan. O nome flip-flop posterior descreve o som que é
produzido em um alto-falante conectado a uma saída de um amplificador durante o
processo de chaveamento do circuito.

Ver também: multivibrador monoestável, multivibrador astável.

Índice
[esconder]
• 1 Tipos de flip-flops
o 1.1 Flip-flop T (Troca)
o 1.2 Flip-flop S-R Sincrono
o 1.3 Flip-flop J-K
o 1.4 Flip-flop D (Data)
• 2 Temporização e metaestabilidade
• 3 Circuitos integrados de Flip-Flops

• 4 Ligações externas

[editar] Tipos de flip-flops


[editar] Flip-flop T (Troca)

Se a entrada T estiver em estado alto "5 volts", o flip-flop T ("toggle") muda o estado da
saída sempre que a entrada de clock sofrer uma modificação. Se a entrada T foi baixa, o
flip-flop mantém o valor anterior da saída. Seu comportamento é descrito pela seguinte
equação característica:

O símbolo do flip-flop T, onde > é a entrada de clock, T é a entrada de


toggle e Q é informação de saída armazenada.

e pela tabela verdade:

T Q Q*

0 0 0

0 1 1

1 0 1

1 1 0

Q* → Estado seguinte do Q
[editar] Flip-flop S-R Sincrono

Diagrama de tempos de um flip-flop SR

Um flip-flop S-R Sincrono depende da habilitação de suas entradas por um sinal de


clock para que essas possam alterar o estado do mesmo. Este sinal pode operar de duas
formas: mantendo as entradas ativas durante todo o período do pulso ou apenas no
instante da mudança de estado do sinal de clock. Essas duas formas de operação podem
ser denominadas como modo clocked e modo triggered, respectivamente.

O flip-flop "set/reset" ativa (set, muda sua saída para o nível lógico 1, ou retém se este
já estiver em 1) se a entrada S ("set") estiver em 1 e a entrada R ("reset") estiver em 0
quando o clock for mudado. O flip-flop desativa (reset, muda sua saída para o nível
lógico 0, ou a mantém se esta já estiver em 0) se a entrada R ("reset") estiver em 1 e a
entrada S ("set") estiver em 0 quando o clock estiver habilitado. Se ambas as entradas
estiverem em 0 quando o clock for mudado, a saída não se modifica. Se, entretanto,
ambas as entradas estiverem em 1 quando o clock estiver habilitado, nenhum
comportamento particular é garantido. Isto é comumente escrito na forma de uma
"tabela verdade"

Q Q* S R

0 0 0 X

0 1 1 0

1 0 0 1

1 1 X 0

Q* → Estado seguinte do Q
Estrutura de um Flip-Flop S-R

Exemplo com a tabela verdade mostrando o estado anterior:

Qan Qfi Qfim


S R DESCRICAO
t m *

Fixa Qfim =
0 0 0 0 1
Qant

Fixa Qfim =
0 0 1 1 0
Qant

Fixa Qfim =
0 1 0 0 1
0

Fixa Qfim =
0 1 1 0 1
0

Fixa Qfim =
1 0 0 1 0
1

Fixa Qfim =
1 0 1 1 0
1

Não
1 1 0 1 1
Permitido

Não
1 1 1 1 1
Permitido

Legenda: S (Set), R (Reset), Qant (Estado anterior da saída Q), Qfim (Estado em que a
saída deve assumir "estado futuro" após a aplicação das entradas), Qfim* (Qfim Linha)
[editar] Flip-flop J-K

Diagrama de tempos do flip-flop J-K

O flip-flop J-K aprimora o funcionamento do flip-flop R-S interpretando a condição S =


R = 1 como um comando de inversão. Especificamente, a combinação J = 1, K = 0 é um
comando para ativar (set) a saída do flip-flop; a combinação J = 0, K = 1 é um comando
para desativar (reset) a saída do flip-flop; e a combinação J = K = 1 é um comando para
inverter o flip-flop, trocando o sinal de saída pelo seu complemento. Fazendo J = K o
flip-flop J-K se torna um flip-flop T(Toggle).

O símbolo do flip-flop J-K, onde > é a entrada de clock, J e K são as entradas


de dados, Q é a saída de dados armazenada e Q' é o complemento de Q.

A equação característica do flip-flop J-K é:

e sua tabela verdade é:

Operação do Flip Flop


JK [1]

Tabela Verdade

J K Qpróx Comentário

0 0 Qanterio mantém
r (hold)

01 0 reseta

10 1 seta

Qanterio alterna
11
r (Toggle)

Q* → Estado seguinte do Q

O flip-flop J-K recebeu este nome em homenagem a Jack Kilby, o homem que inventou
o circuito integrado, em 1958, pelo qual ele recebeu o prêmio Nobel em Física no ano
2000. "Jump-kill", também é utilizado como analogia a "set-reset".

[editar] Flip-flop D (Data)

O flip-flop D ("data" ou dado, pois armazena o bit de entrada) possui uma entrada, que é
ligada diretamente à saída quando o clock é mudado. Independentemente do valor atual
da saída, ele irá assumir o valor 1 se D = 1 quando o clock for mudado ou o valor 0 se D
= 0 quando o clock for mudado. Este flip-flop pode ser interpretado como uma linha de
atraso primitiva ou um hold de ordem zero, visto que a informação é colocada na saída
um ciclo depois de ela ter chegado na entrada.

O símbolo esquemático de um flip-flop D, onde > é a entrada de clock, D é a


entrada de dados e Q é a saída de dados.

A equação característica do flip-flop D é:

A sua tabela verdade é:

D Q Q*

0 X 0

1 X 1
Q* → Estado seguinte do Q

O flip-flop pode ser utilizado para armazenar um bit, ou um digito binário de


informação. A informação armazenada em um conjunto de flip-flops pode representar o
estado de um seqüenciador, o valor de um contador, um caractere ASCII em uma
memória de um computador ou qualquer outra parte de uma informação.

Um uso é a construção de máquinas de estado finito a partir da lógica eletrônica. O flip-


flop lembra o estado anterior de máquina, e a lógica digital utiliza este estado para
calcular o próximo estado.

O flip-flop "T" é útil para contagens. Sinais repetidos à entrada de clock farão com que
o flip-flop mude seu estado a cada transição de nível alto-para-baixo da entrada de
clock, se sua entrada T for "1", a saída de um flip-flop pode ser ligada à entrada clock
de um segundo flip-flop e assim por diante. A saída final do circuito, considerada com o
conjunto de todas as saídas dos flip-flops individuais, é uma contagem, em sistema
binário, do número de ciclos da primeira entrada de clock, até um limite máximo de 2n-
1, onde n é o número de flip-flops utilizados no circuito.

Um dos problemas com este tipo de contador (chamado de contador de ripple ou


contador de pulsos) é que a saída é brevemente inválida conforme ocorre a mudança de
pulso através da lógica. Existem duas soluções para este problema. A primeira é retirar
uma amostra da saída apenas quando a mesma for válida. A segunda, mais utilizada, é
utilizar um tipo diferente de contador chamado de contador síncrono. Este utiliza uma
lógica mais complexa para garantir que as saídas do contador mudem todas a um
mesmo período previsível.

Divisão de frequência: uma "corrente" de flip-flops "T" utilizados da maneira descrita


acima irá funcionar de modo a dividir a frequência da entrada por 2n na saída do último
flip-flop, aonde n é o número de flip-flops utilizados entre a entrada e a saída.

Os registradores podem ser utilizados para armazenar dados nos computadores. Um


flip-flop "D" pode representar um dígito de um número binário. A unidade de controle
do computador envia o sinal de clock no momento certo para poder capturar estes
dados.

Pela família TTL o flip-flop D é representado pelo 4013.

[editar] Temporização e metaestabilidade


Um flip-flop em combinação com um Schmitt Trigger pode ser utilizado para a
implementação de um arbitro em circuitos assíncronos.

Os flip-flop com clock estão predispotos a um problema chamado de metaestabilidade,


que ocorre quando um dado ou uma entrada de controle está mudando no momento do
pulso de clock. O resultado é que a saída pode se comportar imprevisivelmente, levando
muito tempo mais que o seu normal para se estabilizar no seu estado correto, ou mesmo
oscilando uma série de vezes antes de se estabilizar.Gerando por exemplo a queima de
um equipamento dentro de um sistema de um computador, isto pode levar a uma
corrupção dos dados ou travamento.
Em muitos casos, a metaestabilidade nos flip-flops pode ser evitada garantindo-se que
as entradas de dados e controle sejam mantidas constantes para períodos especificados
antes e após o pulso de clock, este períodos são chamados de tempo de setup (tsu) e
tempo de hold (th) respectivamente. Estes tempos são especificados na documentação
(data sheet) do dispositivos, e são tipicamente entre alguns nanosegundos e algumas
centenas de picosegundos nos dispositivos modernos.

Infelizmente, não é sempre possível atingir os critérios de setup e hold, pois o flip-flop
pode estar conectado a um sinal em tempo real que pode mudar a qualquer momento,
fora do controle do projetista. Neste caso, o melhor que se pode fazer e reduzir a
probabilidade de erro a um certo nível, dependendo da fidelidade requerida do circuito.
Uma técnica para reduzir a metaestabilidade é conectar-se dois ou mais flip-flops em
uma corrente, de modo que a saída de um alimenta a entrada de dados do outro, e todos
os dispositivos compartilham um clock comum. Com este método, a probabilidade de
um evento metaestável pode ser reduzida a um valor desprezível, mas nunca a zero.

Existem flip-flop com metaestabilidade reduzida, os quais trabalham reduzindo os


tempos de setup e hold o máximo possível, porém mesmo estes não podem eliminar o
problema completamente. Isto ocorre porque a metaestabilidade é mais que uma
consequência do projeto do circuito. Quando as transições no clock e nos dados estão
em um intervalo de tempo próximo, o flip-flop é forçado a escolher qual dos eventos
ocorrerá primeiro. Entretanto devido às altas velocidades de processamento, existe
sempre a possibilidade de que os eventos da entrada estejam tão próximos que ele não
possa detectar qual ocorreu primeiro. Desta forma é logicamente impossível construir
um flip-flop totalmente livre de metaestabilidade.

Outro valor importante para um flip-flop é o atraso de clock-a-saída (clock-to-output


delay, o símbolo comum é tCO) ou atraso de propagação (tP), que é o tempo que o flip-
flop leva para mudar a sua saída após o sinal de clock. O tempo de uma transição de
alto-para-baixo (high-to-low transition, tPHL) é algumas vezes diferente do tempo de uma
transição de baixo-para-alto (low-to-high transition, tPLH).

Quando se conectam flip-flop em uma corrente, é importante se assegurar que o tCO do


primeiro flip-flop é maior que o tempo de hold (hold time, tH) do segundo flip-flop, caso
contrário o segundo flip-flop não irá receber os dados confiavelmente. A relação entre
tCO e tH é normalmente garantida se ambos os flip-flops são do mesmo tipo.

[editar] Circuitos integrados de Flip-Flops


Eletrônica digital XI-10 : Flip-flops

Índice do grupo | Página anterior | Próxima página |

Lógica combinatória e lógica sequencial |


Lógica sequencial: bloco elementar |
Flip-flop RS básico |
Adicionando entradas de clock, preset e clear |

Lógica combinatória e lógica sequencial


(Topo pág | Fim pág)

O esquema da Figura 01 é um circuito lógico combinatório porque o valor da


saída depende apenas da combinação de valores das entradas. Como
igualdade booleana, é dado por:

S = (A · B) · (C + D)

Exemplo: se, no circuito mencionado, a combinação das entradas ABCD for


1100, a saída será sempre 0.

Fig 01

Circuitos combinatórios permitem funções como decodificação, soma,


subtração e muitas outras. Entretanto, funções mais avançadas (que
dependem de tempo, memorização, etc) não podem ser implementadas
com eles.

O grande avanço da eletrônica digital foi dado pelos circuitos sequenciais.


Num circuito sequencial, o valor de uma saída depende não somente da
combinação de valores das entradas, mas também do valor anterior, isto é,
o valor que a saída tinha antes da aplicação da combinação de valores nas
entradas.

Obs: em algumas publicações, é usado o termo "combinacional" no lugar de


combinatório.

Lógica sequencial: bloco elementar


(Topo pág | Fim pág)

O bloco elementar da lógica sequencial é conhecido pelo seu nome em


inglês, flip-flop. Por definição, um flip-flop é um bloco que, conforme Figura
01 deste tópico, contém:

Duas entradas principais, 1 e 2.

Uma entrada de controle (clock), CK.

Duas saídas complementares, Q e Q.

Uma entrada de pré-ajuste (preset), PR (opcional).

Uma entrada de apagamento (clear ou reset), CL (opcional).

Fig 01

Obs: as entradas de controle, pré-ajuste e apagamento serão, a partir de


agora, mencionadas pelo seus nomes em inglês por ser prática usual da
área.

Existem vários tipos de flip-flops, cuja distinção se faz pelas letras que
representam as entradas 1 e 2.

Flip-flop RS básico
(Topo pág | Fim pág)

No arranjo da Figura 01, duas portas NÃO E são interligadas por uma
realimentação. Essa realimentação faz a saída depender dos valores das
entradas e do valor ela que tinha antes da aplicação desses valores nas
entradas.

Fig 01

Para análise, monta-se uma tabela de todos os valores possíveis das


entradas e os valores possíveis das saídas antes da aplicação das entradas.

Os valores anteriores das saídas são simbolizados por Qa e Qa.

A análise começa pela suposição que, no momento da aplicação dos valores


das entradas, os valores Qa e Qa estão presentes nas saídas.

Nos casos 0 e 1 (S=0 e R=0), os valores das saídas são iguais aos seus
anteriores.

Nos casos 2 e 3 (S=0 e R=1), a situação 3 é impossível (Q não pode ser


igual a Q) e pode-se concluir que a saída será forçada para a situação
estável (Q=0 e Q=1).

Pelo mesmo motivo, pode-se concluir que, nos casos 4 e 5 (S=1 e R=0), a
saída será Q=1 e Q=0.

a b c d e f Q Q
Nº S R Qa Qa
(S) (Qa) (a.b) (Qa) (R) (d.e) (c) (f)

0 0 0 1 1 1 0 1 0 0 1 0 1

1 0 0 1 0 0 1 1 1 1 0 1 0

2 0 1 1 1 1 0 0 0 0 1 0 1

3 0 1 1 0 0 1 0 0 1 0 1 1

4 1 0 0 1 0 0 1 0 0 1 1 1

5 1 0 0 0 0 1 1 1 1 0 1 0

6 1 1 0 1 0 0 0 0 0 1 1 1

7 1 1 0 0 0 1 0 0 1 0 1 1
Nos casos 6 e 7 (S=1 e R=1), não há situação estável e são condições
impossíveis para este tipo de circuito.

S R Q

0 0 Qa

0 1 0

1 0 1

1 1 *

A tabela de verdade para o flip-flop assim construído é dada acima. O


asterisco (*) indica uma situação impossível ou não permitida.

Adicionando entradas de clock, preset e clear


(Topo pág | Fim pág)

Circuitos sequenciais recebem em geral informações que mudam com o


tempo. Portanto, é conveniente uma forma de controlar o recebimento
desses dados.

Fig 01

Na Figura 01, duas portas E foram inseridas nas entradas do flip-flop do


circuito anterior, formando uma entrada de clock.

Se a entrada de clock for 0, ocorre sempre g=0 e h=0, independente dos


valores de S e R. Essa condição equivale aos casos 1 e 2 anteriores e as
saídas permanecem nos seus valores prévios.

Se a entrada de clock for 1, ocorre g=S e h=R e o circuito se comporta


como o do tópico anterior, com a mesma tabela de verdade e o mesmo
estado impossível. Assim, a entrada de clock comanda a operação do bloco.
Fig 01

Na Figura 02 foram adicionadas as entradas preset (PR) e clear (CL).

Se ambas forem iguais a 1, o flip-flop opera sem qualquer alteração.


Estando a entrada clock em zero, a saída Q assume valor 1 se preset for 0 e
0 se clear for 0. Ou seja, essas entradas permitem definir um valor da saída
de forma independente das demais, o que pode ser útil em muitos circuitos.

Os valores de PR e CL não podem ser simultaneamente nulos, pois seria


uma condição inválida (Q só pode ter um valor).
Transistor de efeito de campo
Origem: Wikipédia, a enciclopédia livre.
(Redirecionado de FET)
Ir para: navegação, pesquisa

A Wikipédia possui o portal:


Portal de eletrônica

FET de alta-potência canal-N

FET é o acrônimo em inglês de Field Effect Transistor, Transistor de Efeito de


Campo, que, como o próprio nome diz, funciona através do efeito de um campo elétrico
na junção. Este tipo de transitor tem muitas aplicações na área de amplificadores
(operando na area linear), em chaves (operando fora da area linear) ou em controle de
corrente sobre uma carga. Os FETs têm como principal caracteristica uma elevada
impedância de entrada o que permite seu uso como adaptador de impedâncias podendo
substituir transformadores em determinadas situações,além disso são usados para
amplificar frequências altas com ganho superior ao dos transistores bipolares.

Índice
[esconder]

• 1 Composição
• 2 Polarização
• 3 Categorias
• 4 História
• 5 Ligações externas

• 6 Referências

[editar] Composição
Os FETs podem ser compostos por germânio ou sílicio combinados à pequenas
quantidades de fósforo e boro,que são substâncias ´´dopantes`` (isto é,que alteram as
características elétricas).Os transistores de sílicio são os mais utilizados
atualmente,sendo que transistores de germãnio são usados somente para o controle de
grandes potências.

[editar] Polarização
Um FET para uso geral apresenta três terminais:comporta,supridouro e dreno,que
permitem seis formas de polarização,sendo três as mais usadas:supridouro comum
(supridouro ligado à entrada e saida simultaneamente),comporta comum (comporta
ligada à entrada e saida simultaneamente) e dreno comum (dreno ligado à entrada e
saida simultaneamente).

[editar] Categorias
O FET pode ser dividido em duas categorias: JFETS e MOSFETS. Por sua vez, os
MOSFETS se dividem em duas categorias:

• MOSFET tipo Intensificação;


• MOSFET tipo Depleção.

Corte em seção de um MOSFET tipo-n

Os termos depleção e intensificação definem o seu modo básico de operação, enquanto


o nome MOSFET designa o transistor Metal Óxido Semicondutor.

História
Os FETs foram inventados por Julius Edgar Lilienfeld em 1926 e por Oskar Heil em
1934.
Em 1960 John Atalla desenvolveu o MOSFET baseado nas teorias de William Shockley
sobre o efeito de campo.[1]

[editar] Ligações externas


O IGBT (Insulated Gate Bipolar
Transistor)

I . Introdução

Desde a invenção do primeiro tiristor de junção PNPN, pelos laboratórios Bell


em 1957, houve um grande avanço nos dispositivos semicondutores de potência.
Para serem aplicados em sistemas de elevada potência e substituírem as
rudimentares válvulas ignitron, phanotron e thyratron, os dispositivos semicondutores
devem ser capazes de suportar grandes correntes e elevadas tensões reversas em seu
chaveamento. Além disso, em várias aplicações de eletrônica de potência, há
necessidade de uma operação em elevadas freqüências de chaveamento dos dispositivos
semicondutores, como, por exemplo, os inversores de tensão, necessários para a
construção de filtros ativos de potência. Dessa forma, os dispositivos semicondutores
devem possuir baixas perdas de potência durante o chaveamento.
Até 1970, os tiristores convencionais foram exclusivamente usados para o
controle de potência em aplicações industriais. Desde 1970, vários tipos de dispositivos
semicondutores de potência foram desenvolvidos e se tornaram disponíveis
comercialmente. Estes dispositivos podem ser amplamente divididos em cinco tipos: os
diodos de potência, os tiristores, os transistores bipolares de junção de potência, os
MOSFET’s de potência, os SIT’s (Static Induction Transistor) e os IGBT’s (Insulated
Gate Bipolar Transistor), assunto desta dissertação.
Reunindo as características de comutação dos transistores bipolares de potência
à elevada impedância de entrada dos MOSFET’s, o IGBT se torna cada vez mais
popular nos circuitos de controle de potência de uso industrial e até mesmo em
eletrônica de consumo e embarcada.
Os transistores bipolares de potência possuem características que permitem sua
utilização no controle de elevadas correntes com muitas vantagens, como baixas perdas
no estado de condução. No entanto, as suas características de entrada, exigindo
correntes elevadas de base, já que operam como amplificadores de corrente, trazem
certas desvantagens em algumas aplicações.
Por outro lado, os transistores de efeito de campo MOS de potência podem
também controlar potências elevadas com muitas vantagens pelo fato de exigirem
tensão para o disparo, pois, embora sejam dispositivos de alta impedância têm como
desvantagem uma baixa velocidade de comutação devida às capacitâncias de porta
(Gate) que aumentam com a intensidade de corrente (Largura do canal) que deve ser
controlada. No entanto, para baixas correntes de condução através do canal, o MOSFET
pode operar com elevadas freqüências.
O IGBT reúne a facilidade de acionamento dos MOSFET’s e sua elevada
impedância de entrada com as pequenas perdas em condução dos TBP (Transistores
Bipolares de Potência). Sua velocidade de chaveamento é determinada, a princípio,
pelas características mais lentas – as quais são devidas às características do TBP. Assim,
a velocidade dos IGBT’s é semelhante à dos TBP; no entanto, nos últimos anos tem
crescido gradativamente, permitindo a sua operação em freqüências de dezenas de kHz,
nos componentes para correntes na faixa de dezenas e até centenas de Ampères.
Juntando o que há de bom nesses dois tipos de transistores, o IGBT é um
componente que se torna cada vez mais recomendado para comutação de carga de alta
corrente em regime de alta velocidade.
Abaixo, apresentamos um gráfico contendo uma comparação entre os principais
dispositivos semicondutores de potência quanto às suas características de tensão,
corrente e freqüência de operação. Nesta figura, vemos que os tiristores são os
dispositivos que conseguem suportar os maiores valores de corrente e tensão, mas não
podem operar em freqüências de chaveamento elevadas. Como podemos ver a partir
desta figura, os IGBT’s possuem uma capacidade de suportar maiores tensões e podem
operar em mais altas freqüências que os transistores bipolares de potência e podem
suportar maiores tensões e correntes que os MOSFET’s de potência. Como podemos
notar a partir deste gráfico, a região de operação segura do IGBT é maior que as regiões
reservadas ao MOSFET e ao transistor TBP, o que era desejado.

Apresentamos aqui nesta dissertação como operam fisicamente os IGBT’s e


apresentaremos o modelo para descrição do seu funcionamento. Serão também
mostradas as páginas do manual de um fabricante de IGBT para ilustrar as
características de operação deste dispositivo. Por fim, será apresentada uma aplicação
dos IGBT’s em eletrônica de potência para mostrar a utilidade do dispositivo.
II . Operação Física do IGBT

Na figura a seguir, apresentamos a estrutura de um típico IGBT de canal tipo N.


Todas as discussões apresentadas aqui estão relacionadas com o dispositivo de canal
tipo N, pois o canal tipo P é análogo e possui uma operação física dual àquela
apresentada para o de canal tipo N.
Sua estrutura muito semelhante àquela apresentada por um transistor MOSFET.
Onde, no caso o IGBT, teremos uma dupla difusão de uma região do tipo P e uma do
tipo N.
Abaixo da região da porta (Gate), uma camada de inversão pode ser formada a
partir da aplicação de uma certa tensão entre a porta e o emissor (emitter), tal como é
feito em um MOSFET para fazê-lo entrar em condução.
A principal diferença entre essa estrutura do IGBT e a de um MOSFET é a
inclusão de um substrato P+ (O símbolo “+” foi colocado para indicar que esta região é
fortemente dopada, enquanto que o símbolo “-” indica que a região é fracamente
dopada) onde é conectado o terminal de coletor (collector). Esta mudança tem como
efeito a inclusão de características bipolares ao dispositivo. Esta camada P+ tem como
objetivo a inclusão de portadores positivos – lacunas – na região de arrastamento (Drift
region) como é feito em um transistor bipolar do tipo pnp.
Na estrutura do IGBT, é importante notar que o terminal de porta está conectado
à duas regiões – isoladas do material semicondutor através de uma camada isolante de
óxido de silício (SiO2) – ao invés de ser apenas uma região como costumamos ver em
MOSFET’s. Assim, como veremos, o IGBT apresenta formação de dois canais ao invés
de apenas um.
O IGBT é freqüentemente utilizado como uma chave, alternando os estados de
condução (On-state) e corte (Off-state) os quais são controlados pela tensão de porta,
assim como em um MOSFET.
Se aplicarmos uma pequena tensão de porta positiva em relação ao emissor, a
junção J1 da figura anterior ficará reversamente polarizada e nenhuma corrente irá
circular através dessa junção. No entanto, a aplicação de uma tensão positiva no
terminal de porta fará com que se forme um campo elétrico na região de óxido de silício
responsável pela repulsão das lacunas pertencentes ao substrato tipo P e a atração de
elétrons livres desse mesmo substrato para a região imediatamente abaixo da porta.
Enquanto não houver condução de corrente na região abaixo dos terminais de
porta, não haverá condução de corrente entre o emissor e o coletor porque a junção J2
estará reversamente polarizada, bloqueando a corrente. A única corrente que poderá
fluir entre o coletor e o emissor será a corrente de escape (leakage).
Uma característica desta região de operação é a tensão direta de breakdown,
determinada pela tensão breakdown da junção J2. Este é um fator extremamente
importante, em particular para dispositivos de potência onde grandes tensões e correntes
estão envolvidas. A tensão de breakdown da junção J2 é dependente da porção mais
fracamente dopada da junção, isto é, a camada N- . Isto s deve ao fato de que a camada
mais fracamente dopada resulta em uma região de depleção desta junção mais larga.
Uma região de depleção mais larga implica em um valor máximo de campo elétrico na
região de depleção que o dispositivo poderá suportar sem entrar em breakdown mais
baixo, o que implica no fato de que o dispositivo poderá suportar altas tensões na região
de corte. Esta é a razão pela qual a região N- da região de arrastamento é mais
levemente dopada que a região tipo P da região de corpo (Body). Os dispositivos
práticos geralmente são projetados para possuírem uma tensão de breakdown entre 600
V e 1200 V.
Ao aplicarmos uma tensão entre porta e emissor do dispositivo,
fazendo a porta possuir uma tensão positiva com relação ao emissor, uma
corrente de pequena intensidade e de curta duração circula pela porta de
forma a carregar a capacitância parasita que existe entre a porta e a porção
semicondutora logo abaixo do terminal de porta. Como já foi dito, a tensão
faz com que um campo elétrico apareça entre o terminal de porta e a
porção de semicondutor p logo abaixo da porta. Este campo elétrico atrai
alguns elétrons livres da própria região tipo p e alguns elétrons livres das
porções n+ localizadas dentro desse substrato p, em virtude do fato de
essa região estar fortemente dopada. Ao aumentarmos a tensão entre a
porta e o emissor, conseqüentemente, aumentaremos esse campo elétrico e
mais portadores negativos serão atraídos para a região imediatamente
abaixo do terminal de porta.

Quando a tensão entre a porta e o emissor atinge um determinado


valor limite – que depende do dispositivo – conhecida como tensão de limiar
(threshold voltage), simbolizada por Vth, a quantidade de elétrons livres
atraídos pelo campo elétrico é tamanha que a região imediatamente abaixo
da porta acaba por se transformar do tipo p para o tipo n, fenômeno
conhecido como inversão – sendo a camada que sofreu o processo recebe o
nome de camada de inversão, mais comumente conhecida como canal.
Com a formação deste canal, temos uma ligação do tipo n entre a
pequena região n+ e a região de arrastamento, tal canal permite a
condução de corrente através de uma pequena região na junção J1 que
estava reversamente polarizada antes de a tensão entre porta e emissor
atingir o valor limiar. Dessa forma, elétrons serão transportados através
deste canal até a região de arrastamento onde irão fazer parte da corrente
que circula pela junção J3 que está diretamente polarizada, fazendo com
que o “diodo” formado pela junção J3 entre em condução. Com este efeito,
temos que a camada p+ conectada ao coletor injeta lacunas positivamente
carregadas na região de arrastamento n-.

Essa injeção de lacunas da região de arrastamento causa a


modulação da condutividade da região de arrastamento onde as densidades
de ambos os portadores, elétrons livres e lacunas, atingem valores muito
mais elevados que àquela que a região n- geralmente apresenta. É esta
modulação de condutividade que dá ao IGBT sua baixa tensão de condução
entre os terminais de coletor e emissor do IGBT por causa da reduzida
resistência da região de arrastamento – isto se deve ao fato de que a
condutividade de um material semicondutor é proporcional à densidade de
portadores deste material. Assim, o IGBT poderá drenar correntes elevadas
com poucas perdas de potência, assim como o que ocorre em um transistor
bipolar.

Algumas das lacunas injetadas na região n- são recombinadas nesta


mesma região com os elétrons livres desta camada. No entanto, a maior
parte das lacunas que alcançam a região não se recombinam e alcançam a
junção J2 que está reversamente polarizada. Assim, as lacunas encontram
um campo elétrico favorável ao seu movimento, justamente por causa da
polarização reversa da junção. Com este campo elétrico da junção J2, as
lacunas serão arrastadas por meio da corrente de difusão pela região de
arrastamento atravessando a junção J2 até serem coletadas pela região do
tipo p onde está conectado o terminal de coletor.

A operação física do IGBT descrita aqui é ilustrada na figura


apresentada abaixo:
Analisando a figura acima e verificando como é a operação física do IGBT,
podemos facilmente deduzir um modelo para descrever o funcionamento do dispositivo
usando apenas componentes eletrônicos conectados de forma a funcionar de modo
equivalente ao IGBT. Olhando a figura acima, vemos que temos ao longo do dispositivo
três fatias de semicondutores formando uma junção PNP que é a mesma que forma um
transistor bipolar de potência cuja base é conectada à região central e os terminais de
coletor e emissor são conectados do mesmo modo que no TBP. Na parte de cima da
figura, temos uma estrutura que opera exatamente como um MOSFET de potência cuja
corrente de dreno é injetada na região de arrastamento que corresponde à base do
transistor PNP de potência que temos ao longo do IGBT. Essa corrente de dreno do
MOSFET atua como o disparo do transistor. Assim, podemos modelar o IGBT pelo
circuito equivalente da figura abaixo.
A figura 3 (b) mostra um modelo mais completo para o circuito
equivalente do IGBT que inclui o transistor parasita pela região tipo n+ da
fonte do MOSFET, a região de corpo do MOSFET do tipo p e a região de
arrastamento tipo n-. Neste modelo também é apresentada a resistência
lateral da região tipo p da região de corpo. Se a corrente fluindo através
dessa resistência for elevada o suficiente, teremos uma queda de tensão
que irá polarizar diretamente a junção entre esta camada semicondutora e
a região n+ ativando o transistor parasita que forma um tiristor parasita
juntamente com o transistor PNP principal da estrutura do IGBT. Uma vez
que o tiristor tenha sido disparado, há uma elevada injeção de elétrons
livres oriundos da região tipo n+ na região tipo p do substrato do MOSFET,
fazendo com que a tensão de gate não influa mais na operação do
dispositivo – assim como o que ocorre com os tiristores – fazendo com que o
controle da operação do IGBT seja perdido. Este fenômeno – denominado
latch-up –, quando ocorre, geralmente conduz à destruição do dispositivo.
Geralmente, os fabricantes de IGBT constroem o molde da superfície do
emissor em forma de uma tira estreita, enquanto que a geometria utilizada
em MOSFET’s é baseada em células concentradas, tal fato permite que se
evite o disparo do tiristor parasita existente na estrutura do IGBT.

Na figura apresentada a seguir, temos o símbolo utilizado em circuitos


para designar o IGBT. Neste símbolo vemos detalhes que lembram tanto o
símbolo usado para transistores bipolares como o símbolo usado para
MOSFET’s. Também apresentamos um desenho do aspecto do IGBT
produzido como componente discreto pela International Rectifier.
Os IGBT’s são componentes usados principalmente como comutadores em
conversores de freqüência, inversores etc. Nestas aplicações, normalmente uma carga
indutiva é ligada e desligada, podendo com isso aparecer tensões inversas elevados,
contra as quais o dispositivo deve ser protegido. Essa proteção é feita com o uso de
diodos ligados em paralelo com o coletor e o emissor para evitar que uma elevada
tensão reversa seja aplicada ao IGBT. Quando o IGBT liga novamente, o fluxo de
corrente no diodo funciona inicialmente como se fosse praticamente um curto. A carga
armazenada tem que ser removida inicialmente para que o diodo bloqueie a tensão. Isso
faz com que apareça uma corrente que se soma à corrente de carga a qual é chamada de
corrente reversa de recuperação do diodo IRR. O máximo de corrente IRR ocorre quando a
soma das tensões instantâneas sobre o IGBT e o diodo se iguala à tensão de
alimentação. Quando o IGBT desliga, o resultado é uma variação de corrente, e isso faz
com que o pico de sobretensão apareça devido à variação de corrente nas indutâncias
parasitas. Este pico de tensão é responsável por perdas e exige um aumento no tempo
morto entre a condução de dois dispositivos semelhantes quando usados numa
configuração de meia-ponte, como o que será mostrado no exemplo de aplicação desse
dispositivo.
Um ponto importante que deve ser levado em consideração em todo
dispositivo de comutação é o Efeito Miller.

O Efeito Miller nada mais é do que a realimentação da tensão coletor-


emissor (VCE) através da capacitância existente entre a porta e o coletor do
dispositivo (CGC).
Isso que dizer que uma variação da tensão entre o coletor e emissor
(VCE) tem o mesmo efeito que uma fonte de corrente interna no circuito de
polarização , onde a intensidade desta corrente é dada pela expressão:

∂VCE
I G = C GC ( VCE )
∂t

Infelizmente, Cgc não è constante, mudando de valor com a tensão


entre coletor e emissor. As maiores variações de CCG ocorrem justamente
com pequenas tensões entre emissor e coletor. Em conseqüência disso
temos explicações para alguns comportamentos do IGBT:

Quando o IGBT liga (turn-on) - partindo de Vce alto e VGE igual a zero ou
negativo – com uma corrente constante carregando a porta, um aumento
linear da tensão de porta é obtido.

Com a queda da tensão entre coletor e emissor VCE a corrente de


polarização de porta é usada para carregar CGC, e a tensão de porta
permanece constante.

Mais tarde, quando a tensão entre o coletor e o emissor cai, CGC


aumenta de valor de tal forma que, uma pequena variação de VCE é
suficiente para levar a um aumento da corrente de porta. Somente quando
a corrente necessária à carga se reduz novamente é que a tensão de porta
aumenta.

Quando o IGBT desliga - partindo de Vce baixa , VGE positiva ou maior


que a tensão limiar – Vth – a tensão de porta inicialmente decresce quase
que linearmente (pela fonte de corrente constante de descarga). A
diminuição da capacitância com o aumento da carga aumenta a tensão.
Como existe uma fonte de polarização que está drenando corrente da porta,
a tensão porta-emissor se mantém constante.

Em conseqüência, VCE aumenta e a maior parte da corrente de


descarga da porta é usada para manter a tensão de porta constante. O
processo de carga termina quando VCE alcança a tensão de operação.

É devido ao Efeito Miller que a corrente de porta durante a comutação


(ligado ou desligado) é usada antes de tudo para mudar a carga CGC. Isto
explica porque, carregando ou descarregando , a porta tem sua velocidade
de resposta reduzida. Deve ser mencionado que as mudanças de CGC e VCC
regulam por si próprias de tal forma que apenas a corrente disponível na
porta é usada. Isso esclarece porque um resistor de grande valor ligado em
série com a porta faz que todos os eventos que envolvam a comutação de
uma IGBT tenham seu tempo de duração aumentado.

As características de tensão e corrente de um IGBT se assemelham


muito com as características de um transistor MOSFET e de u transistor
bipolar de potência. Para uma visualização das características de um IGBT
real, apresentamos aqui o manual dos IGBT’s fabricados pela Mitsubishi, no
formato .PDF.

III . Aplicações de IGBT – Um Inversor de


Tensão.

Uma das aplicações de IGBT que mais são utilizadas em eletrônica de


potência é a construção de inversores de tensão, os quais produzem tensão
alternada através de tensão contínua. Tal processo é muito utilizado na
construção de filtros ativos de potência e em sistemas de transmissão HVDC
(High Voltage Direct Current) de energia elétrica. A Usina de Itaipu
pertencente ao Brasil e ao Paraguai (que durante muitos anos foi a maior
usina hidrelétrica do mundo) produz energia com o sistema de corrente
alternada, sendo que metade da produção (pertencente ao Brasil) é gerada
em 60Hz e a outra metade (pertencente ao Paraguai) é gerada em 50Hz. No
entanto, boa parte da energia produzida pela parte paraguaia é vendida ao
Brasil que consome tensão alternada em 60Hz. O problema foi resolvido
instalando-se um retificador de potência que transforma a tensão a ser
transmitida em tensão contínua e a energia é transmitida em DC até os
centros consumidores (o principal é a cidade de São Paulo) onde é
novamente alternada, agora em 60Hz para ser enviada aos transformadores
que irão abaixar a tensão para a distribuição entre os consumidores de
energia. Este inversor de tensão pode geralmente ser construído com o uso
de GTO’s (Gate Turn-Off Thyristor) ou IGBT’s. No caso de inversores de
tensão que serão aplicados na construção de filtros ativos de potência dá-se
preferência ao emprego de IGBT’s devido à sua possibilidade de operar em
elevadas freqüências.

O bloco básico de construção de um inversor de tensão usando IGBT’s


é apresentado no esquema abaixo:
As tensões de porta de cada um dos IGBT’s são controladas a partir de
uma Máquina de Estados Finitos, onde cada estado corresponde ao
chaveamento de apenas três IGBT’s (cada um em uma associação em série
diferente com um na parte de cima e outro na parte de baixo), a ordem de
chaveamento é mostrada nos gráficos apresentados abaixo, onde temos as
tensões em cada uma das chaves com o tempo e a tensão total entre a fase
C e o neutro da associação em Y na saída do transformador apresentado na
figura acima.
Assim, vemos que a forma de onda da tensão na fase C com respeito ao neutro é
formada por seis segmentos idealmente retos, como mostrado na figura. Por isso, este
bloco funcional é denominado de um inversor de 6 segmentos. As formas de onda nas
demais fases apresentam a mesma forma de onda que a da fase C, com apenas uma
diferença de fase de 120° de uma em relação à outra.
Esta forma de onda na saída é semelhante a uma forma de onda
senoidal, embora ainda possua muita distorção harmônica (possui
componentes harmônicos de freqüências mais altas). Para melhorar o
desempenho do inversor, geralmente o que se usa é a associação de mais
blocos de inversores de 6 segmentos como o mostrado acima em série, da
seguinte forma apresentada na figura abaixo:

Cada um dos inversores mostrados na figura acima é idêntico ao inversor de 6


segmentos do esquema anterior e geram as mesmas formas de onda. No entanto, o
primeiro transformador é do tipo Y-Y, fazendo com que a forma de onda na saída não
apresente nenhuma defasagem com relação ao sinal original; já no caso do segundo
transformador do tipo ∆ -Y, temos que a saída será defasada em 30° com relação à
forma de onda original. Assim, a saída deste inversor será formada pela forma de onda
de 6 segmentos normal somada a esta mesma forma de onda deslocada de 30°, o que irá
gerar uma forma de onda na saída de 12 segmentos como mostrado abaixo:
Como podemos ver, essa forma de onda se aproxima mais de uma senóide do que
a forma de onda anterior. Para suavizar esta forma de onda de forma que se aproxime
mais de uma senóide, bastando para isso utilizar um filtro passa-baixas para eliminar as
componentes de altas freqüências que são responsáveis pelas transições abruptas dessa
forma de onda e causam um elevado fator de distorção harmônica.
Este exemplo foi apresentado aqui para ilustrar uma forma de
aplicação do IGBT na prática, como uma chave em aplicações de elevadas
potências.
Porta lógica
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Porta NAND: esquema do circuito integrado e hardware

A Wikipédia possui o portal:


Portal de eletrônica

Portas lógicas ou circuitos lógicos, são dispositivos que operam um ou mais sinais
lógicos de entrada para produzir uma e somente uma saída, dependente da função
implementada no circuito. São geralmente usadas em circuitos eletrônicos, por causa
das situações que os sinais deste tipo de circuito podem apresentar: presença de sinal, ou
"1"; e ausência de sinal, ou "0". As situações "Verdadeira" e "Falsa" são estudadas na
Lógica Matemática ou Lógica de Boole; origem do nome destas portas. O
comportamento das portas lógicas é conhecido pela tabela verdade que apresenta os
estados lógicos das entradas e das saídas.

Índice
[esconder]

• 1 História
• 2 Tipos
• 3 Ver também

• 4 Ligações externas

[editar] História
Em 1854, o matemático britânico George Boole (1815 - 1864), através da obra
intitulada An Investigation of the Laws of Thought (Uma Investigação Sobre as Leis do
Pensamento), apresentou um sistema matemático de análise lógica conhecido como
álgebra de Boole.

No início da era da eletrônica, todos os problemas eram resolvidos por sistemas


analógicos, isto é, sistemas lineares.

Apenas em 1938, o engenheiro americano Claude Elwood Shannon utilizou as teorias


da álgebra de Boole para a solução de problemas de circuitos de telefonia com relés,
tendo publicado um trabalho denominado Symbolic Analysis of Relay and Switching,
praticamente introduzindo na área tecnológica o campo da eletrônica digital.

Esse ramo da eletrônica emprega em seus sistemas um pequeno grupo de circuitos


básicos padronizados conhecidos como Portas Lógicas.

[editar] Tipos
Símbolo (Norma Símbolo (Norma Função
Tipo Tabela verdade
ANSI) IEC) booleana
ENTRADA SAÍDA
A B A AND B
0 0 0
AND 0 1 0
1 0 0
1 1 1
ENTRADA SAÍDA
A B A OR B
0 0 0
OR A+B 0 1 1
1 0 1
1 1 1

ENTRADA SAÍDA
A NOT A
NOT 0 1
1 0

ENTRADA SAÍDA
A NAND
A B
B
0 0 1
NAND
0 1 1
1 0 1
1 1 0

ENTRADA SAÍDA
A B A NOR B
0 0 1
NOR 0 1 0
1 0 0
1 1 0

ENTRADA SAÍDA
A B A XOR B
0 0 0
XOR 0 1 1
1 0 1
1 1 0

ENTRADA OUTPUT
A XNOR
A B
B
0 0 1
XNOR
0 1 0
1 0 0
1 1 1

[editar] Ver também


Multiplexador
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Este artigo ou seção precisa ser wikificado (desde
Dezembro de 2010).
Por favor ajude a formatar este artigo de acordo com as
diretrizes estabelecidas no livro de estilo.

O Wikilivros tem um livro chamado Eletrônica Digital/Multiplexadores

A Wikipédia possui o portal:


Portal de eletrônica

A função básica de um multiplexador é combinar múltiplas entradas num único terminal


de dados. No lado da recepção um demultiplexador divide o fluxo único de dados nos
sinais múltiplos originais.

Um multiplexador. multiplexer, mux ou multiplex é um dispositivo que codifica as


informações de duas ou mais fontes de dados num único canal. São utilizados em
situações onde o custo de implementação de canais separados para cada fonte de dados
é maior que o custo e a inconveniência de utilizar as funções de
multiplexação/demultiplexação. Numa analogia física, consideremos o comportamento
de viajantes que atravessam uma ponte com largura pequena, para atravessarem, os
veículos executarão curvas para que todos passem em fila pela ponte. Ao atingir o fim
da ponte eles separaram-se em rotas distintas rumo a seus destinos.

Em eletrônica, o multiplexer combina um conjunto de sinais eléctricos num único sinal


elétrico. Existem diferentes tipos de multiplexers para circuitos analógicos e digitais.

Em processamento de sinais digitais, o multiplexer obtém fluxos de dados distintos e


combina-os num único fluxo de dados com uma taxa de transferência mais elevada. Isto
permite que múltiplos fluxos de dados sejam transportados de um local para outro
através de uma única ligação física, o que reduz os custos.

Na porção receptora da ligação de dados é comum ser necessário um demultiplexer ou


demux para dividir o fluxo de dados com uma taxa de transferência elevada nos seus
respectivos fluxos de dados com taxas de transferências menores. Em alguns casos, o
sistema de recepção pode possuir mais funcionalidades que um simples demultiplexer, e
apesar de um demultiplexer existir logicamente, ele pode não existir fisicamente. Isto
seria típico onde um multiplexer serve um grande número de usuários de uma rede IP e
então alimenta um router que imediatamente analisa o conteúdo de todo o fluxo de
dados no seu processador de roteamento e então efectua a demultiplexação na memória,
de onde os dados serão convertidos directamente para pacotes de IP.

É comum combinar um multiplexer e um demultiplexer num único equipamento e fazer


referência a todo o equipamento como um "multiplexer". Ambas as partes do
equipamento são necessárias em ambas as partes de uma ligação de transmissão pois a
maioria dos sistemas efectua transmissões bidireccionais, realizando transmissão e
recepção.

Um exemplo prático é o criação da telemetria para realizar a transmissão entre o sistema


de computação/instrumentação de um satélite ou nave espacial e um sistema na Terra.

No projecto de um circuito analógico, um multiplexer é um tipo espacial de comutador


que conecta um sinal seleccionado de um conjunto de entradas a uma única saída.

[editar] Multiplexers digitais


No projecto de circuitos digitais, o multiplexer é um dispositivo que possui múltiplos
fluxos de dados na entrada e somente um fluxo de dados na saída. Ele envia um sinal de
activo aos terminais de saída baseado nos valores de uma ou mais "entradas de
selecção" e numa entrada escolhida. Por exemplo, um multiplexer de duas entradas é
uma simples conexão de portas lógicas cuja saída S é tanto a entrada A ou a entrada B
dependendo do valor de uma entrada C que selecciona a entrada. A sua equação
booleana é:

a qual pode ser expressa como a seguinte tabela verdade:


As figuras acima mostram esquemas eléctricos de multiplexers de 4 para 1 linhas,
uma montada a partir de um descodificador, portas AND e uma porta OR, e o outro
montado a partir de buffers tristate e portas AND (a portas AND atuam como o
descodificador no segundo caso)

0 0 0 0 0 0
0 0 1 0 0 0
0 1 0 0 0 0
0 1 1 0 1 1
1 0 0 1 0 1
1 0 1 0 0 0
1 1 0 1 0 1
1 1 1 0 1 1

Multiplexers maiores também são comuns. Por exemplo, um multiplexer de 8 entradas


possui oito entradas de dados e três entradas de selecção. As entradas de dados são
numeradas de X0 até X7, e as entradas de selecção são numeradas como S4, S2, e S1. Se
S4 e S1 são verdadeiros, e S2 é falso, por exemplo, a saída será igual ao valor da entrada
X5. S1 é muitas vezes chamado entrada "mais significativa", com saídas menos
significativas à sua direita. A entrada mais à esquerda é a mais significativa do
multiplexer. Esta ordem é uma convenção para igualar a ordem padrão de uma tabela da
verdade. Existem outros pontos fortes de se usar um multiplexador que se refere ao
custo benefício do equipamento projetado.

Decodificador de endereços
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Um demux 2-para-4 linhas.

Em eletrônica digital, um decodificador de endereços (ou descodificador, em


Portugal) é um circuito que possui dois ou mais bits de um barramento de endereços
como entradas e que possui um ou mais dispositivos de seleção de linhas como saída.
Quando os endereços para um dispositivo em particular aparecem no barramento de
endereços, o decodificador de endereços confirma a linha de seleção para aquele
dispositivo. Um decodificador de endereços separado de dispositivo único pode ser
incorporado em cada dispositivo em um barramento de endereços, ou um decodificador
de endereço único pode servir múltiplos dispositivos. No último caso, um decodificador
de endereços com N bits de endereços de entrada pode servir a até 2N dispositivos
separados. Vários membros da série 7400 de CIs são decodificadores de endereços. Um
exemplo é o TTL 74154. Este decodificador de endereços possui quatro endereços de
entrada e 16 (isto é, 24 ) linhas de seleção de saída. Um decodificador de endereços
também é denominada de "demultiplexador" ou "demux," embora estes termos sejam
mais genéricos e possam referir-se a outros dispositivos além de decodificadores de
endereços. O TTL 74154 acima mencionado pode ser chamado de "demux 4-para-16".

Decodificadores de endereços são blocos de construção fundamentais para sistemas que


usem barramentos. Eles estão representados em todas as famílias de circuitos integrados
e em todas as bibliotecas-padrão FPGA e ASIC. São discutidos em textos introdutórios
em design de lógica digital.

[editar] Ligações externas

Demultiplexador
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

A Wikipédia possui o portal:


Portal de eletrônica

A função básica de um multiplexador é combinar múltiplas entradas num único terminal


de dados. No lado da recepção um demultiplexador divide o fluxo único de dados nos
sinais múltiplos originais.

Um demultiplexador, demultiplexer, demux ou demultiplex é um dispositivo que


executa a operação inversa do multiplexador, isto é, distribui informações de uma única
entrada para uma das diversas saídas.

Você pode aprender a diferença entre Multiplexador e Demultiplex. Por exemplo pense
em um cinema. Quando você chega la existe várias salas para você assistir seu filme, ou
seja, na verdade o cinema não é um Multiplex e sim um Demultiplex. Assim se torna
fácil de você aprender a diferença.

[editar] Ver também


• Decodificador de endereços
• Multiplexador

Circuito aritmético
Origem: Wikipédia, a enciclopédia livre.

(Redirecionado de Circuitos aritméticos)

Ir para: navegação, pesquisa


Circuito aritmético é um tipo de circuitos combinacionais que executa operações de
subtração, adição, multiplicação, divisão, and lógico, or lógico ou qualquer outra função
que possa ser implementada num circuito combinacional. São chamadas de ULA
(unidade lógica aritmética) ou ALU do inglês.

Índice
[esconder]

• 1 Circuito Somador
• 2 Circuito Subtrator
o 2.1 Subtração Binária

o 2.2 Meio Subtrator

[editar] Circuito Somador


Adição Binária

A adição binária(0 1) é igual à decimal (0 1 2 3 4 5 6 7 8 9), inclusive no "Vai-Um"


(Carry Out, de saída, e Carry In, de entrada). Quando somamos dois números binário
começamos pela coluna menos significativa(que representa unidade entre centena,
dezena, etc.).

1+0=1

0+1=1

0+0=0

1 + 1 = 10 Lê-se "UM" "ZERO"

Meio Somador

Bloco Meio Somador


Como começamos pela coluna menos significativa ele não tem o Carry In, de entrada.
Para isso usamos o Circuito Meio Somador.

Somador Completo

Bloco Somador Completo

O Somador completo ao contrário do Meio somador possui Carry In. Ele é utilizado
para somar números de pelo menos 2 casas. Isso é possível Cascateando um Meio-
Somador com Somadores Completos.

[editar] Circuito Subtrator


[editar] Subtração Binária

Na subtração procede-se da mesma maneira que na subtração decimal, porém o "Vai-


Um" é colocado no algarismo de baixo.

[editar] Meio Subtrator

O circuito subtrator é o circuito que executa a subtração binária, porém este tipo de
circuito não possui o Carry In (apesar de ter Carry Out). É utilizado para subtrações de
apenas dois bits ou inícios de cascateamento de circuitos subtratores completos.
Amplificador operacional
Origem: Wikipédia, a enciclopédia livre.

Ir para: navegação, pesquisa


Um amplificador operacional 741 num encapsulamento metálico TO-5.

Um amplificador operacional ou amp op é um amplificador com ganho muito


elevado. Tem dois terminais de entrada: um terminal designado por terminal inversor(-)
e o outro identificado por terminal não inversor(+). A tensão de saída é a diferença entre
as entradas + e - , multiplicado pelo ganho em malha aberta:

A saída do amplificador pode ser única ou diferencial, o que é menos comum. Os


circuitos que utilizam amp ops frequentemente utilizam a realimentação negativa
(negative feedback). Porque devido ao seu ganho elevado, o comportamento destes
amplificadores é quase totalmente determinado pelos elementos de realimentação
(feedback).

Índice
[esconder]

• 1 História
o 1.1 Os amplificadores operacionais modernos
• 2 O amplificador operacional ideal
• 3 Notação
• 4 Uso no projeto de sistemas eletrônicos
o 4.1 Comportamento em Corrente Contínua
o 4.2 Comportamento em Corrente Alternada
• 5 O circuito básico do amp op
• 6 Limitações dos amp ops
• 7 Circuito interno do 741
o 7.1 Fontes de corrente
o 7.2 Estágio de entrada diferencial
o 7.3 Estágio de ganho classe A
o 7.4 Estágio anterior da saída
o 7.5 Estágio da saída
• 8 Ver também

• 9 Ligações externas

[editar] História

GAP/R's K2-W: AmpOp com válvulas (1953).

GAP/R's modelo P45: AmpOp com transístores (1961).

GAP/R's modelo PP65: AmpOp com transístores incorporados numa


embalagem comum (1962).
ADI's HOS-050: AmpOp em Circuito Integrado híbrido de alta velocidade
(1979).

O amplificador operacional recebeu este nome porque foi projectado inicialmente para
realizar operações matemáticas utilizando a tensão como uma analogia de uma outra
quantidade. Esta é a base dos computadores analógicos onde os amp ops eram utilizados
para realizar as operações matemáticas básicas (adição, subtração, integração,
diferenciação, e outras). Neste sentido, um verdadeiro amplificador operacional é um
elemento do circuito ideal. Os amplificadores reais utilizados, feitos de transístores,
válvulas, ou outros componentes amplificadores, são aproximações deste modelo ideal.

Os amp ops foram desenvolvidos na era das válvulas termoiônicas, onde eles eram
usados em computadores analógicos. Os amp op modernos são normalmente
construídos em circuitos integrados, apesar de ocasionalmente serem feitos com
transistores discretos, e geralmente possuem parâmetros uniformes com
encapsulamentos e necessidades de alimentação padronizados, possuindo muitos usos
na eletrônica.

A maioria dos amp ops simples, duplos ou quadruplos disponíveis possuem uma
pinagem padronizada que permite que um tipo seja substituído por outro sem mudanças
na pinagem. Um amp op específico pode ser escolhido pelo seu ganho em malha aberta,
largura de banda, nível de ruído, impedância de entrada, consumo da potência, ou uma
combinação de alguns destes fatores. Historicamente, o primeiro amp op integrado a
tornar-se largamente disponível foi o Fairchild UA-709, no final dos anos 60, porém
isto foi rapidamente modificado pela performance superior do 741, que é mais fácil de
utilizar, e provavelmente o mais conhecido da eletrónica - todos os principais
fabricantes produzem uma versão deste chip clássico. O 741 possui transístores
bipolares, e segundo os padrões modernos possui uma performance considerada média.
Projectos melhorados baseados no transístor FET surgiram no final dos anos 70, e as
versões com MOSFET no início dos anos 80. Há ainda os chamados amp ops Bi-FET,
que combinam transístores bipolares e MOSFETs, e que aproveitam as melhores
características de ambos. Bi-FETs típicos são os CA3130 e CA3140 da RCA.

[editar] Os amplificadores operacionais modernos


AmpOp em embalagem DIP (Dual In-Line Package) - apresentação actual.

A maioria dos amplificadores de propósito geral são vendidos a menos de um euro cada.
Os projetos modernos são feitos considerando uma série de irregularidades de modo que
muitos amp ops produzidos podem aguentar curto-circuitos nas suas saídas sem nenhum
dano.

Uma das chaves para a usabilidade destes circuitos está no princípio da engenharia de
realimentação, particularmente a realimentação negativa, que constituiu a fundação de
praticamente todos os controle de processos automáticos. Os princípios mostrados aqui
ilustram parte do foco da eletrônica. É importante perceber que o amp-ops padrão usado
nos circuitos é mostrado com o idealismo da caixa negra (uma caixa com apenas
entradas e saídas). Os amp-ops reais são circuitos integrados complexos.

[editar] O amplificador operacional ideal


O amplificador operacional ideal tem um ganho infinito em malha aberta, largura de
banda infinita, impedância de entrada infinita, impedância de saída nula e nenhum
ruído, assim como offset de entrada é zero (exactamente 0 V na saída quando as duas
entradas forem exatamente iguais) e nenhuma interferência térmica. Os circuitos
integrados de amp ops utilizando MOSFETs são os que mais se aproximam destes
valores ideais em limites de largura de banda.

O amplificador operacional é provavelmente o dispositivo único mais bem sucedido na


área de circuitos eletrônicos analógicos. Com apenas alguns poucos componentes
externos, ele pode ser ajustado de modo a fazer uma grande variedade de funções em
processamento de sinal. Também possui um preço relativamente baixo.

[editar] Notação
Um símbolo elétrico para o amplificador operacional é mostrado abaixo:

Os seus terminais são:

• V+: entrada não-inversora


• V−: entrada inversora
• Vout: saída
• VS+: alimentação positiva
• VS−: alimentação negativa

Os pinos de alimentação (VS+ e VS−) podem ser nomeados de diferentes formas. Ver
pinos de alimentação dos CIs. Para amp ops baseados em tecnologia FET, o positivo, ou
alimentação de dreno comum é chamada do VDD e o negativo, ou alimentação de fonte
comum é chamado de VSS. Para amp ops baseados em TJB (BJT), o pino VS+ torna-se
VCC e o pino VS− torna-se VEE. Eles são muitas vezes chamados VCC+ e VCC−, ou mesmo
V+ e V−, no caso de as entradas serem nomeadas diferentemente, a função permanecerá
a mesma. Muitas vezes estes pinos são retirados dos esquemas elétricos para uma maior
clareza, e a configuração de alimentação é dada ou previsível através do circuito.

A posição dos pinos de polaridade pode ser invertida em diagramas para uma maior
clareza. Neste caso, os pinos de alimentação continuaram na mesma posição: o pino de
alimentação mais positivo é sempre no topo, e o pino de alimentação mais negativo na
parte inferior. O símbolo inteiro não é invertido, apenas as suas entradas de
alimentação.

[editar] Uso no projeto de sistemas eletrônicos


A possibilidade de usar os modelos em blocos dos amplificadores operacionais durante
o projeto de circuitos faz com que circuitos complicados se tornem mais simples para se
trabalhar e compreender, especialmente em esquemas muito grandes. Os amp ops
podem ser usados como se tivessem propriedades idealizadas (ganho infinito, dissipação
de calor perfeita, resposta de frequência estável, impedância de entrada infinita,
impedância de saída nula, e outras respostas ideais).

Após o projeto inicial do circuito ter sido concluído (e muitas vezes modelado em
computador), amp ops específicos são escolhidos de modo a serem o mais próximo
possível dos critérios de projeto e de custo. Pode ocorrer que um amp op com todos os
parâmetros desejados não possa ser encontrado e então procura-se o amplificador
operacional que mais se aproxime da sua função pretendida no seu sub-circuito.

O circuito projetado provavelmente precisará de modificações para aceitar as qualidades


dos amplificadores operacionais reais (performance menos-que-perfeita em muitas
áreas). O mesmo é feito para praticamente todas as partes eletrônicas durante do
desenvolvimento do projeto (onde estas também são utilizadas como perfeitas), isto
deve ser feito de modo a fazer com que os componentes reais ajam o mais próximo
possível dos ideais. Este processo de desenvolver os circuitos com partes ideais e então
ajusta-las de acordo com suas versões reais é comumente verdadeiro em todos os
componentes eletrónicos incluindo capacitores, indutores, resistências, transistores,
diodos, etc.

Após as modificações necessárias, o resultado é um circuito final utilizando amp ops


ideais. O objetivo do projeto é que qualquer erro ou discrepância restante seja
insignificante na prática.

[editar] Comportamento em Corrente Contínua

O ganho em malha aberta é definido como a amplificação da entrada para a saída sem
nenhuma realimentação (feedback) aplicada. Para a maioria dos cálculos práticos, o
ganho em malha aberta é definido como infinito; na realidade, entretanto, ele é limitado
pela quantidade de tensão aplicada à alimentação do amplificador operacional,
(terminais Vs+ e Vs- no diagrama acima). Os dispositivos típicos possuem um ganho de
malha aberta em Corrente Contínua entre 100,000 e 1 milhão. Isto permite que o ganho
da aplicação seja ajustado utilizando a realimentação negativa. Os amp ops possuem
limites de performance que o projetista deve manter em mente e muitas vezes trabalhar
em torno disto.

[editar] Comportamento em Corrente Alternada

O ganho do amp op calculado em CC não se aplica a corrente alternada a frequências


mais altas. Isto ocorre devido às limitações do componente, tais como sua largura de
banda finita, e às características em CA do circuito ao qual é colocado. O problema
mais bem conhecido no desenvolvimento de projetos com amp ops é a tendência de
estes ressonarem a Altas frequências, em que mudanças na realimentação negativa
mudam para realimentação positiva devido à mudança de fase.

Os amp ops típicos, de baixo custo possuem uma largura de banda de alguns MHz. Amp
ops específicos e de alta velocidade podem atingir uma largura de banda de centenas de
MHz. Para circuitos de frêquência muito alta, um tipo completamente diferente de amp
op, chamado amplificador operacional de realimentação de corrente é frequentemente
usado.

[editar] O circuito básico do amp op


O amplificador operacional genérico possui duas entradas e uma saída. A tensão de
saída é um múltiplo da diferença entre as duas entradas (alguns são feitos com saídas
diferenciais flutuantes):

G é o ganho em malha aberta do amp op. Assumimos que as entradas possuem


impedância muito alta; uma corrente desprezível irá fluir para dentro e para fora das
entradas. As saídas do amp op possuem uma impedância muito baixa.

Se a saída é conectada à entrada inversora, após passar por um divisor de tensão, então:

logo:
Definindo o ganho de realimentação de malha fechada como vemos que o
resultado é um amplificador linear com ganho:

Se G é muito grande (em geral está na ordem de grandeza de 100.000), se

aproxima de .

Esta conexão de realimentação negativa, também chamada de configuração de


amplificador não inversor, é o uso mais comum de um amp op, porém muitas
configurações diferentes são possíveis, fazendo dele um dos mais versáteis blocos de
construção em eletrônica.

Quando conectado em uma configuração de realimentação negativa, o amp op irá tentar


mudar a tensão de Vout de modo a deixar as tensões de entrada iguais. Isto, aliado à alta
impedância de entrada, são muitas vezes chamados de "as duas regras douradas" dos
pojetos com amp ops (para circuito que utilizam realimentação):

1. Nenhuma corrente irá fluir nas entradas.


2. As tensões, ou seja os potenciais em relação ao terra, nas duas
entradas serão iguais (nos casos em que há realimentação da tensão
da saída na entrada).

Uma exceção ocorre caso a tensão necessária para esta situação seja maior do que a
alimentação do amp op, neste caso a tensão do sinal de saída se fixa perto dos extremos
da alimentação, VS+ ou VS−.

[editar] Limitações dos amp ops


Apesar de a maioria dos circuitos com amplificadores operacionais se basearem nas
"regras douradas" descritas acima, os projetistas também devem estar atentos ao fato de
nenhum amp op real poder atingir estas carecterísticas exatamente. Abaixo são listadas
algumas da limitações dos amp ops reais, assim como o modo como estas afetam o
projeto dos circuitos.

Imperfeições em CC:

• Ganho finito - este efeito é mais evidente quando se tenta atingir um


ganho próximo ao ganho inerente do amp op.
• Impedância de entrada finita - isto limita superiormente as
resistências no circuito de realimentação.
• Impedância de saída maior que zero - importante para cargas de
baixa resistência. Exceto para saídas de baixa voltagem, as
considerações com consumo geralmente são mais importantes.
• corrente de entrada - uma pequena quantia de corrente (tipicamente
~10 nA) fluindo nos pinos de entrada é necessária para o
funcionamento apropriado. Este efeito é agravado pelo fato de a
corrente se levemente diferente entre os pinos de entrada. Este
efeito geralmente é so importante para circuito de potência muito
baixa.
• Tensão de offset de entrada - o amp op irá produzir uma tensão de
saída mesmo que os pinos de entrada estejam com exatamente a
mesma voltagem. Para circuitos que necessitam de uma operação
precisa em corrente contínua, este efeito deve ser compensado. A
maioria dos amp ops comerciais dispõe de um pino de offset para
este propósito.

Imperfeicões em CA:

• Largura de banda Finita - todos os amplificadores possuem uma


largura de banda finita. Entretanto isto é mais evidente nos amp ops,
que utilizam compensação de frequência interna para evita a
produção não intencional de realimentação positiva.
• Capacitância de entrada - o mais importante para a operação em alta
frequência.

Imperfeições não-lineares:

• Saturação[desambiguação necessária] - a tensão de saída é limitada a um valor


de pico levemente menor do que o valor da tensão de alimentação.
• Taxa de renovação - a taxa de mudança da tensão de saída é limitada
(geralmente pela compensação interna utilizada)

Considerações em potência:

• Potência elétrica limitada - se uma saída com um alto valor de


potência é desajada, deve-se utilizar um amp op específicamente
projetado para este propósito. A maioria dos amp ops são
desenvolvidos para operações de baixa potência e são tipicamente
capazes de alimentar cargas de resistência com o valor mínimo de 2
kilohms.
• Proteção contra curto-circuito - isto caracteriza mais uma capacidade
do que uma limitação, apesar de impor limites nos projetos. A maioria
dos amp ops comerciais limitam a corrente de saída quando ela
excede um valor específico (cerca de 25 mA para o 741).

[editar] Circuito interno do 741


Apesar de ser fácil e prático utilizar os amplificadores operacionais como blocos com
características de entrada/saída perfeitas, é importante conhecer as funções internas, de
modo a poder lidar com problemas que podem surgir devido a limitações de projeto
internas.

O circuito varia entre os produtores e fabricantes, porém todos os amp ops possuem
basicamente a mesma estrutura interna, que consiste de três estágios:

1. Amplificador diferencial
o Estágio de entrada - provê amplificação com baixo ruído, alta
impedância de entrada, geralmente com uma saída diferencial
2. Amplificador de tensão
o Provê um alto ganho de tensão,geralmente com uma única
saída
3. Amplificador de saída
o Estágio de saída - provês a capacidade de fornecer alta
corrente, baixa impedância de saída, limite de corrente e
proteção contra curto-circuito

[editar] Fontes de corrente

As seções tracejadas em vermelho são as fontes de corrente. A corrente primaria, da


qual as outras correntes estáticas são geradas, é determinada pela alimentação do chip e
pelo resistor de 39 kΩ atuando (em conjunto com as duas junções de diodo dos
transistores) como uma fonte de corrente. A corrente gerada é de aproximadamente (VS+
− VS− − 2Vbe) / 39 kΩ.

As condições em CC do estágio de entrada são controladas pelas duas fontes de corrente


à esquerda. A fonte formada por Q8/Q9 permite voltagens de modo-comum maiores nas
entradas sem exceder a faixa ativa de nenhum transistor no circuito. A fonte de corrente
formada por Q10/Q11 é usada, indiretamente, para determinar a corrente no estágio de
entrada. A corrente é determinada pelo resistor de 5 kΩ. A controle do estágio de
entrada ocorre da seguinte maneira:

As saídas das fontes de corrente Q8/Q9 e Q10/Q11 juntas formar um circuito


diferenciador de corrente com alta impedância. Se o estágio de entrada tende a desviar
(como detectado por Q8) do valor definido por Q10, isto é refletido por Q9 e qualquer
mudança do circuito é corrigida alterando a voltagem nas bases de Q3 e Q4. Desta
maneira, as condições de CC do estágio de entrada são estabalecida por um sistema de
realimentação negativa de alto ganho.
A fonte de corrente no topo à direita, formada por Q12/Q13 provê uma carga de
corrente constante para o estágio de ganho classe A, através do coletor de Q13, que é
largamente independente da tensão de saída.

[editar] Estágio de entrada diferencial

A seção trecejada em azul é o amplificador diferencial. Q1 e Q2 são seguidores de


emissor e junto com o par base comum composto por Q3 e Q4, formam o estágio de
entrada diferencial. Além disso, Q3 e Q4 funcionam também como registradores de
nível e provêem ganho de tensão para alimentar o amplificador classe A. Eles também
ajudam a aumentar a taxa de Vbe reverso nos transistores de entrada.

O amplificador diferencial formado por Q1 - Q4 comanda uma fonte de corrente de


carga ativa formadas pelos transistores Q5 - Q7. Q7 aumenta a precisão da fonte de
corrente pela redução da quantia de corrente de sinal necessária para Q3 controlar as
bases de Q5 e Q6. Esta fonte de corrente provê a conversão de estágio diferencial para
saída única, como segue:

A corrente de sinal de Q3 é a entrada para a fonte de corrente, enquanto a saída da fonte


(o coletor do Q6) é conectada ao coletor de Q4. Ali, as correntes de sinal de Q3 e Q4
são somadas. Para sinais de entrada diferencial, os sinais de corrente de Q3 e Q4 são
iguais e opostos. Desse modo, a soma é o dobro das correntes individuais. Isto complete
a conversão para uma saída única.

A tensão de sinal para um circuito aberto sobre este ponto é dada pelo produto das
correntes de sinal somadas pelo valor da associação paralela entre as resistências dos
coletores de Q4 e Q6. Como os coletores de Q4 e Q6 aparecem como altas resistências à
corrente de sinal, o ganho de tensão de circuito aberto é muito alto.

Deve se notar que a corrente de base nas entradas não é zero, e que a impedância efetiva
das entradas diferenciais do 741 é de cerca de 2 MΩ Os pinos de ajuste de offset (offset
null) podem ser usados em conjunto com um potenciômetro para remover qualquer
voltagem de offset que iria existir na saída do amp op quando o sinal aplicado entre as
entradas fosse igual a zero.

[editar] Estágio de ganho classe A

A área tracejada em rosa é o estágio de ganho classe A. Ele consiste de dois transistores
NPN em uma configuração Darlington e utilizam a saída de fonte de corrente como a
sua carga de coletor para obter um alto ganho. O capacitor de 30 pF provê uma
realimentação negativa variavel com a frequência no estágio de ganho classe A para
estabilizar o amplificador em configurações de realimentação. Está técnica é chamada
de compensação Miller e funciona de uma maneira similar ao circuito integrador com
amp op. Esta é também conhecida como compensação de pólo dominante, porque
introduz um pólo dominante (que mascara os efeitos dos outros pólos) na resposta de
frequência em malha aberta. Esto pólo pode ser baixo como 10 Hz em um amplificador
741 e introduz uma perda de −3 dB na resposta em malha aberta a esta frequência. Isto é
feito para conseguir estabilidade incondicional no amplificado até o ganho unitário de
malha fechada e torna esta tipo de amplificador mais fácil de se utilizar.
[editar] Estágio anterior da saída

A seção tracejada em verda (baseada ao redor de Q16) é um chaveador de nível de


voltagem ou um multiplicador de VBE; uma espécie de fonte de tensão. No circuito
motrado, Q16 provê uma constante queda de tensão entre seu coletor e emissor
independente da corrente que passe pelo circuito. Se a corrente de base no transistor for
tida como zero, e a tensão entre base e emissor (e através do resistor de 7.5 kΩ) for de
0.625 V (um valor típico em uma transistor bipolar na região ativa), então a corrente
que flui através do resistor de 4.5 kΩ irá ser a mesma que a do resistor de 7.5 kΩ, e irá
produzir uma tensão de 0.375 V através dela. Isto mantém a voltagem no transisto, e
nos dois resistores em 0.625 + 0.375 = 1 V. Isto serve para polarizar os dois transistores
de saída levemente para prevenir a distorção por crossover. Em alguns amplificadores
com componentes discretos esta função é obitica com (geralmente 2) diodos de silício.

[editar] Estágio da saída

O estágio de saída (tracejado em ciano) é um amplificado seguidor de emissor Classe


AB push-pull (Q14, Q20) com a entrada definida pela fonte de voltagem VBE de Q16 e
seus resistores de base. Este estágio e efetivamente controlado pelos coletores de Q13 e
Q19. A faixa de saída do amplificador é de cerca de 1 volt a menos do que a tensão de
alimentação, definido em parte pelo Vce(sat) dos transistores de saída.

O resistor de 25 ohms no estágio de saída atua com um sensor de corrente para prover a
função de limite de corrente de saíra que limida o fluxo de corrente no seguidor de
emissor Q14 para cerca de 25 mA no caso do 741. A limitação de corrente para a saída
negativa é feita sentindo-se a voltagem no resistor do emissor do Q19 e utilizando isto
para reduzir a carga na base de Q15. Versões posteriores deste esquema de amplificador
podem mostrar um método levemente diferende de limitar a corrente de saída. As
resistência de saída não é zero como seria em um amp op ideal, porem com a
realimentação negativa ela se aproxima a zero.

Amplificador diferencial
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Esquema elétrico de um amplificador diferencial.

Um amplificador diferencial é um tipo de amplificador eletrônico que multiplica a


diferença entre duas entradas por um valor constante (o ganho diferencial). Um
amplificador diferencial é o estágio de entrada da maioria dos amplificadores
operacionais. Dadas duas entradas e , um amplificador diferencial perfeitamente
simétrico dá uma saída Vout:

onde Ad é o ganho de modo diferencial.

Amplificadores práticos nunca são perfeitamento simétricos, o que significa que o


amplificador produz uma tensão de saída mesmo que as duas entradas tenham o mesmo
potencial (o chamado 'modo comum') O Ganho de modo comum, Ac:

A razão de rejeição de modo comum é comumente definida como a razão entre o ganho
de modo diferencial e o ganho de modo comum:
Um amplificador diferencial é uma forma de circuito mais geral do que o amplificador
com uma única entrada; pois ligando uma das entradas do amplificador diferencial à
massa, temos como resultado um amplificador de uma saída.

Os amplificadores diferenciais são encontrados em muitos sistemas que utilizam


realimentação negativa, aonde uma entrada é utilizada para o sinal de entrada, e a outra
para o sinal de realimentação. Uma aplicação comum é o controle de motores ou
servomecanismos, assim como para aplicações com amplificação de sinais. Em
eletrônica discreta, um modo comum da implementação dos amplificadores diferenciais
é a saída longa, que é muito utilizada como o elemento diferencial na maioria dos
circuitos integrados de amplificadores operacionais.

[editar] Ver também

Potrebbero piacerti anche