Lomadee, uma nova espécie na web. A maior plataforma de afiliados da América Latina.

quinta-feira, 13 de janeiro de 2011

Configurando o modem ADSL

Introdução

Os primeiros modems ADSL ofereciam apenas a função básica, que é modular o sinal, permitindo que um PC ligado a ele possa acessar a web. Com o passar do tempo, a popularização da tecnologia e o barateamento dos componentes possibilitaram o lançamento de modems com cada vez mais recursos, incluindo funções de roteador, firewall, suporte a QoS e outros recursos, que hoje em dia são padrão mesmo nos modelos mais baratos.

index_html_7f4168be
Não seria viável ter que instalar um teclado, mouse e monitor no modem ADSL para ter acesso à interface de configuração. Em vez disso, o modem inclui um mini-servidor web, que disponibiliza um conjunto de páginas web com as opções disponíveis.
Como não existe uma interface de configuração padrão para modems ADSL, cada fabricante apresenta as funções de um jeito diferente, o que, combinado com a fraca documentação e o fraco suporte prestado pelas operadoras e pelos provedores de acesso, faz com que a configuração dos modems ADSL pareça mais complicada do que realmente é.
Vamos então a um resumo das opções disponíveis e alguns exemplos de configuração:

O básico

O modem ADSL pode ser configurado através de uma interface de configuração, que fica acessível por padrão apenas a partir da rede local. Em primeiro lugar, crie a comunicação física entre o PC e o modem, ligando-os através de um cabo cross-over ou um hub/switch.
O modem vem de fábrica com um endereço IP padrão, como, por exemplo, 10.0.0.138 ou 192.168.1.1 e uma senha de acesso simples, como "1234" ou "admin". Muitas vezes, as operadoras alteram as senhas dos modems, para impedir que o usuário o reconfigure para trabalhar como roteador. Nesse caso, você vai ter o trabalho de pesquisar na web quais as senhas usadas pela operadora e testar uma a uma até achar a usada no seu modem, uma dor de cabeça a mais. Felizmente essa prática vem se tornando menos comum.
A configuração padrão varia de modem para modem, por isso é importante ter em mãos o manual do seu. Se o modem utilizar uma faixa de endereços diferente da utilizada na rede, basta alterar a configuração de rede do micro, para que ele utilize um endereço dentro da mesma faixa utilizada pelo modem. A partir daí você pode acessá-lo usando o navegador.
A configuração do modem é dividida em duas seções principais: LAN e WAN. Imagine que o modem ADSL é na verdade um mini-roteador, que possui duas interfaces de rede: a interface ADSL (WAN), onde vai o cabo telefônico e uma interface de rede local (LAN), que é ligada ao switch da rede.
Na seção LAN vai a configuração da rede local, incluindo o endereço IP e a máscara de sub-rede, através da qual o modem fica acessível dentro da rede local. Ao acessar pela primeira vez, não se esqueça de alterar a configuração, para que o modem passe a utilizar um endereço dentro da faixa usada na rede.
Além de permitir acessar a interface de configuração, o endereço definido na configuração do modem passa a ser o gateway padrão da rede ao configurá-lo como roteador. Normalmente utilizamos o primeiro ou o último endereço da rede para o gateway, como em "192.168.1.1" ou "192.168.1.254", mas isso é apenas uma convenção, não uma regra.
index_html_m70e7f972
Quase sempre, está disponível também um servidor DHCP, que deve ser configurado com uma faixa de endereços livres na sua rede. Na configuração, você indica um endereço de início e fim para a faixa usada pelo servidor DHCP, como de 192.168.1.2 a 192.168.1.100 e os demais endereços ficam livres para PCs configurados com IP fixo. É importante enfatizar que você deve ter apenas um servidor DHCP no mesmo segmento de rede, de forma que se você já tem um servidor DHCP ativo na rede, o servidor DHCP do modem deve ser desativado. Aqui temos um exemplo, dentro da configuração do mesmo D-Link 500G do screenshot anterior:
index_html_m7356141a
A opção "Lease Time" dentro da configuração indica o tempo que os endereços serão "emprestados" para as estações. Após esse período, a estação deve renovar o endereço ou deixar de usá-lo. Isso evita que endereços fiquem eternamente reservados a micros que não fazem mais parte da rede.
Em seguida temos a configuração dos endereços DNS que serão fornecidos aos clientes. Aqui temos um segundo exemplo, na configuração de um modem Kayomi LP-AL2011P (que é, na verdade, um Conexant Hasbani), onde a configuração dos endereços de rede e do servidor DHCP são unificadas em uma única seção:
index_html_m65df7bd6
Nos modems atuais, a interface de configuração é sempre acessada usando o navegador, mas em alguns modelos antigos (como no Parks Prestige) era usada uma interface em modo texto, acessada via telnet, usando o terminal (no Linux) ou o prompt do MS-DOS (no Windows), como em:
$ telnet 192.168.1.1
Trying 192.168.1.1...
Connected to 192.168.1.1.
Escape character is '^]'.
Password: [SSL not available] ********
À primeira vista, uma interface em modo texto não parece muito amigável, mas em essência é o mesmo bolo, apenas com uma cobertura diferente. No caso da Interface do Parks Prestige, a configuração da rede e do servidor DHCP vai no menu "3. Ethernet Setup > 2. TCP/IP and DHCP Setup":

index_html_m41ecd231
index_html_m3afb1fed
Dentro da configuração do DHCP, a opção "Client IP Pool Starting Address=" indica o primeiro endereço IP que será atribuído (os números abaixo deste ficam reservados para micros com IP fixo) e o número máximo de clientes que receberão endereços IP (Size of Client IP Pool). Usando um pool de 6 endereços, com início no 192.168.1.33, por exemplo, a faixa iria até o 192.168.1.38, suficiente para uma rede com apenas dois ou três micros.
Depois de terminar, não esqueça de alterar também a senha de acesso, já que as senhas padrões dos modems são bem conhecidas. Embora a interface de configuração não fique disponível para a web (em muitos modems você pode ativar o acesso, mas via de regra ele fica desativado), nada impede que algum usuário da rede, ou algum vizinho que consiga acesso à sua rede wireless resolva pregar peças alterando a configuração do modem.
index_html_75be3a88

Parâmetros da conexão

Em seguida temos a configuração do link ADSL propriamente dito, que vai na seção WAN, que é composta por basicamente duas informações: os códigos VPI e VCI e o sistema de encapsulamento usado pela operadora.
VPI é abreviação de "Virtual Path Identifier" e VCI de "Virtual Circuit Identifier". Juntos, os dois endereços indicam o caminho que o modem ADSL deve usar dentro da rede de telefonia para chegar até o roteador que oferece acesso à web. Você pode imaginar os dois valores como um número de telefone ou como um endereço de rede. Sem indicar os endereços corretamente na configuração do modem, a conexão simplesmente não é estabelecida.
Os valores VPI/VCI usados atualmente no Brasil são:
Telefonica: VPI 8, VCI 35
Telemar: VPI 0, VCI 33
CTBC: VPI 0, VCI 35
Brasil Telecom: VPI 0, VCI 35
Brasil Telecom (no RS): VPI 1, VCI 32
GVT: VPI 0, VCI 35
Você pode confirmar esses valores ligando para o suporte técnico, ou pesquisando na web. É fácil obter estas informações.
Outra informação importante é o tipo de encapsulamento usado, ou seja, o tipo de protocolo que é simulado através do link ADSL. No Brasil é usado quase que exclusivamente o PPPoE encapsulado via LLC, de forma que é esta a configuração que você deve utilizar a menos que seja orientado pela operadora ou o provedor a fazer diferente. Apesar disso, os modems ADSL oferecem diversas outras possibilidades. Vamos entender o que elas significam:
PPPoE: Neste modo o link ADSL se comporta como um link Ethernet, usando o mesmo formato de frame e o mesmo sistema de endereçamento. Sobre este link Ethernet é criada uma conexão ponto a ponto (PPP), que liga seu PC, ou seu modem ADSL ao servidor de acesso remoto, passando pelo DSLAN instalado na central, daí o termo "PPPoE", que significa "PPP over Ethernet".
A conexão PPP simula uma conexão discada. Ao configurar o modem como bridge a "discagem" é feita pelo seu PC, de forma que você precisa ativar e desativar a conexão quando desejado, enquanto que ao configurar o modem como roteador o próprio modem efetua a conexão e roteia os pacotes ao PC, que passa a enxergar uma conexão de rede. O uso do link PPP adiciona uma camada extra de segurança na conexão, permitindo o uso de encriptação e autenticação.
PPPoA: Neste modo o link ADSL se comporta como um link ATM, que é o sistema tradicionalmente usado no sistema telefônico. O protocolo ATM oferece um overhead um pouco menor que o PPPoE, o que aumenta sutilmente o volume de dados "úteis" transportados através do link. Assim como no caso do PPPoE, o link ATM é usado para criar uma conexão PPP, com suporte a autenticação e tudo mais.
O problema é que os equipamentos compatíveis com o ATM são mais caros, de forma que as operadoras preferem utilizar o PPPoE. Outro fator é que no PPPoA o modem ADSL precisa obrigatoriamente ser configurado como roteador, não como bridge. Isso acontece porque no PPPoA o link precisa ser terminado em uma interface ATM. Como usamos placas de rede Ethernet e não ATM, é necessário que o próprio modem atue como terminador e roteie os pacotes para o PC.
Existem diversos mitos com relação ao PPPoA, entre eles que o PPPoA é usado apenas em planos empresariais, ou que ele é usado em conexões com IP fixo, mas na verdade ele indica apenas o tipo de modulação escolhido pela operadora. Tanto o PPPoE quanto o PPPoA suportam autenticação e ambos podem ser utilizados tanto em conexões com IP fixo quanto em conexões com IP dinâmico.
Durante algum tempo, era comum que as operadoras disponibilizassem os dois sistemas, de forma que você podia usar qualquer um na configuração do modem, mas lentamente o suporte ao PPPoA foi retirado, deixando apenas o PPPoE.
Outros sistemas de encapsulamento suportados por alguns modems, mas raramente usados são o MER (MAC Encapsulated Routing) e o IPoA (IP over ATM). Eles podem ser ignorados, pois não são usados por nenhuma operadora nacional.
LLC e VC-Mux: O PPPoE ou o PPPoA são complementados por um segundo sistema de encapsulamento, que indica o protocolo usado. O LLC é o sistema mais comum, pois permite que sejam usados diversos protocolos de rede diferentes (mesmo que simultaneamente) em um único circuito. Em troca, ele adiciona um campo extra de identificação em cada pacote, o que aumenta o overhead da rede.
O segundo sistema é o VC-Mux (também chamado de VC), que oferece um overhead um pouco menor, mas em troca demanda o uso de um circuito separado para cada protocolo, o que aumenta os custos para a operadora. O VC-Mux é usado em alguns países da Europa, mas é extremamente incomum aqui no Brasil.
Aqui temos um exemplo de configuração, na interface do D-Link 500G:
index_html_m72b8a71f
Você pode notar que estão presentes também as opções PVC, Authentication e MTU, que não citei anteriormente.
PVC é abreviação de "Private Virtual Circuit". Normalmente, é usado um único PVC, responsável pelo link com a web, de forma que você simplesmente escolhe "PVC0" na configuração e especifica as demais informações referentes à conexão. É possível para as operadoras incluir mais circuitos virtuais na mesma conexão, usando um segundo circuito para VoIP, por exemplo, mas isso não é comum.
A opção Authentication aceita os valores "PAP e "CHAP", que são os dois protocolos de autenticação usados em conjunto com o PPP. Normalmente, os provedores suportam ambos os protocolos, de forma que tanto faz qual dos dois é escolhido.
A opção MTU permite definir o tamanho dos pacotes enviados através do link ppp, que podem conter até 1492 bytes no PPPoE e até 1500 bytes no PPPoA. Usar um tamanho de pacote menor pode ajudar em links ruins, mas normalmente só serve para reduzir a velocidade da conexão. A menos que tenha um bom motivo, simplesmente use o valor máximo.
Aqui temos um segundo exemplo, com a configuração no Kayomi LP-AL2011P. Veja que ele oferece também a opção de definir um IP estático (que seria usada apenas caso você utilizasse um plano empresarial, com IP fixo). A opção "Mac Spoofing" permite forjar o endereço MAC da interface WAN, como às vezes é necessário para conectar a partir de outro micro nos planos de acesso via cabo:
index_html_m3ee9681c
Se você está curioso sobre a configuração na interface de modo texto do Parks, aqui vai mais um exemplo. Note que ele oferece a opção "IP Address Assignment", que indica se a conexão utiliza IP fixo ou dinâmico. As opções "ISP's Name" e "Service Name" são apenas para dar nome à conexão, sem efeito sobre a configuração:
index_html_m3acf7fdc

Bridge x roteador

A maior parte dos modems ADSL oferecidos pelas operadoras durante o boom inicial do ADSL vinham configurados em modo bridge, onde o modem estabelece o canal de comunicação com o DSLAM na central e cuida da modulação do sinal, mas deixa o processo de autenticação e a criação do link PPP a cargo do PC. É necessário então criar a conexão manualmente e ativá-la sempre que quiser se conectar.
No Windows XP, use o assistente para novas conexões dentro do "Painel de Controle > Conexões de Rede", usando as opções "Conectar-me à Internet > Configurar minha conexão manualmente > Conectar-me usando uma conexão de banda larga que exija um nome de usuário e uma senha". Você tem então acesso ao menu onde pode indicar o login e a senha de acesso:








index_html_mab10758
index_html_57b18a19
Para conectar via PPPoE no Linux é necessário usar o pppoeconf (usado no Debian e derivados) ou o rp-pppoe (usado na maioria das outras distribuições). Muitos utilitários gráficos incluídos nas distribuições servem como interface para um deles.
Ao usar o pppoeconf, chame o utilitário como root. Ele primeiro procura o modem ADSL, testando todas as placas de rede disponíveis, depois contata o modem na central, pede o login e senha, e depois estabelece a conexão.
index_html_m41abc3c3
Depois de conectar pela primeira vez, você pode terminar a conexão usando o comando "poff -a" e reconectar usando o "pon dsl-provider", mesmo depois de reiniciar o micro.
Caso ele não consiga detectar o modem (mesmo que ele esteja ativado e funcionando), pode ser que exista uma conexão anteriormente configurada ativa. Desative-a com o comando "poff -a". Em seguida, desative a interface de rede ligada ao modem ADSL usando o comando ifdown; se o modem estiver ligado à interface eth0, por exemplo, o comando será "ifdown eth0".
Nas distribuições que utilizam o rp-pppoe, use o comando "adsl-setup" para configurar a conexão e "adsl-start" para conectar. Para parar a conexão manualmente, use o comando "adsl-stop".
Nas versões mais recentes, existem dois utilitários, chamados "go" e "go-GUI" que automatizam a configuração. Caso tenha problemas com o rp-pppoe incluído na sua distribuição, experimente baixar a versão mais recente no: http://www.roaringpenguin.com/penguin/pppoe/.
Ao conectar via pppoe, é criada a interface de rede "ppp0", da mesma forma que ao conectar através de um modem discado. A interface "ppp0" substitui temporariamente a interface "eth0" (ou eth1) onde o modem está conectado. É importante entender que neste ponto o sistema não utiliza mais a eth0 para enviar dados, mas sim a ppp0. As duas passam a ser vistas como dispositivos diferentes. Você pode ver a configuração atual das interfaces de rede rodando o comando "ifconfig".
Esta configuração manual é necessária apenas ao usar um modem configurado em modo bridge. Com exceção de alguns modelos antigos, quase todos os modems ADSL podem ser configurados como roteadores, modo onde o próprio modem passa a fazer a autenticação e compartilhar a conexão.
Ao configurar o modem como roteador (router), sua vida fica muito mais simples e você não precisa se dar ao trabalho de usar um micro com duas placas de rede para compartilhar a conexão, já que o modem já faz isso sozinho. Basta ligar todos os micros ao switch e configurar os PCs para utilizarem o endereço IP do modem como gateway padrão, ou simplesmente deixar que o modem os configure via DHCP.
É possível inclusive encontrar modelos que incorporam também um switch de 4 ou até mesmo 8 portas e a função de ponto de acesso wireless, o que permite compartilhar a conexão diretamente, sem a necessidade de usar dispositivos separados.
Em geral os modems ADSL fazem um bom trabalho, eles não oferecem opções mais avançadas, como, por exemplo, incluir um proxy transparente para fazer cache das páginas e arquivos acessados e, assim, melhorar a velocidade de acesso, mas são capazes de fazer o arroz com feijão, como bloquear tentativas de acesso vindas da Internet e redirecionar portas para micros da rede local.
As vantagens de usar o modem configurado como roteador são:
1- Não é preciso usar o pppoeconf para se conectar, nem configurar o compartilhamento da conexão. A conexão é estabelecida pelo próprio modem, basta ligá-lo no hub e configurar os demais PCs para obterem a configuração da rede via DHCP.
2- O modem fica com as portas de entrada, de forma que qualquer tipo de ataque proveniente da Internet é bloqueado pelo próprio modem, antes de chegar nos micros da rede local. O modem serve então como uma camada adicional de proteção.
As desvantagens são:
1- Como as portas de entrada ficam com o modem, é preciso configurar o redirecionamento de portas para que você possa usar qualquer servidor ou programa que precise de portas de entrada. Um exemplo clássico é o bittorrent, que precisa que pelo menos uma das portas entre a 6881 e a 6889 esteja aberta.
2- Ao contrário dos servidores Linux, os modems ADSL não costumam receber atualizações de segurança. Não é impossível que uma brecha de segurança no próprio modem permita que alguém de fora altere a configuração de redirecionamento de portas (por exemplo) e assim consiga ter acesso aos micros da sua rede local. Alguns modems permitem inclusive a instalação de programas adicionais. Do ponto de vista da segurança, um servidor Linux atualizado e bem configurado é mais seguro.
No D-Link 500G dos exemplos anteriores, o modo Bridge é ativado ao configurar a opção "WAN Setting" com o valor "Bridge Mode" (em vez de PPPoE/PPPoA, como no screenshot anterior). Ao fazer isso, a interface deixa de mostrar os campos para o login de usuário e a senha, já que a autenticação passa a ser feita no PC:
index_html_m65ef02c
Atualmente, é muito raro encontrar alguém que prefira utilizar o modem ADSL em modo bridge, já que utilizar o modem como roteador é muito mais simples (já que você configura o modem uma vez e não precisa mais se preocupar) e ainda permite compartilhar a conexão através do próprio modem.
As duas opções chave para que o modem trabalhe como roteador são manter a opção "Bridge" ou "Bridge Mode" desativada e manter a opção "NAT" ou "Route IP" ativada.
Em alguns modems, a opção para ativar o uso do NAT fica escondida dentro da seção avançada (como no caso do D-Link 500G) e em outros fica junto com as opções relacionadas ao acesso, como neste D-Link 500T, que oferece um conjunto de opções um pouco diferentes das do 500G que vimos nos exemplos anteriores:
index_html_1ecfdfb9
A opção MRU, que aparece logo abaixo da MTU é uma opção incomum, que permite ajustar o tamanho máximo para os pacotes recebidos (a MTU indica o tamanho dos pacotes enviados). O valor máximo para ela é o mesmo que para o MTU, ou seja, 1492 bytes no PPPoE. Este modelo inclui também um firewall simples, que é configurado em uma seção separada da interface.

Roteamento de portas

O roteamento de portas é a solução para quando você deseja disponibilizar servidores ou permitir que um dos micros da rede seja acessado remotamente, apesar do modem ter sido configurado como roteador.
Você pode criar uma regra de redirecionamento, fazendo com que requisições destinadas à porta 22 do servidor sejam redirecionadas à porta 22 do micro "192.168.1.134" da rede interna para permitir que ele seja acessado via SSH através da Internet, por exemplo. Dessa forma, quando um usuário remoto digita "ssh 200.234.21.23" (onde o 200.234.21.23 seria o endereço de Internet do servidor) ele na verdade acessaria o PC com o endereço 192.168.1.134 dentro da rede local. Criando uma regra para a porta 5900 você poderia abrir o acesso a um PC rodando o VNC e assim por diante.
Outro uso comum é manter abertas as portas usadas pelo bittorrent ou outro programa P2P, de forma a não ter suas taxas de download reduzidas. No caso do Bittorrent, por exemplo, você encaminharia as portas TCP de 6881 a 6889 e no caso do Emule encaminharia a porta 4662 TCP e 4672 UDP.
Note que em muitos casos a lentidão em programas P2P pode ser causada pelo uso de traffic shaping ou pelo bloqueio de portas de entrada pela própria operadora. Nesses casos, você pode usar um túnel ou algum sistema de encriptação, que embaralhe os dados, impedindo que as informações sejam rotuladas como tráfego P2P, ou simplesmente usar uma máquina remota para baixar os arquivos desejados e depois transferí-los para a sua máquina via http ou ftp.
Uma opção é locar um servidor dedicado (os mais baratos custam a partir de US$ 60 por mês), o que permite que você tenha uma máquina completa, ligada diretamente aos links internacionais, que você pode acessar remotamente e usar para tarefas diversas. Dois exemplos de empresas que oferecem servidores dedicados a preços baixos são a http://www.layeredtech.com/e a http://www.theplanet.com/
Vamos então aos exemplos de configuração. No Kayomi LP-AL2011P a configuração do forwarding de portas vai na seção "Virtual Server". Para cada regra de direcionamento, você deve indicar o endereço IP do PC (dentro da rede local) que receberá a porta, a porta de entrada que será redirecionada (public port) e a porta do PC local para a qual ela será redirecionada (private type). Normalmente, existe também a opção de indicar o protocolo (opção "Port Type" ou "Protocol"), que pode ser TCP, UDP ou ambos (both). Na maioria dos casos, os programas utilizam portas TCP, mas muitos jogos multiplayer e programas P2P utilizam portas UDP.
Neste exemplo, o modem está configurado para utilizar o endereço 192.168.1.254 e estou redirecionando as portas 6881 até a 6889 (TCP) para o endereço "192.168.1.1" da rede local. Na verdade o bittorrent precisa de apenas uma destas portas, de forma que as 9 portas poderiam ser direcionadas para endereços diferentes:
index_html_m19bd92cb
Você pode notar que a interface não oferece a opção de direcionar um intervalo de portas. Ou seja, para redirecionar 9 portas, preciso criar 9 regras diferentes. A porta do micro na rede local, para onde é feito o forwarding, não precisa necessariamente ser a mesma que a porta externa. Você pode fazer com que a porta 22 externa seja direcionada para a porta 2222 do micro 192.168.1.2, por exemplo.
Aqui temos a configuração do encaminhamento de portas em um Linksys BEFSR41. Uma diferença em relação à configuração do Kayomi é que ele permite encaminhar intervalos de portas. Você pode encaminhar todas as portas entre a 6881 e a 6889 usando apenas uma regra, por exemplo:
index_html_m1663e5e5
Os modems variam bastante em recursos nesse sentido. Nos modelos mais recentes você tem, tipicamente, a opção de redirecionar também uma faixa de portas (port range) e também de ativar uma DMZ (demilitarized zone), que permite encaminhar de uma vez todas as portas para um endereço especificado por você. Este PC passa então a receber todas as portas de entrada, como se estivesse diretamente conectado à web. Temos aqui um exemplo das duas opções aparecendo na seção "Advanced > Port Forwarding" do 500G:
index_html_371341c0
Concluindo, temos agora um exemplo de configuração do direcionamento de portas na interface em texto do velho Parks Prestige. Nele o port forwarding é configurado na opção "15. SUA Server Setup", onde você define a porta e o endereço da rede local para onde ela será redirecionada. Uma limitação deste modem é que ele permite configurar o redirecionamento de apenas 8 portas simultaneamente, provavelmente devido a limitações de memória:
index_html_7aca935a
As operadoras quase sempre bloqueiam as portas 21 e 80 (ftp e http) para dificultar o uso de servidores por parte dos assinantes. Mas, você pode alterar a porta usada na configuração do servidor web ou FTP para outra porta que não esteja bloqueada, como a 8080 e a 2121, por exemplo, de forma a burlar esta limitação.
Você pode ver uma lista de portas de entrada usadas por vários programas e jogos de forma a poder compor sua lista de redirecionamentos no:http://www.portforward.com/cports.htm.
Como você pode imaginar, não é possível direcionar a mesma porta para dois PCs da rede local simultaneamente. É como se cada porta fosse um carro, ou outro objeto qualquer. Se você empresta o carro para alguém, você fica sem ele até que esta pessoa devolva e, enquanto ele está emprestado, você não pode emprestá-lo para uma segunda pessoa.
Se você precisa disponibilizar o mesmo serviço, em vários PCs da rede local e precisa que todos fiquem acessíveis a partir da Internet simultaneamente, a única solução possível é configurar cada um para escutar em uma porta diferente e configurar o roteador para redirecionar cada porta ao PC correspondente.
Imagine que você precisa rodar um servidor SSH em cada um dos 10 micros da rede local e precisa que todos fiquem acessíveis via Internet. Você poderia configurar o servidor SSH no primeiro PC para usar a porta 2222, o servidor SSH no segundo para usar a porta 2223 e assim por diante e criar a regras de redirecionamento no modem encaminhando cada porta ao endereço apropriado, como em:
2222 > 192.168.1.2
2223 > 192.168.1.3
2224 > 192.168.1.4
...
Os clientes passariam então a acessar especificando a porta em que desejam se conectar e, de acordo com a porta, cairiam em um PC específico da rede, como em:
$ ssh -p 2233 endereço-do-servidor

Um pouco sobre fontes de alimentação...

Introdução

Embora muitas vezes relegada a segundo plano, a fonte de alimentação é um dos componentes mais importantes de qualquer PC atual, já que a qualidade da fonte está diretamente relacionada à estabilidade, possibilidades de expansão e até mesmo à durabilidade do conjunto.
O papel da fonte na estabilidade está relacionado ao fato de que ela é a responsável por fornecer energia aos componentes. Tensões mais baixas que o ideal, ou excesso de variações (ripple) podem levar a travamentos e problemas gerais de estabilidade. Outra função da fonte é atenuar variações na corrente da tomada, absorvendo picos de tensão e mantendo o PC funcionando quando a tensão cai momentaneamente (ao ligar o chuveiro, por exemplo).

m1c5ede47
Um fornecimento inadequado ou instável de energia causa também danos cumulativos no processador, módulos de memória, circuitos de regulação da placa-mãe e outros componentes, levando a problemas prematuros. Um PC perfeitamente saudável, pode apresentar problemas em apenas um ou dois anos se usado em conjunto com uma fonte de baixa qualidade.
Finalmente, temos as possibilidades de expansão, que estão relacionadas à capacidade da fonte, um fator que vem recebendo cada vez mais atenção, acompanhando o aumento no consumo elétrico dos PCs. Qualquer PC mediano, com um processador quad-core ou uma placa 3D um pouco mais parruda pode facilmente exceder a capacidade de fornecimento de uma fonte genérica, fazendo com que ela desligue durante o boot, ou simplesmente exploda, causando danos aos componentes.
Tendo isso em vista, não é de se estranhar toda a atenção em torno de fontes de grande capacidade e de toda a tecnologia relacionada a elas. Tipicamente, os problemas da fonte se acentuam com o aumento na carga, por isso é tão comum que fontes de baixa qualidade "abram o bico" depois de upgrades que aumentam o consumo do PC.

Como as fontes funcionam

Você pode imaginar a corrente alternada da tomada como uma onda, que oscila 60 vezes por segundo, onde a energia é transmitida através de pulsos, em oposição à corrente contínua usada por circuitos eletrônicos. O uso de corrente alternada reduz brutalmente a perda durante a transmissão a longas distâncias, o que a torna ideal para uso na rede pública.
Aparelhos domésticos como ventiladores, geladeiras e aquecedores trabalham muito bem com corrente alternada, mas aparelhos eletrônicos em geral precisam que ela seja transformada em corrente contínua, o que nos leva à fonte de alimentação.
A função básica da fonte de alimentação (ou PSU, de "power supply unit") é transformar a corrente alternada da rede elétrica em corrente contínua, filtrar e estabilizar a corrente e gerar as tensões de 3.3V, 5V e 12V fornecidas aos demais componentes.
Tudo começa com um estágio de filtragem. Ele tem duas funções: "filtrar" a energia que vem da tomada, removendo ruído e atenuando picos de tensão e ao mesmo tempo evitar que o ruído gerado por componentes da fonte (em especial os transístores que fazem o chaveamento) chegue à rede elétrica, interferindo com outros aparelhos.
Nas boas fontes ele é tipicamente dividido em dois sub-estágios, com parte dos componentes soldados a uma pequena placa de circuito presa ao conector de força e os demais instalados na placa principal, próximos aos pontos de solda dos dois cabos de energia provenientes do primeiro sub-estágio:
62289dde
Os componentes do filtro incluem tipicamente duas bobinas (L1 e L2), um varístor (encarregado de absorver picos de tensão), que nessa foto está escondido entre a bobina da direita e os fios de energia, um ou dois capacitores X (que usam um encapsulamento retangular, amarelo) e um par de capacitores Y (eles são azuis, parecidos com os varistores dos filtros de linha).
Embora importante, é comum que o estágio de filtragem seja simplificado nas fontes de baixa qualidade, o que é um risco. Nesse caso, é comum que a placa conserve espaços vazios ou sejam usadas pontes (pedaços de fio usados para fechar contato) no lugar de vários dos componentes.

Primário e secundário

Depois do filtro, chegamos aos circuitos de conversão, que se encarregam do trabalho pesado. Eles são divididos em dois estágios, que são convenientemente chamados de primário e secundário. Cada um deles ocupa uma das metades da fonte, separados pelo transformador principal (a grande bobina amarela), que quase sempre fica bem no meio da fonte.
O estágio primário fica do lado esquerdo, que inclui o capacitor primário, os transístores de chaveamento e um ou dois dos dissipadores, enquanto o secundário domina o lado direito, de onde saem os fios de alimentação:

6cd046c2
Em geral, as fontes incluem apenas dois dissipadores metálicos, um para cada um dos dois estágios. Essa CX400W das fotos usa um dissipador separado (à esquerda) para o circuito de PFC, por isso ela tem três no total.
Continuando, o estágio primário inclui também a ponte retificadora (o componente maior, preso a um dos dissipadores), um circuito de filtragem e o circuito chaveador. A função deles é retificar e aumentar a frequência da corrente, gerando uma corrente de alta frequência (acima de 100 kHz, contra os 60 Hz da tomada), com ondas quadradas, que é então enviada ao transformador.
A ideia é reduzir o intervalo entre os ciclos, o que reduz o trabalha necessário para transformá-la em corrente contínua, eliminando a necessidade de usar grandes transformadores, como em fontes antigas. Isso faz com que as fontes chaveadas sejam não apenas muito mais leves e baratas do que as antigas fontes lineares, mas também bem mais eficientes. Hoje em dia, até mesmo as fontes de celulares são fontes chaveadas.
Continuando, a ponte retificadora, juntamente com os transístores de chaveamento (MOSFETs) inevitavelmente transformam uma boa parte da energia em calor, justamente por isso são presos a um dos dissipadores metálicos. Quando falamos em "transístores" vem à mente a imagem dos transístores minúsculos que formam os processadores, mas a necessidade de lidar com cargas elevadas faz com que os MOSFETs sejam bem maiores:
m5fb325ff
Em seguida temos o transformador, que tem a função de reduzir a tensão, produzindo uma corrente de 12V (ainda alternada e de alta frequência), que é enviada ao estágio secundário da fonte. Como pode imaginar, o segundo estágio tem a função de "terminar o serviço", convertendo a corrente alternada de alta frequência fornecida pelo transformador em corrente contínua, utilizando um segundo conjunto de circuitos de retificação e um novo circuito de filtragem, que inclui as bobinas e os vários pequenos capacitores:
m41ce7d82

Observações e dicas

Assim como no caso dos transístores do estágio primário, os MOSFETs e retificadores usados no estágio secundário dissipam bastante calor, por isso são conectados a mais um dissipador metálico.
A maioria das fontes usam também um segundo transformador (bem menor), que é usado para gerar as tensões de 5V e 3.3V da fonte, mas alguns projetos utilizam conversores DC-DC (veja mais detalhes a seguir) para gerá-las a partir da saída do transformador principal, simplificando o projeto.
Fontes antigas usam três transformadores em vez de dois. Este terceiro transformador é usado para isolar eletricamente o controlador PWM. Nas fontes mais atuais ele é substituído por três optoacopladores (um tipo de circuito integrado simples, que inclui um LED e um fototransistor), que desempenham a mesma função, mas de maneira mais eficiente.
Temos aqui uma fonte genérica antiga, que usa o layout com três transformadores. Você pode notar que ela usa bem menos componentes, com transformadores, bobinas e capacitores bem menores, que acompanham a baixa capacidade de fornecimento:

5907d352
O controlador PWM é um pequeno chip encarregado de monitorar as tensões de saída da fonte e ajustar a frequência do circuito chaveador para compensar qualquer variação. Nas fontes atuais é comum que seja usado um único chip, combinando as funções de controlador PWM e circuito de PFC, sobre o qual falarei mais logo adiante:
m29596385
É bastante comum que os fabricantes usem as características dos capacitores como ferramenta de marketing, anunciando que a fonte usa "capacitores japoneses" ou "capacitores de classe industrial". Naturalmente, é bem melhor que a fonte use capacitores da Hitachi do que de algum fabricante chinês desconhecido, ou que eles sejam certificados para trabalharem a até 105°C em vez de 85°C, por exemplo, mas essa é uma característica que não deve ser levada ao pé da letra.
Os dissipadores também não são necessariamente um indício da qualidade da fonte, já que eles são dimensionados de acordo com a capacidade, eficiência e a potência do exaustor. Uma fonte pode possuir dissipadores grandes e pesados simplesmente por ter um baixo nível de eficiência (e consequentemente dissipar mais calor) ou usar dissipadores modestos por que o fabricante conseguiu desenvolver uma fonte mais eficiente (menos calor para dissipar), ou optou por aumentar a velocidade de rotação do exaustor (mais barulho).
Muitas das etapas de produção da fonte são feitas manualmente, por isso é muito comum encontrar braçadeiras, soldas manuais e até mesmo componentes presos com cola quente, mesmo nas fontes de boa qualidade. É justamente por isso que a grande maioria das fontes são produzidas em países da ásia, onde a mão de obra é mais barata (assim como no caso dos processadores, memórias e quase todos os demais produtos eletrônicos hoje em dia).
Construir uma fonte de alimentação é relativamente simples (muito mais do que produzir um processador ou uma GPU, por exemplo) e a tecnologia é bem conhecida e bem documentada. O grande problema é que fontes de qualidade são caras de se construir, o que obriga os fabricantes a fazerem opções com relação à capacidade e à qualidade dos componentes usados, ao mesmo tempo em que tentam diferenciar seus produtos em relação aos oferecidos pelos concorrentes.
Isso faz com que as fontes sejam a classe de periféricos onde mais existe variação de qualidade e de preço. De um lado, temos fontes genéricas de 30 reais e do outro fontes de alta capacidade que podem custar quase 1000 reais. Como sempre, as melhores opções estão entre os dois extremos, mas nem sempre é fácil encontrá-las.

A importância do PFC

Ao comprar um nobreak (ou um estabilizador, caso você ainda viva na década de 1980), a capacidade é sempre informada em VA (Volt-Ampere) e não em watts. Em teoria, um nobreak de 600 VA seria capaz de suportar uma carga de 600 watts, mas na prática ele muitas vezes acaba mal conseguindo manter dois PCs que consomem 200 watts cada um. Se você adicionasse mais PCs até totalizar os 600 watts, ele desligaria devido ao excesso de carga.
Essa diferença ocorre por que a capacidade em VA é igual ao fornecimento em watts apenas em situações onde são ligados dispositivos com carga 100% resistiva, como é o caso de lâmpadas incandescentes e aquecedores.
Sempre que são incluídos componentes indutivos ou capacitivos, como no caso dos PCs e aparelhos eletrônicos em geral, a capacidade em watts é calculada multiplicando a capacidade em VA pelo fator de potência da carga.
A maioria das fontes de alimentação genéricas, assim como fontes antigas, trabalham com um fator de potência de 0.65 ou menos (não confunda "fator de potência" com "eficiência", que é outra coisa completamente diferente). Isso significa que um nobreak de 600 VA suportaria, em teoria, um PC que consumisse 400 watts, utilizando uma fonte de alimentação com fator de potência de 0.65.
Como é sempre bom trabalhar com uma boa margem de segurança, um conselho geral era dividir a capacidade em VA por 2. Assim, um nobreak de 600 VA suportaria um PC com consumo total de 300 watts/hora com uma boa margem.
A partir de 2004/2005 começaram a surgir no mercado as fontes com PFC ("Power Factor Correction", ou "fator de correção de potência") implementado através de um circuito adicional que reduz a diferença, fazendo com que o fator de potência seja mais próximo de 1. Na verdade, é impossível que uma fonte trabalhe com fator de potência "1", mas muitas fontes com PFC ativo chegam muito perto disso, oferecendo um fator de potência de até 0.99.
Dentro da fonte, o circuito de PFC ativo é composto por uma pequena placa de circuito vertical, quase sempre posicionada próxima ao capacitor primário (algumas fontes com PFC ativo podem utilizar dois capacitores quando existem restrições com relação ao espaço para um único grande capacitor, mas elas são raras), contendo o controlador e vários componentes adicionais espalhados pela fonte. Alguns controladores populares (sobre os quais você pode pesquisar se estiver curioso) são o ML4800 e o CM6800.
6e51b192
Na maioria dos casos, você encontra também uma placa secundária ligeiramente menor, que inclui os circuitos de proteção contra subtensão e sobretensão, proteção contra sobrecarga e/ou controle de rotação do exaustor, que são ligados a um diodo térmico instalado em alguma posição estratégica:
28caac15
Embora o PFC não tenha uma relação direta com a capacidade ou com a eficiência da fonte, ele oferece várias vantagens. A primeira é que o consumo em VA fica muito próximo do consumo real, em watts, de forma que você não precisa mais superdimensionar a capacidade do nobreak. Usando fontes com FPC ativo, você realmente poderia usar uma carga próxima de 600 watts no nobreak de 600 VA do exemplo.
Outra vantagem no uso do PFC é uma redução expressiva na emissão de ruído e interferência eletromagnética por parte da fonte, o que evita problemas diversos. Ele isola parcialmente os demais circuitos da fonte da rede elétrica, o que torna a fonte menos susceptível a variações e reduz a possibilidade de componentes do PC serem queimados por causa de picos de tensão. Ou seja, embora esta não seja sua função, o circuito de PFC acaba servindo como um dispositivo adicional de proteção.
Mais uma vantagem é que o circuito é capaz de ajustar automaticamente a tensão de entrada, permitindo que a fonte opere dentro de uma grande faixa de tensões, indo normalmente dos 90 aos 264V. Não apenas o velho seletor de voltagem é eliminado, mas também a fonte passa a ser capaz de absorver picos moderados de tensão e de continuar funcionando normalmente durante brownouts (onde a tensão da rede cai abaixo da tensão normal) de até 90V.
Caso você ainda use um estabilizador, saiba que com o PFC ele perde completamente a função, já que a fonte passa a ser capaz de ajustar a tensão de entrada de maneira muito mais eficiente que ele. Mesmo ao usar fontes genéricas, a utilidade de usar um estabilizador é discutível, mas ao usar com uma com PFC ativo, o estabilizador só atrapalha. Na falta de um nobreak, o melhor é utilizar um bom filtro de linha.
A presença do PFC é também um bom indício de que se trata de uma fonte de boa qualidade, que provavelmente opera com uma boa eficiência. Fontes genéricas não possuem PFC, já que os circuitos representam um custo adicional.
Uma observação importante é que existem dois tipos de circuitos de PFC: passivos e ativos. Os circuitos de PFC passivos são os mais simples, compostos basicamente por um conjunto adicional de indutores capacitores. Eles melhoram o fator de potência da fonte, elevando-o para até 70 ou 80%, o que é melhor do que nada, mas ainda não é o ideal. Os circuitos de PFC passivo são muito usados em fontes de celular e outros dispositivos pequenos (eles são um pré-requisito mínimo nos países da União Europeia) mas caíram em desuso nas fontes para PC, onde são encontrados apenas em fontes baseadas em projetos antigos.
Os circuitos de PC ativo, por sua vez, são compostos por componentes eletrônicos, incluindo um circuito integrado, FETs e diodos, que operam de maneira muito mais eficiente, elevando o fator de potência para 95 ou até mesmo 99%, praticamente eliminando a diferença entre watts e VA. São eles os mais usados em fontes para PC, já que são necessários para atender aos requisitos do 80 PLUS.

A questão da eficiência

Assim como no caso de um chuveiro elétrico, a maior parte do custo de uma fonte de alimentação não está no custo do produto propriamente dito, mas sim na energia desperdiçada por ela ao longo da sua vida útil. Qualquer fonte, por melhor que seja, desperdiça energia durante o processo de conversão e retificação, energia essa que acaba "indo pelo ralo" na forma de calor dissipado pelo exaustor.
A eficiência é o percentual de energia que a fonte consegue realmente entregar aos componentes, em relação ao que puxa da tomada. Ela não tem relação com a capacidade real de fornecimento da fonte (ou seja, uma fonte de 450 watts de boa qualidade deve ser capaz de fornecer os mesmos 450 watts, seja a eficiência de 65% ou de 90%), mas uma baixa eficiência indica que a fonte vai não apenas desperdiçar energia no processo, mas vai também produzir muito mais calor, o que significa um PC mais quente e mais barulhento.
Com os PCs consumindo cada vez mais energia, a eficiência da fonte tem se tornado um fator cada vez mais importante, já que está diretamente relacionado ao consumo total do micro.
Um PC cujos componentes internos consumam 200 watts em média (sem contar o monitor, já que ele não é alimentado pela fonte de alimentação), acabaria consumindo 307 watts se usada uma fonte com 65% de eficiência. Ao mudar para uma fonte com 80% de eficiência, o consumo cairia para apenas 250 watts. Caso você conseguisse encontrar uma fonte com 90% de eficiência (elas são raras, mas lentamente estão se tornando mais comuns) o consumo cairia mais um pouco, indo para os 225 watts.
Fontes genéricas de uma maneira geral trabalham com um nível de eficiência bastante baixo, na maioria dos casos na faixa dos 60 a 65%, já que a prioridade dos fabricantes é reduzir os custos e não melhorar a eficiência do projeto. Por outro lado, a maioria das fontes de qualidade da safra atual são capazes de trabalhar acima dos 80%, uma diferença que ao longo do tempo acaba se tornando bastante considerável.
Basta fazer as contas. Tomando como base um PC de configuração modesta, que consumisse uma média de 100 watts e ficasse ligado 12 horas por dia, teríamos o seguinte:
  • Fonte com 65% de eficiência:
    • Consumo médio: 152.3 watts/hora
    • Consumo total ao longo de 12 meses: 667 kilowatts-hora

  • Fonte com 80% de eficiência:
    • Consumo médio: 125 watts/hora
    • Consumo total ao longo de 12 meses: 547 kilowatts-hora

Dentro do exemplo, tivemos uma redução de 120 kWh, que (tomando como base um custo de 44 centavos por kWh) correspondem a 53 reais. Se o PC ficar ligado continuamente, ou se levarmos em conta o consumo ao longo de dois anos, a economia já vai para 106 reais, o que começa a se tornar uma redução significativa.
Ao usar um PC mais parrudo, com um processador quad-core e uma placa 3D mais parruda, o consumo pode chegar facilmente aos 300 watts, o que poderia levar a diferença aos 300 reais anuais, o que é um valor mais do que significativo.
Isso faz com que, na maioria dos casos, fontes de boa qualidade, que ofereçam uma eficiência de 80% ou mais acabem saindo mais barato a longo prazo do que fontes genéricas, que podem ter um custo inicial pequeno, mas que acabam comendo toda a diferença a longo prazo na forma de um aumento mensal na conta de luz. Fazendo as contas, você vai chegar à conclusão que fontes mais caras, porém mais eficientes, podem acabar saindo bem mais barato a longo prazo, mesmo desconsiderando todos os outros fatores.
Outro fator a considerar dentro da ideia do custo é a questão da durabilidade. Muita gente troca de fonte sempre que faz algum upgrade significativo no PC ou quando a fonte parece estar ficando "velha", o que não é necessário em absoluto ao usar uma fonte de boa qualidade. A maioria dos bons produtos possuem um MTBF de 60.000 horas (o que equivale a quase 7 anos de uso ininterrupto) e, mesmo assim, o valor se aplica mais ao exaustor (que é o único componente móvel) e não à fonte propriamente dita. Se você somar o custo de três ou quatro fontes genéricas substituídas prematuramente, vai acabar chegando ao preço de uma fonte melhor.
O menor consumo também aumenta a autonomia do nobreak, já que, com menos carga, as baterias durarão mais tempo. Isso pode levar a outras economias, já que reduz a necessidade de usar baterias externas, ou de usar um nobreak de maior capacidade.
Chegamos então a uma segunda questão, que é como diferenciar as fontes de maior e menor eficiência, já que mesmo muitas fontes consideradas "boas", como a SevenTeam ST-450P-CG (que em 2009 custava custava mais de 200 reais) trabalham abaixo dos 70% de eficiência. Chegamos então ao 80 PLUS.

80 PLUS

Embora muito se fale sobre as capacidades das fontes, a preocupação com a eficiência é um fator relativamente recente, que pegou carona na tendência geral em busca de componentes de baixo consumo. Não adianta muito fazer malabarismos para reduzir a tensão ou o clock do processador para economizar energia, se a fonte desperdiça mais de um terço de toda a energia que recebe da tomada.
O grande problema é como separar o joio do trigo, já que os fabricantes de fontes são especialmente criativos na hora de inflar as capacidades ou enrolar com relação ao percentual de eficiência. Quem nunca comprou uma fonte genérica de "450 watts" por 40 reais, que atire a primeira pedra... :)
O 80 PLUS é um programa de certificação, que faz parte do programa Energy Star (que existe desde 1992 e é atualmente adotado por diversos países, incluindo a União Europeia, Japão, EUA, Taiwan, Canadá e outros). O Energy Star foi o responsável pela introdução de recursos como o desligamento do monitor e dos HDs depois de algum tempo de inatividade, entre diversas outras funções "verdes" que são encontradas nos PCs atuais. O 80 PLUS é um programa de certificação para fontes, que atesta que ela é capaz de manter uma eficiência de pelo menos 80% em três níveis de carregamento: 20%, 50% e 100%.
Complementarmente, ela deve oferecer também um fator de potência de 90% ou mais com 100% de carregamento, o que torna obrigatório o uso de PFC ativo (veja mais detalhes a seguir). Além de pesquisar pelas fontes com o selo, você pode também consultar uma lista com todas as fontes certificadas no: http://80plus.org/manu/psu/psu_join.aspx
Para cada fonte, está disponível um PDF com os resultados dos testes, que serve como uma espécie de "mini-review" da fonte, feito em condições controladas. Nele você pode ver o gráfico com a eficiência em cada um dos três níveis e as especificações detalhadas:
m2424d4da
Uma observação é que os testes do 80 PLUS são realizados com temperatura ambiente de 23 graus, o que corresponde à realidade de muitos países da Europa, mas não da maioria dos estados do Brasil (e provavelmente não dentro do seu PC). Como tanto a eficiência quanto a capacidade efetiva da fonte são ligeiramente afetadas pelo aumento da temperatura, os números obtidos na prática podem ser ligeiramente diferentes, com a fonte apresentando uma eficiência 2 ou 3% menor do que a exibida no teste do 80 PLUS, por exemplo.
Entretanto, não existem motivos para pânico com relação à capacidade de fornecimento da fonte, pois para trabalhar com 80% de eficiência ou mais com 100% de carregamento, a fonte precisa na verdade ser dimensionada para oferecer uma capacidade substancialmente maior. Ao usar a fonte com uma temperatura ambiente mais alta, ela pode trabalhar mais perto do limite, ficar um pouco mais barulhenta (devido ao aumento na velocidade de rotação do exaustor) e oferecer uma eficiência ligeiramente mais baixa, mas ainda dentro de um nível aceitável de segurança.
Em um esforço para diferenciar seus produtos, muitos fabricantes incluem nas especificações a temperatura na qual a capacidade nominal é garantida, especificando que a fonte é capaz de fornecer 450 watts a 45°C, por exemplo, o que é um argumento a mais a favor da qualidade do modelo.
Continuando, inicialmente, a certificação era inteiramente facultativa, mas a partir de 2007 ela passou a fazer parte do Energy Star 4.0, o que acelerou bastante a adoção por parte dos fabricantes, já que atender ao padrão é um pré-requisito para vender para muitas grandes empresas e entidades governamentais.
O selo "80 PLUS" é sempre colocado em local visível na caixa e também na página do fabricante, o que o torna uma forma simples de diferenciar as fontes de qualidade das genéricas ou semi-genéricas.
Além de atestar a eficiência, ele atesta também que a fonte é capaz de realmente operar dentro da capacidade máxima com uma certa folga, o que põe fim ao velho engodo dos fabricantes em divulgarem a capacidade de pico e não a capacidade real.
Construir fontes capazes de atingir os 80% de eficiência a 100% de carregamento é uma tarefa difícil, por isso não faz sentido que um fabricante produza uma fonte capaz de atingir a marca e deixe de submetê-la ao processo de certificação. Se uma fonte promete "85% de eficiência", mas não possui o selo, é bem provável que o fabricante esteja mentindo, ou que os 85% sejam atingidos apenas em situações ideais.
Um bom exemplo é a polêmica Huntkey 350 Green Star, uma "semi-genérica" que foi muito vendida no Brasil como um modelo de baixo custo. O PDF com as especificações divulgado pela Huntkey fala 85% de eficiência, mas a seguir fala em 70% de eficiência mínima em full-load, o que indica que na verdade a fonte trabalha com uma eficiência muito mais baixa:
78ca8cc5
De fato, este modelo também não é capaz de fornecer os 350 watts prometidos à temperatura ambiente (e ela realmente explode perigosamente ao tentar fazê-lo), o que explica a falta do selo.
Em 2008 foram criadas três certificações complementares, que são conferidas às fontes que são capazes de atingir níveis ainda mais altos de eficiência:
  • 80 PLUS Bronze: 82% de com 20% de carga, 85% com 50% e 82% com 100%
  • 80 PLUS Silver: 85% de com 20% de carga, 88% com 50% e 85% com 100%
  • 80 PLUS Gold: 87% de com 20% de carga, 90% com 50% e 87% com 100%

80plus
Uma observação importante é que as fontes atingem o nível máximo de eficiência em torno dos 50% de carregamento, apresentando eficiências ligeiramente mais baixas tanto com pouca carga, quanto com muita carga. É justamente por isso que o o 80 PLUS Gold exige 90% de eficiência apenas nos 50%. Este é um exemplo de curva de eficiência em uma fonte 80 PLUS:
55160e52
O nível que as fontes são menos eficientes é abaixo dos 20%, quando não apenas a eficiência é mais baixa, mas também o fornecimento é menos estável. Uma analogia tosca poderia ser feita com relação a um motor à gasolina, que é eficiente em rotações médias e altas, mas engasga em baixa rotação.
Ironicamente, esta peculiaridade com relação ao fornecimento é um fator que faz com que muitas fontes genéricas se saiam melhor do que deveriam em testes de eficiência. Explico: ao usar uma fonte de 450 watts reais ou mais em um PC de baixo consumo, que passa a maior parte do tempo consumindo apenas 60 ou 70 watts, a fonte passará a maior parte do tempo operando abaixo dos 20% de capacidade, zona em que mesmo as melhores fontes não são muito eficientes. Nessa situação, mesmo uma fonte 80 PLUS pode apresentar resultados desanimadores, já que o programa testa a eficiência da fonte apenas a partir dos 20% e não menos.
Nessa situação, uma fonte genérica com uma capacidade real de 160 ou 200 watts (e provavelmente anunciada pelo fabricante como uma fonte de "450 watts") poderia apresentar uma eficiência similar, já que estaria operando mais próximo aos 50%, zona em que as fontes são mais eficientes.
Em outras palavras, o ideal é sempre dimensionar a fonte de acordo com a capacidade do PC. Ao montar um PC de baixo consumo, prefira fontes 80 PLUS menores, de 300 a 400 watts, que farão um trabalho bem melhor ao alimentarem PCs abaixo dos 100 watts. Assim como em tantos outros casos, a capacidade da fonte deve ser corretamente dimensionada; não é apenas questão de sair comprando a fonte de maior capacidade que encontrar.
Um bom exemplo de fontes de boa qualidade abaixo dos 400 watts são as fontes de 300 a 350 watts da Seasonic, como a SS-300ET e a SS-300ES, que possuem o 80 PLUS Bronze:
ee14d85
31e43198
Apesar da aparência despretensiosa, elas possuem uma qualidade muito boa e são mais baratas que os modelos da Corsair, Zalman e Cooler Master. Elas são ideais para PCs de baixo consumo, pois são capazes de manter uma eficiência acima de 82% com qualquer carga entre 60 e 300 watts, diferente de fontes de capacidade maior, que atingem a faixa dos 80% apenas quando fornecendo 100 watts ou mais.
Apesar de ser relativamente desconhecida, a Seasonic é uma das maiores fabricantes de fontes. Entretanto, a maioria das unidades são produzidas sob encomenda para outros fabricantes, incluindo a Corsair e a Arctic Cooling.
A alternativa seguinte seriam fontes de 400 watts, como a Corsair 400CX, que tem um custo moderadamente acessível e também apresenta uma boa faixa de eficiência entre os 80 e 100 watts.
De volta à eficiência, outra coisa a ter em mente é que embora quase todas as fontes atuais sejam bivolt, elas operam com um nível de eficiência ligeiramente melhor quando ligadas no 220. A diferença varia de acordo com o modelo e a capacidade da fonte, mas está sempre presente:
m360f8843
m388a97b8
Se você mora em uma região com tensão 220, nem pense em usar um transformador para reduzir a tensão antes de fornecê-la ao PC, pois você só vai perder dinheiro e reduzir a eficiência da fonte. Em vez disso, invista em um aterramento adequado e aproveite a vantagem natural oferecida pela concessionária de energia.

Distribuição da capacidade

Um fator importante ao escolher uma fonte é a distribuição da capacidade entre as tensões de 3.3, 5 e 12V. Micros antigos (até o Pentium III no caso da Intel e até o Athlon soquete A no caso da AMD) utilizam primariamente energia das saídas de 3.3 e 5V (usando a saída de 12V apenas para os drives e exaustores) enquanto os PCs atuais usam quase que exclusivamente a saída de 12V.
Fontes antigas, baseadas no padrão ATX12V 1.3 são dimensionadas para os PCs antigos, fornecendo apenas 12 ou 16 amperes na saída de 12V, o que é insuficiente para os PCs atuais. Um bom exemplo é a Thermaltake HPC-420-102, uma fonte que oferece 420 watts no total, mas que devido à distribuição é capaz de fornecer apenas 216 watts (18 amperes) na saída de 12V:

m1df5f106
57c489a9
A redistribuição da capacidade veio junto com o padrão ATX12V 2.0, que reduziu a capacidade recomendada de fornecimento nas saídas de 3.3 e 5V, priorizando a de 12V. Uma fonte atual é, tipicamente, capaz de fornecer 28 amperes ou mais na saída de 12V, com algumas dividindo a corrente em duas ou mais vias de 18A e outras oferecendo uma via unificada. Vamos aos detalhes:
O termo "rail" pode ser traduzido como "via" ou "trilho" e nada mais é do que um circuito separado dentro da fonte, responsável pelo fornecimento de uma das tensões.
Antes do padrão ATX, as fontes possuíam dois circuitos separados, um para a tensão de 5V e outro para a de 12V. Com o padrão ATX, foi adicionado um terceiro, responsável pela tensão de 3.3V. Todas as fontes fornecem também tensões de -5V e -12V, mas a corrente é muito baixa e elas não são mais usadas desde o século passado.
Em micros antigos (até o 486), a maioria dos componentes eram alimentados diretamente a partir da saída de 5V da fonte e a saída de 12V era usada apenas para os motores dos HDs, drives de disquete e coolers. Conforme foram sendo introduzidas técnicas mais avançadas de fabricação, os componentes passaram a utilizar tensões cada vez mais baixas, o que tornou necessário o uso de circuitos de regulagem de tensão.
Eles começaram como simples resistores que eliminavam o excesso na forma de calor (que não era um grande problema na época, já que os processadores consumiam pouca energia) e progrediram até chegarem aos complexos conversores DC/DC usados nas placas atuais.
Conforme o consumo dos processadores e placas 3D foi crescendo, as placas deixaram de usar as saídas de 3.3 e 5V e passaram a obter energia diretamente a partir da saída de 12V. O motivo é simples: com uma tensão maior, é possível transmitir a mesma quantidade de energia usando uma "amperagem" muito mais baixa, o que simplifica os projetos e permite atingir níveis bem maiores de eficiência. Hoje em dia, todos os processadores e placas 3D (que são os responsáveis por mais de 80% do consumo total do PC) são alimentados quase que exclusivamente pela saída de 12V da fonte.
Essa migração exigiu mudanças nos projetos das fontes. Um boa fonte ATX de 300 watts da década de 1990 era tipicamente capaz de fornecer 10 amperes na saída de 12V (120 watts), enquanto boas fontes de 400 ou 450 watts atuais fornecem 30 amperes ou mais.
A confusão surgiu com o padrão ATX12V 1.3, que recomendava o uso de um máximo de 18 amperes na saída de 12V (com um topo de 20 amperes, ou 240 watts), uma precaução contra a possibilidade de acidentes. Dentro do padrão, fontes capazes de fornecer mais do que isso nas saídas de 12V devem utilizar duas ou mais vias separadas, daí termos tantas fontes que são capazes de fornecer 400 watts ou mais, mas utilizam duas ou mais saídas independentes, cada uma limitada a um máximo de 18 amperes.
A configuração mais comum nesses casos é uma das vias ser usada para alimentar o conector de 24 pinos (que alimenta o processador e a maioria dos componentes) e a outra usada para os conectores molex e PCI Express, que alimentam a placa 3D e os drives. Nesse exemplo, temos uma Cooler Master de 360W, que utiliza duas vias de 12V, onde você pode exigir 15A (180 watts) de cada uma, desde que o total não ultrapasse 288 watts:
m224dff36
As duas vias podem ser obtidas através do uso de dois circuitos independentes (o que é muito raro, já que encarece a fonte) ou através de um único circuito de maior capacidade e dois limitadores de potência, que geram as duas vias separadas (o mais comum).
O grande problema é que caso os dispositivos ligados a uma das vias exijam mais do que 180 watts (imagine o caso de duas placas 3D em SLI, por exemplo), eles poderiam facilmente sobrecarregar a via em que estão ligados, fazendo com que a fonte desligasse, independentemente de quantas vias de 12V ela possuísse.
Em um PC "normal", com uma única placa 3D e um processador mediano, isso não chega a ser um grande problema, já que o processador (consumindo energia dos conectores de 24 e 4 pinos da placa-mãe) e a placa 3D (usando o conector PCIe, ou conectores molex) utilizariam vias separadas e seria muito difícil que cada um utilizasse sozinho mais do que 180 watts.
Entretanto, é fácil de atingir o limite ao usar duas placas em SLI, ou mesmo ao usar um processador quad-core em overclock, o que levou a Intel a flexibilizar a norma a partir do padrão ATX12V 2.0. Surgiram então as fontes "single +12V rail", onde toda a capacidade de fornecimento da fonte em 12V é oferecida em uma única via, eliminando a divisão.
Isso permite que os componentes se sirvam de energia à vontade, sem o antigo limite de 180 watts. Além de servir como um bom argumento de marketing, essa abordagem também reduz um pouco o custo de produção (já que não é mais preciso usar os limitadores de potência) e evita que você precise superdimensionar a capacidade da fonte, com medo de ultrapassar o limite de alguma das vias.
A Corsair VX450W, por exemplo, oferece 33 amperes (396 watts) através da via única de 12V, enquanto fontes maiores chegam a fornecer 1000 watts em uma única via:
m2703c340
Ao mesmo tempo em que isso é desejável, fornecer tanta energia em uma única via também oferece um certo risco, não apenas para o equipamento, mas também para quem o manuseia, por isso é importante comprar fontes single +12V rail de fabricantes responsáveis. Se a fonte não for bem construída, coisas realmente interessantes podem acontecer.