É preciso ter muito cuidado ao trabalhar na área de inicialização, onde o Windows coloca drivers e outros itens que precisam ser inicializados. Não é necessariamente mal ter muitos programas na inicialização, mas é muito interessante verificar a lista cuidadosamente procurando por ítens que possam ser removidos, pois é possível que o sistema esteja realmente carregando coisas desnecessárias ou maléficas.
Mas tome muito cuidado: cada um dos ítens foi colocado lá por algum motivo e sua remoção pode fazer com que partes do Windows funcionem mal ou nem funcionem de todo. Por exemplo, quase todos os ícones da “Área de notificação” do Windows (próximo ao relógio) estão lá devido a entradas na inicialização do MSCONFIG.
Assim, realmente a única maneira segura de remover ítens da inicialização com segurança é pesquisar um a um e ver o que fazem. Para futura referência, vá anotando e fazendo sua própria lista para usar no futuro. Dá um pouco de trabalho, mas compensa. Enquanto não tem sua própria lista, veja algumas sugestões:
Em primeiro lugar, use um BOM programa anti-vírus. Os vírus costumam usar a área de inicialização do Windows para se assegurar de que a máquina infectada realmente carregue o malfeitor a cada vez que o sistema for iniciado. Escaneie o HD inteiro para ter a certeza de que ele está limpo e veja se o antivírus está se atualizando corretamente, pois muitos vírus desativam esta atualização.
Entretanto, ter apenas o antivírus não é mais o suficiente. Um dos maiores aborrecimentos atuais fica por conta dos adwares, pequenos programas que não só redirecionam o browser para os sites dos seus “patrocinadores” como também ficam enviando informações pessoais do usuário sabe-se lá para quem. Aliás, tanto os vírus como os adwares costumam ficar o tempo todo enviando informações pela Internet, fazendo com a conexão fique lenta – em alguns casos, MUITO lenta.
Os programas anti-adware mais comuns são o Ad-aware (www.lavasoftusa.com) e o Spybot Search and Destroy (www.safer-networking.org). Este último tem boas ferramentas não só para remover os adwares mas também para detectar comportamentos suspeitos e para bloquear a alteração das “Opções da Internet” do Windows sem autorização do usuário. As novas versões de antivírus, como o Norton, também detectam e removem adwares.
Outra dica interessante para remover programas indesejáveis é abrir o Painel de Controle e ir no “Adicionar e remover programas”. Analise cuidadosamente a lista, removendo ítens desconhecidos e/ou que não são mais utilizados. Mas não remova programas simplesmente porque você não os reconhece, pois algumas suítes (como o Office) e alguns antivírus instalam múltiplos componentes, com entradas separadas no Painel de Controle.
Tomando estas precauções básicas, boa parte dos vírus e adwares já deverão ter sido removidos, mas alguns deles ainda persistem pois colocam entradas no registro do Windows e se aproveitam do recurso de restauração automática do XP e 2003. Use o “regedit” e procure por palavras-chave como “buy”, “search”, “cjb.net” e outros sites sabidamente instalados por adwares. Remova sumariamente as entradas, mas não sem antes criar um “Ponto de restauração do sistema” para ter condições de reverter as alterações caso faça algo indevido.
No Windows XP, o ponto de restauração é criado indo em Iniciar ä Programas ä Acessórios ä Ferramentas do sistema ä Restauração do sistema. Para finalizar, examine os ícones na bandeja do sistema e remova aqueles que não são utilizados. Por exemplo, tanto o RealPlayer como o QuickTime colocam componentes na bandeja quando são carregados, mas se você os usa raramente e precisa de um pouco mais de performance do sistema ao iniciar pode removê-los de lá.
Feito tudo isto, se você rodar o MSCONFIG verá menos ítens na área de inicialização. Agora, haverá alguma segurança de que o que estiver lá tem alguma razão para isto. Deste ponto em diante será realmente preciso um pouco de pesquisa para fazer uma limpeza mais profunda na inicialização.
Fonte PnP
sexta-feira, 28 de agosto de 2009
Fontes de alimentação de potência real
Os computadores modernos consumem cada vez mais energia, principalmente se forem com processador de mais de um núcleo. Por isto, a escolha da alimentação passou a ser importante na hora de comprar um micro de alto desempenho. Existem várias fontes de alimentação de boa qualidade, tais como os modelos da OCZ, Thermaltake, Cooler Master e Seventeam, para citarmos algumas das marcas mais famosas. Mas lamentavelmente a esmagadora maioria dos modelos populares e baratos tem sérios problemas.
Se você pesquisar, verá que o preço das fontes “de marca” é maior do que o de fontes “comuns” de mesma potência. A principal razão é que essas fontes mais caras usam em sua classificação a potência REAL e não a chamada potência NOMINAL, isto é, o que deveria ser. Nas fontes mais caras, quando o fabricante declara na etiqueta que ela é de 350 W, ela provavelmente entregará essa potência ou algo muito próximo, ao contrário do que ocorre com as fontes mais baratas.
Para saber qual é a verdadeira potência nominal de uma fonte de alimentação é preciso fazer alguns cálculos usando os números presentes na etiqueta. Toda fonte de alimentação possui ao menos seis saídas: +3,3 V, +5 V, +12 V, -5 V, -12 V e +5 VSB, esta última chamada também de “standby” (espera).
Na etiqueta vem descrita a corrente que cada uma dessas saídas é capaz de fornecer, em Ampères (A). Para saber a potência que cada uma dessas saídas fornece multiplique a tensão da mesma (em Volts) pela corrente (em Ampères). No caso das tensões negativas, desconsidere o sinal de menos.
Vejamos um caso concreto. Determinada fonte é rotulada como sendo de 400 W, mas será que é isto mesmo? Analisemos o caso.
As saídas fornecem as seguintes correntes:
15 A (+3,3 V)
29 A (+5 V)
11,5 A (+12 V)
0,5 A (-5V)
0,5 A (-12 V)
1,5 A (+5 VSB)
Temos então as seguintes potências:
49,5 W (+3,3 V x 15 A)
145 W (+5 V x 29 A)
138 W (+12 V x 11,5 A)
2,5 W (-5 V x 0,5 A)
6 W (+12 V x 0,5 A)
7,5 W (+5 VSB x 1,5 A)
O fabricante que pretende maquiar a potência de sua fonte simplesmente soma todas estas potências individuais. Mas isto é incorreto, pois as fontes de alimentação para PCs usam um conceito chamado “potência combinada”.
Para as saídas de +3,3 V e +5 V deve-se considerar somente o valor da maior potência entre essas duas saídas, ou seja, no nosso exemplo devemos considerar 145 W da saída de +5 V e ignorar o valor 49,5 W da saída de +3,3 V. Isso significa somar o valor de todas as potências individuais, ignorando, porém, o valor da potência da saída de +3,3 V.
Aplicando esta regra, temos que a nossa fonte de alimentação é de 299 W, ou seja: 145 W + 138 W + 2,5 W + 6 W + 7,5 W) e não de 400 W como está na etiqueta, quer dizer, é uma fonte devidamente “maquiada”.
A alegação “técnica” dos fabricantes é de que rotulam suas fontes com a potência “de pico” por elas suportadas. Mas esta é só uma justificativa falsamente técnica para vender um produto inferior parecendo ser outra coisa melhor.
É importante destacar que fizemos este cálculo com base apenas na etiqueta, ou seja, se o fabricante informa errado o valor de potência, porque é que deveria informar as correntes máximas corretamente? Por isto, certamente a fonte acima não consegue entregar nem os 299 W que poderíamos deduzir pela análise da etiqueta. Para saber mesmo qual é a valor certo, só mesmo fazendo testes em um laboratório devidamente equipado.
As fontes de alimentação são classificadas de acordo com a sua potência – 250W, 300W, 350W, 400W – sendo que o grande problema dos modelos mais simples (e baratos) é que a sua potência real não é a que está na etiqueta. Você pode comprar uma fonte de 400W mas que na realidade não consegue entregar nem 250W.
Se você pesquisar, verá que o preço das fontes “de marca” é maior do que o de fontes “comuns” de mesma potência. A principal razão é que essas fontes mais caras usam em sua classificação a potência REAL e não a chamada potência NOMINAL, isto é, o que deveria ser. Nas fontes mais caras, quando o fabricante declara na etiqueta que ela é de 350 W, ela provavelmente entregará essa potência ou algo muito próximo, ao contrário do que ocorre com as fontes mais baratas.
Para saber qual é a verdadeira potência nominal de uma fonte de alimentação é preciso fazer alguns cálculos usando os números presentes na etiqueta. Toda fonte de alimentação possui ao menos seis saídas: +3,3 V, +5 V, +12 V, -5 V, -12 V e +5 VSB, esta última chamada também de “standby” (espera).
Na etiqueta vem descrita a corrente que cada uma dessas saídas é capaz de fornecer, em Ampères (A). Para saber a potência que cada uma dessas saídas fornece multiplique a tensão da mesma (em Volts) pela corrente (em Ampères). No caso das tensões negativas, desconsidere o sinal de menos.
Vejamos um caso concreto. Determinada fonte é rotulada como sendo de 400 W, mas será que é isto mesmo? Analisemos o caso.
As saídas fornecem as seguintes correntes:
15 A (+3,3 V)
29 A (+5 V)
11,5 A (+12 V)
0,5 A (-5V)
0,5 A (-12 V)
1,5 A (+5 VSB)
Temos então as seguintes potências:
49,5 W (+3,3 V x 15 A)
145 W (+5 V x 29 A)
138 W (+12 V x 11,5 A)
2,5 W (-5 V x 0,5 A)
6 W (+12 V x 0,5 A)
7,5 W (+5 VSB x 1,5 A)
O fabricante que pretende maquiar a potência de sua fonte simplesmente soma todas estas potências individuais. Mas isto é incorreto, pois as fontes de alimentação para PCs usam um conceito chamado “potência combinada”.
Para as saídas de +3,3 V e +5 V deve-se considerar somente o valor da maior potência entre essas duas saídas, ou seja, no nosso exemplo devemos considerar 145 W da saída de +5 V e ignorar o valor 49,5 W da saída de +3,3 V. Isso significa somar o valor de todas as potências individuais, ignorando, porém, o valor da potência da saída de +3,3 V.
Aplicando esta regra, temos que a nossa fonte de alimentação é de 299 W, ou seja: 145 W + 138 W + 2,5 W + 6 W + 7,5 W) e não de 400 W como está na etiqueta, quer dizer, é uma fonte devidamente “maquiada”.
A alegação “técnica” dos fabricantes é de que rotulam suas fontes com a potência “de pico” por elas suportadas. Mas esta é só uma justificativa falsamente técnica para vender um produto inferior parecendo ser outra coisa melhor.
É importante destacar que fizemos este cálculo com base apenas na etiqueta, ou seja, se o fabricante informa errado o valor de potência, porque é que deveria informar as correntes máximas corretamente? Por isto, certamente a fonte acima não consegue entregar nem os 299 W que poderíamos deduzir pela análise da etiqueta. Para saber mesmo qual é a valor certo, só mesmo fazendo testes em um laboratório devidamente equipado.
Windows Vista foi projetado para dificultar a pirataria. Será que conseguiu?
No final de 2004, ainda na época do Windows XP, a empresa começou a guerra anti-pirataria com o programa Windows Genuine Advantage, desenhado para verificar se uma cópia em particular do Windows é legítima. No começo era um programa opcional, mas agora a checagem anti-pirataria é obrigatória para muitos downloads disponíveis no site da Microsoft como, por exemplo, para instalar o Media Player 11 e as novas versões do Internet Explorer.
A empresa identificou no combate às cópias não-oficiais uma maneira de aumentar as vendas do Windows, mesmo levando em conta que ele já é usado em 90% dos micros ao redor do mundo.
Mas tudo isto pouco adiantou em termos de pirataria. Agora, mais de 2 anos após o lançamento, tanto o XP quanto o Windows Vista pirata são comuns. Os piratas conseguiram passar totalmente incólumes pelas defesas criadas pela Microsoft, e hoje qualquer camelô “especializado” em software que está nas ruas das grandes cidades oferece cópias de Windows Vista que rodam sem problema algum o Aero e todas os recursos do Windows Vista.
Como é burlado o sistema de ativação do Windows Vista?
Existem várias formas de burlar o supostamente rigoroso sistema de ativação do Windows Vista. A princípio, funciona mais ou menos como foi feito com o Windows XP, ou seja, usa-se um número de série igual àqueles fornecidos para os grandes fabricantes de computadores. Por exemplo, um destes grandes fabricantes adquire, digamos, 100.000 licenças do Windows XP. Para não ter que ficar ativando cópia por cópia, colocando um serial para cada máquina, a Microsoft fornece um número de série que vale para as 100.000 máquinas. E a cópia do Windows XP também é especial, feita especialmente para este grande fabricante e para aquele número de série. O que acontece é que esta cópia e este número de série segue caminhos obscuros e acaba caindo na mão da população, que consegue ativar seu XP normalmente. Aliás, nem é preciso mais ativar, pois todas as cópias piratas que estão por aí já foram modificadas para instalar-se já ativadas automaticamente.
Ciente deste esquema, a Microsoft resolveu dificultar as coisas quando lançou o Vista. O esquema é bem parecido com o do XP, mas tem um complicador adicional: o Vista verifica através de uma espécie de assinatura na BIOS se aquele micro que está pedindo a ativação do Windows realmente foi feito por aquele grande fabricante de equipamentos que adquiriu aquele lote de licenças. Se o micro não for daquele modelo e daquele fabricante a ativação não é feita.
Parece ser um esquema muito seguro, não é mesmo? Pois é, só parece. Os piratas logo descobriram um jeito de fazer qualquer computador fingir que é, digamos, um micro da Dell ou da Asus.
Um método mais complicado consiste em regravar o BIOS do micro colocando nele uma assinatura digital para que o micro "finja" ser algum modelo conhecido de um grande fabricante. Usa-se o número de série daquele fabricante, instala-se uma licença digital para aquela série e pronto, Windows Vista ativado!
Com o tempo, os piratas desenvolveram um método mais simples, que não precisa alterar o BIOS. Trata-se de um pequeno programa (o “Vistaloader”) a ser carregado logo na inicialização e que nada mais é do que um BIOS falso. Quando o sistema faz alguma solicitação para o BIOS, este programa intercepta o pedido e decide se encaminha ou não para o BIOS. Quando a solicitação for para ler a assinatura digital do fabricante, o programa mesmo é que responde que o micro é um determinado modelo de um grande fabricante. E assim repete-se o mesmo esquema, ou seja, o número de série será realmente daquele determinado fabricante, e o resultado é o esperado: Windows Vista ativado, para desespero da Microsoft.
Como será a ativação do Windows 7
A julgar pelas cópias de teste, o Windows 7 (“Seven”) usará o mesmo esquema de ativação do Vista, isto é, um número de série específico, uma licença digital e a checagem do BIOS do micro. Certamente a Microsoft deve refinar mais este método, deixando-o mais esperto, mas ao que tudo indica já teria vazado uma cópia de Windows 7 de um grande fabricante (provavelmente a Lenovo) e os piratas já teriam desenvolvido um esquema de ativação “alternativa” semelhante ao do Vista.
Aliás, por falar nisto, precisamos dizer que certamente é direito da Microsoft cobrar por seus produtos, afinal foram investidos muitos bilhões de dólares no desenvolvimento e suporte do Windows. O que sempre discordamos é do alto preço cobrado. Freqüentemente, um pacote contendo o Windows mais um Office oficial custará mais caro do que o próprio computador, o que é um claro incentivo à pirataria. A Microsoft parece que vai aliviar um pouco os termos da licença, oferecendo caixas com o Windows que permitem sua instalação em 3 ou mais máquinas, só esperamos que estes pacotes não custem igualmente 3 ou mais vezes o preço de uma licença única...
A empresa identificou no combate às cópias não-oficiais uma maneira de aumentar as vendas do Windows, mesmo levando em conta que ele já é usado em 90% dos micros ao redor do mundo.
Mas tudo isto pouco adiantou em termos de pirataria. Agora, mais de 2 anos após o lançamento, tanto o XP quanto o Windows Vista pirata são comuns. Os piratas conseguiram passar totalmente incólumes pelas defesas criadas pela Microsoft, e hoje qualquer camelô “especializado” em software que está nas ruas das grandes cidades oferece cópias de Windows Vista que rodam sem problema algum o Aero e todas os recursos do Windows Vista.
Como é burlado o sistema de ativação do Windows Vista?
Existem várias formas de burlar o supostamente rigoroso sistema de ativação do Windows Vista. A princípio, funciona mais ou menos como foi feito com o Windows XP, ou seja, usa-se um número de série igual àqueles fornecidos para os grandes fabricantes de computadores. Por exemplo, um destes grandes fabricantes adquire, digamos, 100.000 licenças do Windows XP. Para não ter que ficar ativando cópia por cópia, colocando um serial para cada máquina, a Microsoft fornece um número de série que vale para as 100.000 máquinas. E a cópia do Windows XP também é especial, feita especialmente para este grande fabricante e para aquele número de série. O que acontece é que esta cópia e este número de série segue caminhos obscuros e acaba caindo na mão da população, que consegue ativar seu XP normalmente. Aliás, nem é preciso mais ativar, pois todas as cópias piratas que estão por aí já foram modificadas para instalar-se já ativadas automaticamente.
Ciente deste esquema, a Microsoft resolveu dificultar as coisas quando lançou o Vista. O esquema é bem parecido com o do XP, mas tem um complicador adicional: o Vista verifica através de uma espécie de assinatura na BIOS se aquele micro que está pedindo a ativação do Windows realmente foi feito por aquele grande fabricante de equipamentos que adquiriu aquele lote de licenças. Se o micro não for daquele modelo e daquele fabricante a ativação não é feita.
Parece ser um esquema muito seguro, não é mesmo? Pois é, só parece. Os piratas logo descobriram um jeito de fazer qualquer computador fingir que é, digamos, um micro da Dell ou da Asus.
Um método mais complicado consiste em regravar o BIOS do micro colocando nele uma assinatura digital para que o micro "finja" ser algum modelo conhecido de um grande fabricante. Usa-se o número de série daquele fabricante, instala-se uma licença digital para aquela série e pronto, Windows Vista ativado!
Com o tempo, os piratas desenvolveram um método mais simples, que não precisa alterar o BIOS. Trata-se de um pequeno programa (o “Vistaloader”) a ser carregado logo na inicialização e que nada mais é do que um BIOS falso. Quando o sistema faz alguma solicitação para o BIOS, este programa intercepta o pedido e decide se encaminha ou não para o BIOS. Quando a solicitação for para ler a assinatura digital do fabricante, o programa mesmo é que responde que o micro é um determinado modelo de um grande fabricante. E assim repete-se o mesmo esquema, ou seja, o número de série será realmente daquele determinado fabricante, e o resultado é o esperado: Windows Vista ativado, para desespero da Microsoft.
Como será a ativação do Windows 7
A julgar pelas cópias de teste, o Windows 7 (“Seven”) usará o mesmo esquema de ativação do Vista, isto é, um número de série específico, uma licença digital e a checagem do BIOS do micro. Certamente a Microsoft deve refinar mais este método, deixando-o mais esperto, mas ao que tudo indica já teria vazado uma cópia de Windows 7 de um grande fabricante (provavelmente a Lenovo) e os piratas já teriam desenvolvido um esquema de ativação “alternativa” semelhante ao do Vista.
Ainda é impossível saber ao certo, mas o fato é que já existem versões do Windows 7 pirateadas e com este crack. Por enquanto são apenas para a versão em inglês e provavelmente devem estar cheios de spywares e trojans, por isso é altamente arriscado tentar experimentar uma cópia destas, sem falar que é ilegal e pode colocar o usuário em sérios apuros com a polícia e a justiça.
Aliás, por falar nisto, precisamos dizer que certamente é direito da Microsoft cobrar por seus produtos, afinal foram investidos muitos bilhões de dólares no desenvolvimento e suporte do Windows. O que sempre discordamos é do alto preço cobrado. Freqüentemente, um pacote contendo o Windows mais um Office oficial custará mais caro do que o próprio computador, o que é um claro incentivo à pirataria. A Microsoft parece que vai aliviar um pouco os termos da licença, oferecendo caixas com o Windows que permitem sua instalação em 3 ou mais máquinas, só esperamos que estes pacotes não custem igualmente 3 ou mais vezes o preço de uma licença única...
Nokia lança seu primeiro netbook
A Nokia, tradicional fabricante finlandês de aparelhos de telefone celular, acaba de entrar no mercado de netbooks com o lançamento do Booklet 3G. O portátil é equipado com um processador Intel Atom (o modelo exato não foi divulgado), tela LCD de 10,1”, rede 3G/HSPA, rede WiFi, tecnologia Bluetooth, saída HDMI, GPS embutido e bateria com autonomia de até 12 horas. O Booklet 3G pesa 1,25 Kg e mede 2 cm de espessura. A Nokia fornecerá mais informações (preço e data de lançamento) sobre Booklet 3G durante o evento Nokia World que acontecerá no próximo dia 2 de setembro em Estugarda, Alemanha.
quinta-feira, 27 de agosto de 2009
Os diversos tipos de manutenção: preventiva, corretiva e preditiva
Quando um equipamento quebra é precisa sair correndo atrás de “alguém” para consertar. Se for um micro, então, o desespero é total: “não posso ficar sem ele! TUDO o que tenho está lá!!!!”
Este é um exemplo típico de uma “manutenção corretiva”, onde o conserto é feito depois que o defeito se manifestou. Mas esta situação está longe de ser a ideal. O certo é o técnico de manutenção (e o usuário do equipamento) ter um plano para manter o equipamento sempre em ordem e evitar surpresas.
O ideal, portanto, é fazer uma manutenção corretiva quando tiver acontecido realmente um acidente, um desastre, isto é, algo não previsível. É a mesma coisa que você usar um carro sem fazer as manutenções e ficar “surpreso” quando um belo dia ele te deixa na mão. Assim como o carro, os equipamentos de informática também precisam de manutenção rotineira, justamente para que seu usuário não seja pego de surpresa e tenha que sair correndo atrás do prejuízo.
Você já deve ter percebido, portanto, que existem diversos tipos de manutenção. Sendo mais específico, existem três tipos de manutenção: preventiva, corretiva e preditiva. Vejamos em detalhes:
Manutenção Corretiva
Este é o tipo mais comum aqui no Brasil, notadamente entre os usuários domésticos, mas também existe muita empresa por aí que usa seus equipamentos até eles chegarem “no osso”. E geralmente não têm um plano de emergência ou um equipamento substituto, quando o problema aparece é um corre-corre…
Para tanto, é preciso caprichar na manutenção preventiva, até porque uma manutenção corretiva geralmente sai mais caro, pois um componente que vai ficando defeituoso acaba forçando as demais partes do equipamento. No caso dos computadores, por exemplo, uma fonte de alimentação cuja ventoinha começa a fazer barulho. O usuário do micro acaba se acostumando com o barulho e vai levando. Só que a ventoinha ruim acaba prejudicando o funcionamento da fonte, esta começa a diminuir sua eficiência, gasta mais energia e começa a não regular adequadamente a energia que vai para a placa-mãe. Esta começa a sofrer com a alimentação ruim, e vai ter sua vida útil encurtada, e assim por diante. Aquela mera ventoinha poderia ter sido trocada logo, aumentando em alguns anos a vida útil do micro.
Manutenção Preventiva
É o procedimento mais barato e garantido, ou seja, corrigir os defeitos antes que se manifestem ou logo que comecem a se manifestar, para causar danos menores. Voltando ao exemplo do carro: não é muito melhor trocar o óleo do motor, a correia dentada e as pastilhas de freio antes que o motor pare ou que o carro se espatife num muro por falta de freio?
Num computador e em qualquer outro equipamento é a mesma coisa. A vantagem de manutenção preventiva é que ela pode ser programada, assim o dono do equipamento não é pego de surpresa. Os procedimentos de manutenção preventiva podem evitar a maior parte dos defeitos dos equipamentos diminuindo ao máximo as manutenções corretivas, que são de longe as mais caras e prejudiciais para quem depende do equipamento.
Manutenção Preditiva
É uma variação da manutenção preventiva, onde os componentes são trocados ou verificados antes que apresentem qualquer defeito. Isto é feito com base em estudos que determinam o MTBF, termo inglês que é uma abreviação de “Maximum Time Between Failures”, ou seja “Tempo Máximo Entre Falhas”.
Como funciona isto? Digamos que os estudos feitos por um fabricante ou empresa especializada indiquem que determinado modelo de disco rígido tem a vida útil estimada em 10.000 horas MTBF. Se ele trabalha 10 horas por dia, isto significa que ele vai durar 1.000 dias ou aproximadamente 3 anos, considerando-se os dias parados. Assim, estes HDs devem ser trocados, por medida preditiva, no máximo cada 3 anos, mesmo que aparentemente estejam funcionando bem. Falando em linguagem popular, seria algo assim: - “Veja bem… este negócio já está pra pifar, é melhor trocar logo…”
O caso dos discos rígidos é típico da falta de atenção com a manutenção. A maioria dos usuários, domésticos e empresariais, só trocam um HD quando ele deixa de funcionar. Mas estes componentes “avisam” bem antes que estão para falhar, aumentando sensivelmente o nível de ruido e começando a apresentar falhas, que vão se avolumando até quebrar por completo. Muita gente confia muito, também, nos HDs e os usa durante anos a fio, e ficam bravos quando perdem tudo o que tinham no HD. Ora essa…
Os procedimentos de manutenção podem se classificar ora como manutenção preventiva, ora como corretiva. O importante mesmo é o técnico de manutenção não se perder, precisa saber exatamente o que está fazendo e seguir uma metodologia. São muitos detalhes a serem lembrados, por isto é importante ter uma seqüência lógica e bem treinada, ensaiada mesmo, para não esquecer de nada.
Este é um exemplo típico de uma “manutenção corretiva”, onde o conserto é feito depois que o defeito se manifestou. Mas esta situação está longe de ser a ideal. O certo é o técnico de manutenção (e o usuário do equipamento) ter um plano para manter o equipamento sempre em ordem e evitar surpresas.
O ideal, portanto, é fazer uma manutenção corretiva quando tiver acontecido realmente um acidente, um desastre, isto é, algo não previsível. É a mesma coisa que você usar um carro sem fazer as manutenções e ficar “surpreso” quando um belo dia ele te deixa na mão. Assim como o carro, os equipamentos de informática também precisam de manutenção rotineira, justamente para que seu usuário não seja pego de surpresa e tenha que sair correndo atrás do prejuízo.
Você já deve ter percebido, portanto, que existem diversos tipos de manutenção. Sendo mais específico, existem três tipos de manutenção: preventiva, corretiva e preditiva. Vejamos em detalhes:
Manutenção Corretiva
Este é o tipo mais comum aqui no Brasil, notadamente entre os usuários domésticos, mas também existe muita empresa por aí que usa seus equipamentos até eles chegarem “no osso”. E geralmente não têm um plano de emergência ou um equipamento substituto, quando o problema aparece é um corre-corre…
A manutenção corretiva acontece porque o equipamento quebrou de vez ou deixou de funcionar de acordo com o esperado, aí então é preciso acionar o profissional de manutenção para “dar um jeito” na situação. O interessante é que, aparentemente, os equipamentos quebram quando mais se precisa deles. Por isto, o ideal seria que a manutenção corretiva acontecesse raramente, ou seja, deveria ser realmente um acidente.
Para tanto, é preciso caprichar na manutenção preventiva, até porque uma manutenção corretiva geralmente sai mais caro, pois um componente que vai ficando defeituoso acaba forçando as demais partes do equipamento. No caso dos computadores, por exemplo, uma fonte de alimentação cuja ventoinha começa a fazer barulho. O usuário do micro acaba se acostumando com o barulho e vai levando. Só que a ventoinha ruim acaba prejudicando o funcionamento da fonte, esta começa a diminuir sua eficiência, gasta mais energia e começa a não regular adequadamente a energia que vai para a placa-mãe. Esta começa a sofrer com a alimentação ruim, e vai ter sua vida útil encurtada, e assim por diante. Aquela mera ventoinha poderia ter sido trocada logo, aumentando em alguns anos a vida útil do micro.
Manutenção Preventiva
É o procedimento mais barato e garantido, ou seja, corrigir os defeitos antes que se manifestem ou logo que comecem a se manifestar, para causar danos menores. Voltando ao exemplo do carro: não é muito melhor trocar o óleo do motor, a correia dentada e as pastilhas de freio antes que o motor pare ou que o carro se espatife num muro por falta de freio?
Num computador e em qualquer outro equipamento é a mesma coisa. A vantagem de manutenção preventiva é que ela pode ser programada, assim o dono do equipamento não é pego de surpresa. Os procedimentos de manutenção preventiva podem evitar a maior parte dos defeitos dos equipamentos diminuindo ao máximo as manutenções corretivas, que são de longe as mais caras e prejudiciais para quem depende do equipamento.
Manutenção Preditiva
É uma variação da manutenção preventiva, onde os componentes são trocados ou verificados antes que apresentem qualquer defeito. Isto é feito com base em estudos que determinam o MTBF, termo inglês que é uma abreviação de “Maximum Time Between Failures”, ou seja “Tempo Máximo Entre Falhas”.
Como funciona isto? Digamos que os estudos feitos por um fabricante ou empresa especializada indiquem que determinado modelo de disco rígido tem a vida útil estimada em 10.000 horas MTBF. Se ele trabalha 10 horas por dia, isto significa que ele vai durar 1.000 dias ou aproximadamente 3 anos, considerando-se os dias parados. Assim, estes HDs devem ser trocados, por medida preditiva, no máximo cada 3 anos, mesmo que aparentemente estejam funcionando bem. Falando em linguagem popular, seria algo assim: - “Veja bem… este negócio já está pra pifar, é melhor trocar logo…”
O caso dos discos rígidos é típico da falta de atenção com a manutenção. A maioria dos usuários, domésticos e empresariais, só trocam um HD quando ele deixa de funcionar. Mas estes componentes “avisam” bem antes que estão para falhar, aumentando sensivelmente o nível de ruido e começando a apresentar falhas, que vão se avolumando até quebrar por completo. Muita gente confia muito, também, nos HDs e os usa durante anos a fio, e ficam bravos quando perdem tudo o que tinham no HD. Ora essa…
Os procedimentos de manutenção podem se classificar ora como manutenção preventiva, ora como corretiva. O importante mesmo é o técnico de manutenção não se perder, precisa saber exatamente o que está fazendo e seguir uma metodologia. São muitos detalhes a serem lembrados, por isto é importante ter uma seqüência lógica e bem treinada, ensaiada mesmo, para não esquecer de nada.
Devo ou não fazer um curso de Manutenção?
Patindo do ponto de vista de um professor, é certo que eu sempre daria conselhos de que é preciso buscar por conhecimentos, porém nem sempre um curso te traz aquilo que realmente é buscado. Se já existe algum conhecimento em informática, acredito que um curso te traz novos conhecimentos, até pela troca de informações entre colegas e professor. Agora se você está totalmente zero em informática, aconselho um curso de informática básico, é bom lembrar também que não só de manutenção existe a informática, existe ainda a programação e também a área gráfica que também traz uma boa formação para quem gosta. Sempre lembro aos meus alunos que para todo profissional não basta somente fazer um curso e cruzar os braços, muito pelo contrário, o profissional que resolve se dedicar a manutenção de informática deve lembrar que este mercado é altamente dinâmico, e isso deve ser agregado de novas informações que normalmente se busca na própria internet, em fóruns, listas de amizade, blogs, bem como páginas de procura.
Fotos do Tablet da Apple
Uma geração sensível ao toque está chegando, com isso os fabricantes estão trabalhando para conseguir uma nova fátia de mercado.O site francês Nowhereelse.fr publicou duas fotos do que pode ser o protótipo do Tablet da Apple. Infelizmente informações mais detalhadas sobre o aparelho não foram divulgadas. O equipamento tem uma tela sensível ao toque de 8” ou 10” e vem com o sistema operacional Apple Mac OS X Leopard instalado. Considerando os rumores de que a Apple estaria desenvolvendo um Tablet PC, as fotos do site Nowhereelse.fr, que parecem ser verdadeiras, podem realmente ser de um protótipo ou da versão final do Tablet da Apple.
Mais informações:http://www.nowhereelse.fr/enfin-une-authentique-photo-de-la-mactablet-itouch-22919/
Mais informações:http://www.nowhereelse.fr/enfin-une-authentique-photo-de-la-mactablet-itouch-22919/
quarta-feira, 26 de agosto de 2009
Migrar ou não migrar para o Windows 7 que será lançado em Outubro de 2009?
Sempre que a Microsoft lança um novo Windows a pergunta é sempre a mesma: mudar ou não mudar? A resposta não é fácil de obter, e depende do tipo de usuário. Deixando de lado a versão para servidores, analisemos quais são os grupos de usuários que precisarão fazer sua opção:
1. Pessoas que precisam ou querem estar sempre com a última versão de tudo,2. Pessoas que atualmente usam Macintosh ou Linux,3. Aqueles que estão satisfeitos com o XP e não parecem ter interesse em mudanças,4. Quem experimentou e não gostou do Vista, mas pode estar curioso a respeito do Windows 7,5. Quem já está usando o Vista, e finalmente6. Todos os demais usuários de Windows.
Analisemos o que acontece em cada um destes públicos:
1. Pessoas que precisam ou querem estar sempre com a última versão de tudoSe você for um profissional da área de sistemas ou adora ter novos brinquedinhos para se divertir, a resposta certamente será um sonoro “SIM, PORQUE NÃO?!?!?”. Se você gosta de explorar um novo sistema operacional e não se importa com os pequenos (ou grandes) problemas que certamente aparecerão na migração, você não tem nada a perder exceto aqueles aplicatvos e equipamentos antigos que tem usado até o presente momento. Certamente, este não é um grupo muito grande.
2. Pessoas que atualmente usam Macintosh ou LinuxBem, neste caso… acho que eles simplesmente ignorarão o novo Windows ou pior, o acharão ridículo e patético, como sem foi. Nada a dizer para este grupo: se estão satisfeitos com seus Macs ou micros com Linux que continuem assim. O Windows 7 nada tem a oferecer para este pessoal que os faça mudar de idéia.
3. Aqueles que estão satisfeitos com o XP e não parecem ter interesse em mudançasSe você NÃO tem equipamento suficiente para rodar o novo Windows 7, então poderá até pular este tópico, a não ser que esteja planejando fazer um upgrade ou comprar uma máquina nova. Pois então, quem TEM um micro à altura do Windows Vista e que, portanto, poderá também rodar o Windows 7 tranqüilamente, talvez se interesse por esta análise que mostramos a seguir:O Windows XP é um excelente sistema operacional, até por isso é que a maior parte dos computadores (mais de 80%) rodam com ele. O suporte da Microsoft ao XP foi estendido até abril de 2014, portanto, nada existe existe que o force a migrar para o Windows 7 nos próximos tempos.Aliás, cabe aqui uma consideração interessante. A Microsoft está fazendo de tudo para que seus consumidores se esqueçam do XP. Parece ilógico, pois a mesma empresa que criou o mais popular sistema operacional de todos os tempos não quer mais vendê-lo. É como se o McDonalds resolvesse não vender mais Big Macs ou se a Coca-Cola parasse de produzir refrigerantes… Entretanto, assim funciona o capitalismo, é a tal “da obsolescência programada”.Além deste fator, ou seja, que as Microsoft deixou de considerar o XP como seu filho mais importante, existe a parte técnica do Windows 7. Em especial, o Windows 7 é que vai passar a receber o melhor suporte ao hardware e às novas medidas de segurança. Com isso, o XP começará a ficar mais e mais defasado nos próximos anos.Assim, para este grupo que usa o XP mas tem hardware para rodar o Vista, o que podemos dizer é que você poderá até rodar seu querido XP por mais algum tempo, mas logo precisará considerar seriamente a mudança para o Windows 7, goste dele ou não.
4. Quem experimentou e não gostou do Vista, mas está curioso a respeito do Windows 7Para este grupo, devemos dizer que o Windows 7 é realmente um Vista revisitado mas… justiça seja feita: se o produto final estiver igual à versão de testes (“RC”), podemos afirmar que o Windows 7 é, na verdade, o que o Vista deveria ter sido desde o começo.O Windows 7 parece ser mais leve e roda de maneira aceitável na maior parte dos micros antigos que não conseguem rodar o Vista. Os problemas de compatibilidade com aplicativos e dispositivos de hardware também foram resolvidos, de uma forma ou de outra. Analisaremos mais adiante as diferenças trazidas pelo Windows 7, mas por enquanto basta dizer para este grupo que o Windows 7 é bem-vindo, e que se você não gostou do Vista merece tentar ao menos a versão de testes do Windows 7 que pode ser baixada gratuitamente do site da Microsoft e, quem sabe, você vai se surpreender ao ver que o Vista parece um rascunho mal feito do Windows 7.
5. Quem já está usando o VistaProvavelmente se está usando o Vista é porque está satisfeito com ele e provavelmente ficará ainda mais satisfeito com o Windows 7, que é mais ligeiro e compatível. Se você está usando o Vista contra sua vontade, porque comprou um micro com ele ou porque roda algum programa que só funciona no Vista, então a boa notícia é que o Vista “curou” muitos dos alegados problemas do Vista (vide adiante).
6. Todos os demais usuários de WindowsEste é o grupo mais numeroso. Muita gente desconhece qual é o Windows que está no micro que usa todos os dias, sabe apenas que “alguém” colocou “um Windows” lá e pronto. Aliás, muita gente confunde seu computador com o próprio Windows e vice-versa, é comum pessoas assim dizerem coisas como “o meu Windows está com problema” quando na verdade é o computador, o monitor ou a impressora que estão com defeito.Mesmo para este grupo de gente mal informada, que geralmente fica indiferente ao seu sistema operacional, começou a reclamar dos problemas do Vista como lentidão, aplicativos e equipamentos que não funcionam com ele, sem falar d+as rígidas medidas de segurança que obrigam a clicar duas ou três vezes para iniciar um programa qualquer. Assim, para este grupo, o importante é que o sistema operacional “desapareça”. O importante para eles é que o micro funcione e, também para este grupo, a boa notícia é que o Windows 7 caminhou bastante nesta direção, de ser um sistema operacional eficiente e que funciona de maneira transparente sem ficar no caminho do usuário a cada coisa que ele queira fazer.
Eu como fã incondicional da Microsoft, digo que o Windows 7 é uma nova revolução em termos de Sistema Operacional inovador. Após testes realizados no meu computador pessoal, passo a informação de um S.O. ágil, bonito e que realmente pensa no futuro para permanecer por alguns anos.
1. Pessoas que precisam ou querem estar sempre com a última versão de tudo,2. Pessoas que atualmente usam Macintosh ou Linux,3. Aqueles que estão satisfeitos com o XP e não parecem ter interesse em mudanças,4. Quem experimentou e não gostou do Vista, mas pode estar curioso a respeito do Windows 7,5. Quem já está usando o Vista, e finalmente6. Todos os demais usuários de Windows.
Analisemos o que acontece em cada um destes públicos:
1. Pessoas que precisam ou querem estar sempre com a última versão de tudoSe você for um profissional da área de sistemas ou adora ter novos brinquedinhos para se divertir, a resposta certamente será um sonoro “SIM, PORQUE NÃO?!?!?”. Se você gosta de explorar um novo sistema operacional e não se importa com os pequenos (ou grandes) problemas que certamente aparecerão na migração, você não tem nada a perder exceto aqueles aplicatvos e equipamentos antigos que tem usado até o presente momento. Certamente, este não é um grupo muito grande.
2. Pessoas que atualmente usam Macintosh ou LinuxBem, neste caso… acho que eles simplesmente ignorarão o novo Windows ou pior, o acharão ridículo e patético, como sem foi. Nada a dizer para este grupo: se estão satisfeitos com seus Macs ou micros com Linux que continuem assim. O Windows 7 nada tem a oferecer para este pessoal que os faça mudar de idéia.
3. Aqueles que estão satisfeitos com o XP e não parecem ter interesse em mudançasSe você NÃO tem equipamento suficiente para rodar o novo Windows 7, então poderá até pular este tópico, a não ser que esteja planejando fazer um upgrade ou comprar uma máquina nova. Pois então, quem TEM um micro à altura do Windows Vista e que, portanto, poderá também rodar o Windows 7 tranqüilamente, talvez se interesse por esta análise que mostramos a seguir:O Windows XP é um excelente sistema operacional, até por isso é que a maior parte dos computadores (mais de 80%) rodam com ele. O suporte da Microsoft ao XP foi estendido até abril de 2014, portanto, nada existe existe que o force a migrar para o Windows 7 nos próximos tempos.Aliás, cabe aqui uma consideração interessante. A Microsoft está fazendo de tudo para que seus consumidores se esqueçam do XP. Parece ilógico, pois a mesma empresa que criou o mais popular sistema operacional de todos os tempos não quer mais vendê-lo. É como se o McDonalds resolvesse não vender mais Big Macs ou se a Coca-Cola parasse de produzir refrigerantes… Entretanto, assim funciona o capitalismo, é a tal “da obsolescência programada”.Além deste fator, ou seja, que as Microsoft deixou de considerar o XP como seu filho mais importante, existe a parte técnica do Windows 7. Em especial, o Windows 7 é que vai passar a receber o melhor suporte ao hardware e às novas medidas de segurança. Com isso, o XP começará a ficar mais e mais defasado nos próximos anos.Assim, para este grupo que usa o XP mas tem hardware para rodar o Vista, o que podemos dizer é que você poderá até rodar seu querido XP por mais algum tempo, mas logo precisará considerar seriamente a mudança para o Windows 7, goste dele ou não.
4. Quem experimentou e não gostou do Vista, mas está curioso a respeito do Windows 7Para este grupo, devemos dizer que o Windows 7 é realmente um Vista revisitado mas… justiça seja feita: se o produto final estiver igual à versão de testes (“RC”), podemos afirmar que o Windows 7 é, na verdade, o que o Vista deveria ter sido desde o começo.O Windows 7 parece ser mais leve e roda de maneira aceitável na maior parte dos micros antigos que não conseguem rodar o Vista. Os problemas de compatibilidade com aplicativos e dispositivos de hardware também foram resolvidos, de uma forma ou de outra. Analisaremos mais adiante as diferenças trazidas pelo Windows 7, mas por enquanto basta dizer para este grupo que o Windows 7 é bem-vindo, e que se você não gostou do Vista merece tentar ao menos a versão de testes do Windows 7 que pode ser baixada gratuitamente do site da Microsoft e, quem sabe, você vai se surpreender ao ver que o Vista parece um rascunho mal feito do Windows 7.
5. Quem já está usando o VistaProvavelmente se está usando o Vista é porque está satisfeito com ele e provavelmente ficará ainda mais satisfeito com o Windows 7, que é mais ligeiro e compatível. Se você está usando o Vista contra sua vontade, porque comprou um micro com ele ou porque roda algum programa que só funciona no Vista, então a boa notícia é que o Vista “curou” muitos dos alegados problemas do Vista (vide adiante).
6. Todos os demais usuários de WindowsEste é o grupo mais numeroso. Muita gente desconhece qual é o Windows que está no micro que usa todos os dias, sabe apenas que “alguém” colocou “um Windows” lá e pronto. Aliás, muita gente confunde seu computador com o próprio Windows e vice-versa, é comum pessoas assim dizerem coisas como “o meu Windows está com problema” quando na verdade é o computador, o monitor ou a impressora que estão com defeito.Mesmo para este grupo de gente mal informada, que geralmente fica indiferente ao seu sistema operacional, começou a reclamar dos problemas do Vista como lentidão, aplicativos e equipamentos que não funcionam com ele, sem falar d+as rígidas medidas de segurança que obrigam a clicar duas ou três vezes para iniciar um programa qualquer. Assim, para este grupo, o importante é que o sistema operacional “desapareça”. O importante para eles é que o micro funcione e, também para este grupo, a boa notícia é que o Windows 7 caminhou bastante nesta direção, de ser um sistema operacional eficiente e que funciona de maneira transparente sem ficar no caminho do usuário a cada coisa que ele queira fazer.
Eu como fã incondicional da Microsoft, digo que o Windows 7 é uma nova revolução em termos de Sistema Operacional inovador. Após testes realizados no meu computador pessoal, passo a informação de um S.O. ágil, bonito e que realmente pensa no futuro para permanecer por alguns anos.
AMD prepara Phenom II X4 965
A AMD está preparando para o próximo dia 19 o lançamento do Phenom II X4965 Black Edition, um processador soquete AM3 de quatro núcleos com clock interno de 3,4 GHz, 6 MB de cache L3, controlador de memória DDR2/DDR3 integrado, barramento HyperTransport de 4 GHz e TDP de 125 W. Por se tratar de um modelo “Black Edition” este novo processador terá o seu multiplicador de clock destravado, para alegria da galera do overclock.Ele também será o processador mais rápido da AMD em termos de clock.
Fonte: Clube do Hardware
Fonte: Clube do Hardware
Google anuncia o sistema operacional Chrome. Seria uma ameaça ao Windows?
O Chrome OS é uma extensão do browser da Google, também denominado Chrome. Esse browser pode rodar em Windows, Linux e MacOS, e agora a Google resolveu que não vai querer mais nenhum sistema operacional abaixo do seu browser que não seja também desta mesma empresa.Com efeito, a onda dos netbooks, aqueles micros pequenos e portáteis, feitos para acessar a internet e outros serviços on-line, mostrou que muitos e muitos usuários ficam totalmente satisfeitos em suas necessidades de computação com sistemas igualmente pequenos, porém leves, rápidos e seguros. E estas características, definitivamente, não descrevem o Windows e nem o Linux ou mesmo o MacOS, plataformas dominantes nos computadores pessoais. O Windows 7, a ser lançado, mostrou uma clara guinada da Microsoft neste sentido, mas mesmo o Windows 7 ainda é demasiado grande para os pequenos netbooks, segundo o pensamento dos engenheiros da Google.Pois bem. Agora que a Microsoft reafirmou sua dominância também no segmento dos netbooks, a Google anuncia que vai lançar um sistema operacional próprio. Mas, afinal, no que consiste o Chrome OS?O que é o Chrome Operating SystemO Chrome OS é um sistema operacional que vai rodar tanto na arquitetura x86 dos Pcs convencionais quanto na arquitetura ARM, muito utilizada em dispositivos portáteis como PDAs, telefones, iPods e outros tocadores de música, consoles de games, calculadoras e periféricos de computador como discos rígidos e roteadores. Provavelmente, o Chrome OS vá atender ao mesmo mercado que hoje a Google já atende com o Android, sistema operacional para celulares.A ênfase do Chrome OS vai para os mesmos aspectos para os quais os netbooks foram desenhados originalmente: computação móvel, leve e baseada na internet. Obviamente, o Windows XP não foi desenhado para este cenário, mas a sua relativa leveza, baixo custo e familiaridade o transformaram em sucesso entre os compradores de netbooks.O novo sistema da Google certamente vai bater tanto o XP quanto o Windows 7 em custo, e será mais leve, mas ainda é cedo para saber como ele realmente vai se portar. A morte relativa do Linux nos netbooks demonstra claramente que as pessoas tendem a preferir um ambiente de trabalho parecido com o Windows, mas a Google afirma nas notas de lançamento que “a interface do usuário (do Chrome OS) é mínima para que possa ficar fora do caminho, uma vez que maior parte da experiência (dos usuários) acontece dentro da internet. Assim como fizemos com o browser Chrome, fizemos o caminho de volta ao básico e redesenhamos completamente o que está por baixo do browser de maneira que as pessoas não precisem ter que lidar com virus e atualizações de segurança. A idéia é que o sistema operacional simplesmente funcione”.De acordo com a empresa, o Chrome OS roda dentro de um novo sistema gráfico de janelas que, por sua vez, roda em cima de um kernel Linux. É o mesmo que acontece no sistema operacional do Apple MacIntosh, só que no caso da Apple o sistema base é o BeOS, “irmão” do Linux uma vez que ambos são “filhos” do Unix. O novo sistema vai rodar em qualquer hardware indo de netbooks a computadores de mesa completos. É esta a diferença principal entre o Chrome OS e o Android, que também vai começar a aparecer nos netbooks nos próximos meses. A Google informa também que existem dispositivos onde os dois sistemas operacionais poderão ser usados indistintamente.Do ponto de vista dos desenvolvedores de aplicativos, a chegada do Chrome OS é uma boa notícia, porque basicamente não existe uma nova plataforma para a qual os programas precisem ou não serem portados. Bvasicamente, qualquer aplicativo que rode em um browser vai funcionar também no Chrome, assim como em qualquer outro browser ou sistema operacional.A empresa afirma estar negociando com “vários fabricantes” de computadores, de forma que o Chrome OS chegue às lojas no segundo semestre de 2010. Sim, ainda teremos que esperar um ano, e o Windows 7 terá este tempo para mostrar a que veio também na área dos micros e dispositivos portáteis.L A N Ç A M E N T O !!Versão 2.6 do DVD de Service Packs e Utilitários para Windows da Thecnica SistemasA nova versão traz o SP1 e SP2 para o Windows Vista, assim como para as demais versões de Windows e de Office. Tem também diversos antivirus e utilitários para instalar no micro ou para rodar direto do DVD.Ver mais detalhes e encomendar
Quer dizer então que o Windows que usamos está sendo substituído? Longe disto. O Windows vai continuar a plataforma dominante por anos, até porque os aplicativos profissionais são grandes demais para rodar pela internet. Só que atualmente existem muitas outras formas de se fazer computação, e o Windows nem sempre é a melhor solução para todas elas. Aliás, é muito bom ter opções nem que seja para refrear um pouco a volúpia de preços praticada pela Microsoft.
Fonte: Revista PnP
terça-feira, 25 de agosto de 2009
Vírus Conficker
Esta nova praga que vem incomodando grande número de usuários do Win XP, este vírus acaba por minar todas as defesas do Windows, impedindo sua atualização e também o acesso a páginas de anti-vírus. Pode deixar seu micro lento e tem conseguido burlar a maior parte dos anti-vírus do mercado.
Não há perda de arquivos, documentos ou dados, apenas roubo de senhas e contrassenhas (outra senha gerada como resposta à senha). O vírus tem a capacidade de escravizar as máquinas e torná-las "zumbis virtuais", sem que os usuários desses computadores saibam a respeito da invasão. Ou seja, computadores afetados passam a ser controlados por uma rede que usa essas máquinas para sobrecarregar sites (com milhares de acessos simultâneos) a fim de derrubar páginas e interromper servidores.
Os sites mais visados são de gigantes da informática --Microsoft, IBM, Dell, por exemplo-- e os governamentais (como o da Casa Branca e o Pentágono, ambos dos EUA). A lista completa, no entanto, não é exata. Tradicionalmente, o que ele faz é tentar se infiltrar em todas as máquinas da rede que não possuam o pacote da Microsoft para causar lentidão na conexão das empresas. O fundamental para o usuário comum é ter atualizações do Windows Update em dia, especificamente o pacote de atualização MS08-067. Se o usuário não o tiver, as chances de infecção são grandes.
Forma de verificar se seu pc está contaminado:
http://www.curiosando.com.br/04/2009/certifique-se-que-seu-pc-esta-livre-do-virus-conficker/
Não há perda de arquivos, documentos ou dados, apenas roubo de senhas e contrassenhas (outra senha gerada como resposta à senha). O vírus tem a capacidade de escravizar as máquinas e torná-las "zumbis virtuais", sem que os usuários desses computadores saibam a respeito da invasão. Ou seja, computadores afetados passam a ser controlados por uma rede que usa essas máquinas para sobrecarregar sites (com milhares de acessos simultâneos) a fim de derrubar páginas e interromper servidores.
Os sites mais visados são de gigantes da informática --Microsoft, IBM, Dell, por exemplo-- e os governamentais (como o da Casa Branca e o Pentágono, ambos dos EUA). A lista completa, no entanto, não é exata. Tradicionalmente, o que ele faz é tentar se infiltrar em todas as máquinas da rede que não possuam o pacote da Microsoft para causar lentidão na conexão das empresas. O fundamental para o usuário comum é ter atualizações do Windows Update em dia, especificamente o pacote de atualização MS08-067. Se o usuário não o tiver, as chances de infecção são grandes.
Forma de verificar se seu pc está contaminado:
http://www.curiosando.com.br/04/2009/certifique-se-que-seu-pc-esta-livre-do-virus-conficker/
segunda-feira, 24 de agosto de 2009
Procedimentos incorretos no cabeamento de rede com par trançado
Os cabos de rede local mais comuns hoje em dia são aqueles chamados de “par trançado não blindado”, geralmente na cor azul ou cinza claro. Eles costumam ser chamados por sua abreviação em inglês, “UTP”, termo que é uma abreviação de “Unshielded Twisted Pair”. Este tipo de cabo, é um dos fatores que possibilitaram a simplificação do processo de implantar uma infra-estrutura de rede local de computadores.. Devido à sua natureza de interligar ponto a ponto, o cabo UTP facilitou não apenas a instalação mas também a manutenção das redes. Com ele ficou fácil diagnosticar problemas referentes ao cabeamento pois é possível isolar cada um dos segmento das redes, já que cada um deles conecta uma estação da rede a um equipamento ativo (switch ou roteador). Basta ir testando segmento por segmento até achar o “culpado”. Além disso, se um determinado computador não está conseguindo se conectar a rede por causa do cabeamento, o problema fica restrito aquele segmento de cabo que o interliga a um outro dispositivo ativo.O cabo UTP é de fácil conectorização e baixo custo de aquisição, se comparado às outras opções como os cabos blindados e a fibra ótica. Em relação às redes wireless, tão comuns atualmente, o cabo de par trançado oferece estabilidade e velocidades muito maiores (até 10 Gbps).Porém, a aparente simplicidade dos cabos UTP esconde a necessidade de que tenhamos cuidados básicos na sua implantação. O que mostraremos aqui são os enganos e erros mais comuns cometidos na instalação de cabos UTP e o que isso pode acarretar.
Erro nº 1 — Fio rígido versus flexívelOs fios que constituem um cabo par trançado podem ser do tipo rígido ou do tipo retorcido. O tipo retorcido, também chamado de flexível, é formado pelo entrelaçamento de vários fios finos. Já o tipo rígido é constituído de um só fio. Outra característica que diferencia os dois tipos é que o rígido é mais sensível a deformações mecânicas.Certo, mas o que tem de errado nisso? Como a maioria dos cabos UTP possui fios do tipo rígido devemos tomar alguns cuidados quando fizermos o seu lançamento nas estruturas de passagem. Além disso, muitos instaladores, por economia, compram os cabos mais baratos que encontram e estes geralmente são muito rígidos e de material vagabundo, o que aumenta muito as chances de ocorrerem problemas.
Erro nº 2 — Cabo esmagadoÉ muito comum vermos cabos sendo esmagados por terem sido instalados sem uma estrutura de passagem adequada como, por exemplo, para atravessar uma porta ou janela. Este é um problema típico resultante da falta de previsão para uma na passagem de cabo de um andar para o outro ou de uma sala para outra.Esta situação faz com que no ponto de estrangulamento o cabo sofra alterações nas suas características físicas (deformação mecânica) e elétricas (problemas de diferença de impedância). Isto causará um aumento de problemas como perda de retorno (“return loss”) e atenuação (perda de inserção). O adequado nestes casos é planejar e providenciar uma estrutura de passagem adequada, usando protetores e eletrodutos para o cabo.
Erro nº 3 — Cabo passando numa área de circulaçãoO computador mudou de lugar e logo alguém tem aquela bela idéia de passar o cabo cruzando a área de circulação de pessoas. Para “organizar” o cabeamento algum otimista coloca fita crepe protegendo o cabo, achando que isto vai protegê-lo. Este erro tem dois problemas bem fáceis de perceber. Primeiro o cabo vai ser constantemente pisoteado, e além disso as pessoas que circulam nesta área correm o risco de tropeçar no cabo e cair, mesmo com a “providencial” fita crepe. Vale aqui o mesmo que foi dito sobre cabo esmagado: as características físicas e elétricas do cabo serão afetados e o sinal de rede que é transportado pelo cabo sofrerá mais interferências.
Erro nº 4 — Cabo passando sem proteção em área externaEste problema muitas vezes está associado à questão do cabo esmagado ao passar por portas e janelas. Os incautos passam cabos pelo lado externo da edificação sem nenhuma proteção contra a ação da chuva e do sol. A princípio não existe problema em passar um cabo pelo lado externo da edificação, desde que haja uma estrutura de passagem adequada. Porém, o que vemos são cabos passados de qualquer jeito e sem nenhuma proteção. O que vai acontecer com estes cabos é um ressecamento prematuro da capa pela ação do tempo.Por isso, se precisar passar um cabo pelo lado externo, o correto é fazer uma estrutura de passagem que providencie uma saída organizada dos cabos e um caminho até a sua entrada novamente na edificação, usando eletrodutos e caixas de passagem e inspeção. Nada de cabos que saem pelas frestas da janela e seguem sem proteção pelo lado de fora do prédio. Novamente o que motiva este erro de instalação é a falta de planejamento de passagem de cabos entre andares ou até mesmo entre salas de uma edificação.
Erro nº 5 — A questão da vaselina, detergente, talco…Como a maioria das edificações foi feita sem pensar nos cabos de rede, estes precisam passar por qualquer eletroduto ou buraquinho disponível. Freqüentemente passam junto com a fiação de telefone ou antena de TV ou até, infelizmente, junto da própria fiação elétrica.O simples fato do cabo de rede passar junto com estes outros dispositivos não significa necessariamente um problema, pois a própria construção do cabo e o arranjo elétrico dos sinais foi todo projetado justamente para diminuir a interferência que possa ser gerada pelos campos eletromagnéticos que são gerados por diversos dispositivos e cabeamentos.O grande problema de aproveitar estas passagens para o cabeamento de rede é que existem curvas e eletrodutos inadequados para ele, até porque esses eletrodutos já devem estar lotados e o cabo de rede tem que passar “espremido” no meio dos outros.Isto leva o instalador a colocar bastante força para conseguir passar o cabo de rede, o que pode danificar sua estrutura mecânica. O resultado é a perda de sinal e pode deixar a rede com funcionamento intermitente, devido a algum componente interno danificado.Alguns instaladores passam vaselina ou detergente para diminuir a força necessária para puxar os cabos de rede pelos eletrodutos, mas esta prática é bastante discutível. A vaselina e o detergente são componentes químicos que podem reagir com o isolamento do cabo, novamente diminuindo sua eficiência e durabilidade. O ideal seria passar algum componente neutro como, por exemplo, grafite em pó ou produtos adequados para condutores elétricos.
Erro nº 6 — Cabo muito esticadoUm erro comum encontrado nas instalações de cabeamento é achar que cabo “organizado é cabo esticado”. O esticamento acima de certo limite gera deformações mecânicas que causam problemas para a passagem do sinal de rede. Um cabo esticado sofrerá deformações pois será pressionado contra quinas e curvas das estruturas de passagem. Além disto cabos esticados na área de trabalho vão forçar as conectorizações e acabam gerando problemas de mau contato elétrico. Num cabeamento bem feito o cabo não fica muito esticado nem faz curvas bruscas e está bem organizado em caixas de passagem.Erro nº 7 — A questão da “sobra técnica”Outro equívoco cometido em algumas instalações é apelidado de “sobra técnica”. O que é isso? Com receio de que o cabo não alcance a estação após uma mudança de lay-out, o instalador deixa uma sobra de cabo. Na figura ao lado vemos um exemplo deste problema. O que motiva a deixar este resto de cabo é, novamente, o velho problema da falta de um projeto de infra-estrutura de cabeamento. O correto é projetar e instalar diversos pontos de rede na área de trabalho. Caso um computador precise mudar de posição ele será atendido por outro ponto de rede.Ao invés de deixar os cabos pendurados, o certo é utilizar um conector adequado em cada tomada de parede, e ligar o computador a este conector usando um “Patch Cord”. Este é um cabo de rede que usa o mesmo tipo de par trançado, só que é feito de materiais especiais que o tornam bem flexível e maleável e muito menos sujeito a se danificar.
Erro nº 1 — Fio rígido versus flexívelOs fios que constituem um cabo par trançado podem ser do tipo rígido ou do tipo retorcido. O tipo retorcido, também chamado de flexível, é formado pelo entrelaçamento de vários fios finos. Já o tipo rígido é constituído de um só fio. Outra característica que diferencia os dois tipos é que o rígido é mais sensível a deformações mecânicas.Certo, mas o que tem de errado nisso? Como a maioria dos cabos UTP possui fios do tipo rígido devemos tomar alguns cuidados quando fizermos o seu lançamento nas estruturas de passagem. Além disso, muitos instaladores, por economia, compram os cabos mais baratos que encontram e estes geralmente são muito rígidos e de material vagabundo, o que aumenta muito as chances de ocorrerem problemas.
Erro nº 2 — Cabo esmagadoÉ muito comum vermos cabos sendo esmagados por terem sido instalados sem uma estrutura de passagem adequada como, por exemplo, para atravessar uma porta ou janela. Este é um problema típico resultante da falta de previsão para uma na passagem de cabo de um andar para o outro ou de uma sala para outra.Esta situação faz com que no ponto de estrangulamento o cabo sofra alterações nas suas características físicas (deformação mecânica) e elétricas (problemas de diferença de impedância). Isto causará um aumento de problemas como perda de retorno (“return loss”) e atenuação (perda de inserção). O adequado nestes casos é planejar e providenciar uma estrutura de passagem adequada, usando protetores e eletrodutos para o cabo.
Erro nº 3 — Cabo passando numa área de circulaçãoO computador mudou de lugar e logo alguém tem aquela bela idéia de passar o cabo cruzando a área de circulação de pessoas. Para “organizar” o cabeamento algum otimista coloca fita crepe protegendo o cabo, achando que isto vai protegê-lo. Este erro tem dois problemas bem fáceis de perceber. Primeiro o cabo vai ser constantemente pisoteado, e além disso as pessoas que circulam nesta área correm o risco de tropeçar no cabo e cair, mesmo com a “providencial” fita crepe. Vale aqui o mesmo que foi dito sobre cabo esmagado: as características físicas e elétricas do cabo serão afetados e o sinal de rede que é transportado pelo cabo sofrerá mais interferências.
Erro nº 4 — Cabo passando sem proteção em área externaEste problema muitas vezes está associado à questão do cabo esmagado ao passar por portas e janelas. Os incautos passam cabos pelo lado externo da edificação sem nenhuma proteção contra a ação da chuva e do sol. A princípio não existe problema em passar um cabo pelo lado externo da edificação, desde que haja uma estrutura de passagem adequada. Porém, o que vemos são cabos passados de qualquer jeito e sem nenhuma proteção. O que vai acontecer com estes cabos é um ressecamento prematuro da capa pela ação do tempo.Por isso, se precisar passar um cabo pelo lado externo, o correto é fazer uma estrutura de passagem que providencie uma saída organizada dos cabos e um caminho até a sua entrada novamente na edificação, usando eletrodutos e caixas de passagem e inspeção. Nada de cabos que saem pelas frestas da janela e seguem sem proteção pelo lado de fora do prédio. Novamente o que motiva este erro de instalação é a falta de planejamento de passagem de cabos entre andares ou até mesmo entre salas de uma edificação.
Erro nº 5 — A questão da vaselina, detergente, talco…Como a maioria das edificações foi feita sem pensar nos cabos de rede, estes precisam passar por qualquer eletroduto ou buraquinho disponível. Freqüentemente passam junto com a fiação de telefone ou antena de TV ou até, infelizmente, junto da própria fiação elétrica.O simples fato do cabo de rede passar junto com estes outros dispositivos não significa necessariamente um problema, pois a própria construção do cabo e o arranjo elétrico dos sinais foi todo projetado justamente para diminuir a interferência que possa ser gerada pelos campos eletromagnéticos que são gerados por diversos dispositivos e cabeamentos.O grande problema de aproveitar estas passagens para o cabeamento de rede é que existem curvas e eletrodutos inadequados para ele, até porque esses eletrodutos já devem estar lotados e o cabo de rede tem que passar “espremido” no meio dos outros.Isto leva o instalador a colocar bastante força para conseguir passar o cabo de rede, o que pode danificar sua estrutura mecânica. O resultado é a perda de sinal e pode deixar a rede com funcionamento intermitente, devido a algum componente interno danificado.Alguns instaladores passam vaselina ou detergente para diminuir a força necessária para puxar os cabos de rede pelos eletrodutos, mas esta prática é bastante discutível. A vaselina e o detergente são componentes químicos que podem reagir com o isolamento do cabo, novamente diminuindo sua eficiência e durabilidade. O ideal seria passar algum componente neutro como, por exemplo, grafite em pó ou produtos adequados para condutores elétricos.
Erro nº 6 — Cabo muito esticadoUm erro comum encontrado nas instalações de cabeamento é achar que cabo “organizado é cabo esticado”. O esticamento acima de certo limite gera deformações mecânicas que causam problemas para a passagem do sinal de rede. Um cabo esticado sofrerá deformações pois será pressionado contra quinas e curvas das estruturas de passagem. Além disto cabos esticados na área de trabalho vão forçar as conectorizações e acabam gerando problemas de mau contato elétrico. Num cabeamento bem feito o cabo não fica muito esticado nem faz curvas bruscas e está bem organizado em caixas de passagem.Erro nº 7 — A questão da “sobra técnica”Outro equívoco cometido em algumas instalações é apelidado de “sobra técnica”. O que é isso? Com receio de que o cabo não alcance a estação após uma mudança de lay-out, o instalador deixa uma sobra de cabo. Na figura ao lado vemos um exemplo deste problema. O que motiva a deixar este resto de cabo é, novamente, o velho problema da falta de um projeto de infra-estrutura de cabeamento. O correto é projetar e instalar diversos pontos de rede na área de trabalho. Caso um computador precise mudar de posição ele será atendido por outro ponto de rede.Ao invés de deixar os cabos pendurados, o certo é utilizar um conector adequado em cada tomada de parede, e ligar o computador a este conector usando um “Patch Cord”. Este é um cabo de rede que usa o mesmo tipo de par trançado, só que é feito de materiais especiais que o tornam bem flexível e maleável e muito menos sujeito a se danificar.
Bem Vindo
Olá, bem vindo ao blog do Professor Giovani Bernardes, blog dedicado aos meus alunos do curso de Hardware e Redes (Manutenção) da Microlins, aqui podemos trocar informações, adicionar material didático, complementar aulas.
Assinar:
Postagens (Atom)