segunda-feira, 31 de agosto de 2009

Vírus grava conversas do Skype em MP3

A Symantec descobriu na quinta-feira, 27/08, um vírus capaz de gravar conversas de áudio feitas por meio do Skype. Segundo a empresa, o Trojan.Peskyspy é considerado a primeira escuta na forma de cavalo-de-tróia.

As chamadas de voz via VoIP do Skype são criptografadas, ou seja, por mais que alguém tente interceptar os pacotes de dados transmitidos, só serão ouvidos ruídos. No entanto, existem softwares específicos para gravar essas conversas e tornar os áudios compreensíveis. O vírus descoberto realiza função semelhante.

O Trojan Peskyspy se conecta com diversas chamadas de API do Windows responsáveis por realizar a entrada e saída de áudio. Dessa forma, o vírus consegue driblar a proteção do Skype e gravar os dois lados da conversa em arquivo MP3 e armazenar no computador. Além disso, o vírus também possui uma porta de acesso estabelecida pelo invasor que permite o envio dos arquivos para determinado servidor.

A Symantec informa que o vírus não se espalha em rede interna ou por pendrives, mas novas versões podem surgir com essas características replicadoras.

É hora de descobrir os segredos da computação quântica

Saiba mais sobre esta área que pode ser o futuro da computação!

Seria possível estar em dois lugares ao mesmo tempo? De acordo com as teorias quânticas, sim! E que tal um computador que pode realizar centenas de milhares de cálculos em frações de segundo? A física e a mecânica quântica tornam possível pensarmos em um computador quântico tão pequeno quanto um grão de areia e centenas de vezes mais rápido do que todos os computadores existentes juntos.

É difícil acreditar, mas as teorias quânticas são estudadas há um bom tempo, começando por Albert Einstein e sua “Teoria de Tudo”, que visava unir todas as leis da física e da mecânica em uma única teoria. Hoje, esta teoria é conhecida como “Teoria das Cordas”. Ficou interessado em saber o que tudo isto tem a ver com computação?! Então não deixe de ler os parágrafos abaixo!

O que é computação quântica?

De modo geral e simplificado, a computação quântica nada mais é do que a aplicação das teorias e propriedades da mecânica quântica ao computador. Claro que isto envolve muito mais coisas do que podemos imaginar, mas em resumo, é disto que se trata.

Pequeno e poderoso!Um computador quântico (também conhecido como CQ) é capaz de realizar cálculos utilizando propriedades da mecânica quântica, como a teoria da sobreposição, que será explicada com maiores detalhes mais abaixo. Em teoria, os computadores quânticos são assustadoramente mais rápidos do que o PCs que temos hoje, mas a própria física quântica possui seus limitadores.

Um CQ pode ser construído a partir de fótons, nêutrons, prótons, elétrons e até mesmo pósitrons, aquelas partículas presentes no átomo que você estudou nas aulas de química do colégio. Sendo assim, já é de se imaginar que os computadores quânticos, pelo menos os processadores, possuirão um tamanho mais do que diminuto, em escala atômica.

E o que muda?

A quantidade de mudanças que seriam causadas pela criação de um computador quântico é enorme. Não há como estimar com precisão quais seriam todas as alterações, mas algumas delas são previsíveis, e sem grandes esforços.

O fato de trabalhar com partículas atômicas torna possível a construção de computadores que sejam tão pequenos a ponto de não serem visíveis a olho nu. Enganam-se aqueles que pensaram que a velocidade de processamento é similar ao tamanho. Os computadores quânticos são centenas de milhares de vezes mais rápidos que todos os PCs e notebooks que existem atualmente juntos.

Tal velocidade se dá justamente pela utilização de partículas atômicas em sua construção, uma vez que elas possuem velocidade próxima à da luz, e o processamento das informações poderia ser feito em total paralelismo, e até mesmo em outra dimensão.

Criptografia

Criptografia quânticaToda esta velocidade coloca em xeque um dos principais mecanismos de proteção e segurança de dados: a criptografia. Dependendo do algoritmo de criptografia utilizado para a proteção de algum dado, o melhor computador existente atualmente levaria milhares de anos para quebrar a chave e decodificar os dados.

Para um computador quântico realizar esta tarefa, alguns segundos seriam mais do que suficientes para que o código fosse quebrado e os dados revelados. A única maneira de contornar este problema seria a criação da criptografia quântica, considerada totalmente segura e praticamente inquebrável.

Problemas clássicos

Toda esta velocidade quântica é realmente útil na solução de apenas três problemas que os computadores atuais não são capazes de fazer em tempo hábil: fatoração de números inteiros com milhares de bits, logaritmo discreto e simulação de física quântica.

Para que um computador com a tecnologia atual resolvesse a fatoração de um número realmente grande, por exemplo, seria necessário ter uma máquina com tamanho maior ao Universo do qual temos conhecimento, ou seja, algo realmente inviável.

Outro problema que seria facilmente resolvido por um computador quântico diz respeito à busca de dados e informações em um banco de dados totalmente desordenado. O que poderia levar anos nos computadores de hoje, um PC quântico resolveria num piscar de olhos.

Estruturas e unidades de um computador quântico.

Para que um computador quântico funcione, todos os seus componentes e unidades precisam ser modificados de maneira a se tornem quânticos também. Pensando assim, o bit, da computação convencional, ganhou sua versão quântica, denominado qubit.

A principal diferença do bit para o qubit diz respeito aos valores que eles podem armazenar. Enquanto o bit só pode ter o valor 1 ou o valor 0, o qubit pode conter os valores 1, 0 ou 1 e 0 ao mesmo tempo. Você deve estar se perguntando: “Como isto é possível?”. Bom, isto é a propriedade quântica chamada sobreposição, a qual diz ser possível uma partícula estar em dois ou mais estados ao mesmo tempo.

1 e 0 é passado. Agora é 1 E 0!

Como citado anteriormente, um computador quântico pode ser concebido utilizando partículas muito pequenas, desde que elas sigam os princípios da mecânica quântica. É possível construir os PCs com fótons, que podem estar em mais de um lugar ao mesmo tempo, ou ainda prótons, nêutrons e outras partículas atômicas e subatômicas que admitem mais de um estado simultaneamente.

A utilização destas partículas como substitutas dos cristais de silício permitem a construção de máquinas extremamente pequenas, a ponto de não conseguirmos vê-las, mas com um poder computacional incalculável. Isto porque, ao invés de tratar as informações de maneira isolada e sequencial, o qubit integra as informações de todos os dados criando novas dimensões para o processamento. Ou seja, os dados são processados em mais de uma dimensão.

Temperaturas elevadas são um problema na computação quântica.A maior dificuldade na criação de computador quântico está justamente no que torna isto possível: a sobreposição. Isto porque a sobreposição é muito sensível e qualquer microrruído eletromagnético pode alterar o estado do qubit e fazer com que a informação que ele continha seja perdida.

Além da instabilidade da sobreposição, outro problema enfrentado pelos cientistas é o superaquecimento das máquinas. Se você acha que seu computador esquenta demais, deveria tentar mexer com átomos e elétrons.

Se você ficou curioso em saber como o qubit trabalha, não deixe de acessar o artigo “O que é qubit, o bit quântico?”. Nele é possível encontrar muito mais informações sobre o “bit quântico”.

Um mundo de possibilidades.

Antes de dar continuidade ao conteúdo do artigo, é preciso explicar com maiores detalhes o conceito de sobreposição.

Morto-vivo não, morto E vivo!

É difícil imaginar que alguma coisa possa estar em vários estados ao mesmo tempo, mas quando se trata de partículas tão pequenas quanto os fótons, prótons e nêutrons, isto é muito mais comum do que se pode imaginar. O mais interessante é que, além de assumir vários estados ao mesmo tempo, as partículas podem, em teoria, estar em diferentes tempos também (presente, passado e futuro).

Existe uma metáfora, chamada o gato de Schrödinger, que ajuda a compreender um pouco melhor este assunto. Ela diz que, se um gato está dentro de uma caixa, ele possui 50% de chances de estar morto e 50% de chances de estar vivo. De acordo com a mecânica quântica, até que a caixa seja aberta e o gato seja observado, ele está morto e vivo ao mesmo tempo.

O ato de observar faz com que as partículas entrem em “colapso” e assumam um de seus estados apenas, e não ambos. Por exemplo, no momento em que a caixa citada acima é aberta e o gato observado, ele irá assumir um de seus estados apenas (vivo ou morto). Ou seja, enquanto a caixa estiver fechada, o gato está a salvo.

 

Um grupo de pesquisadores da State University of New York conseguiu fazer experimentos os quais comprovassem que uma partícula está em dois estados ao mesmo tempo sem que fosse preciso observá-las. Assim, o colapso pode ser evitado e o experimento realizado sem interferências.

Continuando...

Um computador quântico abre muitas possibilidades para a resolução de problemas complexos. Isto, graças ao chamado paralelismo quântico. Enquanto um computador pessoal atual trabalha com processamento serial, ou seja, em sequência, os computadores quânticos permitem o processamento paralelo.

É justamente este paralelismo que torna possível o processamento de centenas de informações e dados ao mesmo tempo, sem que seja preciso centenas de processadores, como na computação clássica.

Como funcionaria?

Em teoria, o funcionamento de um computador quântico seria da seguinte forma. Vamos supor que você possui uma agenda com mais de dez mil registros telefônicos no computador. Se você quiser ligar para um dos contatos, terá que pesquisar pelo número de telefone da pessoa, certo? Se estivéssemos falando de um computador “convencional”, até que a pesquisa retorne uma resposta, é possível que você já tenham se passado muitos anos. Mas, lembre-se que estamos tratando da quântica neste artigo.

Então, como diria o Dr. Quantum: “Vamos ficar quânticos!”. Ao digitar o nome da pessoa para a qual você deseja ligar, todos, ou pelo menos boa parte dos registros presentes na sua agenda serão carregados e comparados ao nome que você digitou, ao mesmo tempo, em paralelo. Com isto, o tempo de resposta é muito menor do que nos PC normais.

Um sistema distribuído trabalha com um princípio parecido, mas ao invés do processamento em um mesmo processador, como na computação quântica, os dados são divididos em várias máquinas, para serem processados separadamente.

Para ficar mais claro

Um sistema distribuído utiliza o processamento de vários computadores para obter a resposta desejada no menor tempo possível. O funcionamento de um sistema desse tipo, em teoria, é bem simples. Se você estiver realizando um cálculo muito pesado em seu computador, e a máquina do seu vizinho estiver ociosa, por exemplo, o sistema envia parte dos dados para este computador ocioso e aguarda a resposta.

Sistemas distribuídos.

Se vários computadores estiverem ociosos pelo mundo, o princípio de um sistema distribuído é justamente enviar um pouco de informação para cada máquina. Assim, não há sobrecarga de um computador e a resposta é encontrada bem mais rapidamente.

História e estudo.

A história do computador quântico começa em 1981, quando Richard Feynman mostrou em uma conferência realizada no MIT que sistemas quânticos poderiam ser úteis na simulação de experimentos da física quântica.

Em seguida, foi a vez de David Deutsch, na Universidade de Oxford, escrever seu nome a história quântica. Ele descreveu, no ano de 1985, o primeiro computador quântico universal, capaz de simular o funcionamento de outro computador quântico.

Depois deste feito, o mundo quântico ficou um pouco quieto, voltando a ser notado em 1994, quando Peter Shor descobriu um excelente algoritmo que permitia a um computador quântico fatorar grandes números rapidamente. Tal feito deu-se em Nova Jersey, no Bell Labs da AT&T. Isto deu origem ao que hoje é conhecido como Algoritmo de Shor o qual permitiria a quebra de muitos sistemas criptográficos, além de resolver os problemas da fatoração e do logaritmo discreto.

No ano de 1996, também no Bell Labs, Lov Grover descobriu o algoritmo de pesquisa em bases de dados quânticas. Mas foi somente em 1996 que o primeiro esquema para correção de erro quântico foi proposto pela comunidade científica. Também nos anos 90, foi construído o primeiro computador quântico com base em montagem térmica. Tal façanha foi realizada no MIT.

O Orion, um computador híbrido com processador quântico de 16 qubits, foi anunciado em 2007 pela empresa canadense D-Wave. Este computador teria capacidade de resolver problemas lógicos, encontrar soluções para jogos de Sudoku, entre outras tarefas simples. A Universidade de Yale, nos Estados Unidos, não ficou para trás e criou o primeiro computador quântico rudimentar, o qual também executa apenas operações simples, mas que é mais um passo em direção ao sucesso quântico.

É viável?

Será que tudo isto acontecerá logo?Até o presente momento, apenas alguns elementos dos computadores quânticos foram criados, como algumas portas lógicas. Diversas universidades e empresas espalhadas pelo mundo concentram esforços para a criação de uma máquina quântica que demonstre com maior eficácia o poder de um computador deste tipo.

No entanto, especialistas afirmam que a concretização de um computador quântico ainda está bem longe de acontecer, mesmo que seja em pequena escala. No Brasil, há diversos núcleos de pesquisa em universidades públicas (Rio de Janeiro e Paraíba). Além disso, há pesquisadores trabalhando no desenvolvimento de softwares quânticos, mas ainda não chegaram a resultados promissores.

Há também um grupo de pesquisadores no LNCC (Laboratório Nacional de Computação Científica) dedicado exclusivamente para as pesquisas na área quântica da computação. Segundos estes pesquisadores, a área de hardware quântico no Brasil trabalha com protótipos, mas cooperam principalmente com os grandes grupos internacionais de pesquisas e são reconhecidos pelo mundo afora.

Por enquanto, as versões desenvolvidas dos computadores quânticos não possuem nenhuma aplicação comercial. Alguns cientistas acreditam que as primeiras máquinas que estejam de fato funcionando serão empregadas no meio acadêmico para simulações da física e da mecânica quântica. Resta saber se as empresas irão aceitar isto sem questionar.

 

 

Vocês já imaginaram ter um computador quântico em casa? Rodar aquele jogo que você adora não seria mais problema. Mas será que toda esta tecnologia estará ao nosso alcance logo? Só nos resta esperar e ver o que vem por aí! Enquanto isso, que tal entender um pouco mais sobre universos paralelos e quântica?

Como ligar o PC na televisão?

Entretenimento do PC direto em sua TV: aprenda a ligar o computador na televisão

Ligar a televisão em seu computador pode ter uma porção de vantagens. Bem, como nem todos costumam utilizar monitores com tamanhos maiores do que uma televisão, ver o que se passa no computador através da TV é uma excelente ideia.
Que tal jogar o seu game favorito de PC em sua enorme televisão (sim, é possível tirar essa exclusividade dos videogames)? Ou então, ver um filme que só está em seu computador de maneira muito mais aconchegante, como em seu sofá?
Ligar o computador em sua televisão é, na verdade, muito mais simples do que parece. Você só vai precisar mesmo é de alguns cabos e paciência. Ah, e é claro que o seu computador  tenha saída de vídeo.

Como sei se posso ligar o meu PC na televisão?

Você precisará conferir se o seu PC é compatível. Se você tem uma placa de vídeo (não a integrada à placa de vídeo, e sim aquela comprada à parte) provavelmente é possível ligar o PC na televisão. Caso você não tenha placa de vídeo, algumas placas integradas trazem as saídas de vídeo também — basta conferir.
Há cerca de cinco tipos de saídas do computador para vídeo: HDMI, DVI, S-VIDEO, S-VIDEO (com capacidade de Vídeo Componente) e VGA.

Os vários tipos de saída de imagem.

Qual cabo para qual televisão?

As televisões mais novas já vêm com entradas em HDMI, Vídeo Componente, VGA,S-VIDEO e a tradicional RCA (também conhecido como entrada AV). Para alguns casos é mais fácil usar uma conexão direta, sem precisar de cabos com adaptadores. Ou seja, um cabo que saia do PC como S-VIDEO e chegue à TV também como S-VIDEO, por exemplo. Entretanto, nem sempre é possível — às vezes porque a televisão não tem a entrada necessária ou porque simplesmente não existe um cabo direto.

Exemplo de conexão VGA.

Nas televisões mais antigas (aquelas com tubo de imagem), é mais difícil que  tenham entradas mais novas, como de Vídeo Componente. Entretanto, você encontrará, ao menos, entradas RCA e S-VIDEO.

Ao menos você deve encontrar entradas RCA e S-VIDEO

Veja na tabela abaixo uma relação de saídas de vídeo do PC e das respectivas entradas de TV que podem ser conectados os cabos de cada uma.

Tabela com as entradas e saídas de vídeo.

*O S-VIDEO com suporte a Vídeo Componente tem 7 ou 9 pinos em sua saída. O normal tem somente 4 pinos.
O processo é simples assim: basta conectar uma ponta em seu PC e outra ponta em sua televisão. Lembre-se que a qualidade de imagem corresponderá à qualidade do cabo que você utilizou.

Alguns adaptadores de saídas de vídeo:

Tipos de cabos para conectar

Tudo pronto! É hora de ligar o PC na TV

Se você já conectou os respectivos cabos no PC e na televisão, então agora só falta configurar para que tudo funcione direito. Se a sua televisão for convencional (de tubo de imagem), fica um aviso muito importante: primeiramente, mude a sua resolução de vídeo para 640x480 pixels. Caso contrário, a sua TV pode sofrer danos.
No Windows Vista: nesse sistema há uma vantagem que é, no mínimo, enorme. Ao plugar o cabo na televisão e ligar o PC, ele já inicia com um aviso perguntando qual aparência você deseja utilizar (duplicar a Área de Trabalho, mostrar partes diferentes ou mostrar somente na televisão). Basta escolher uma delas e dar Ok.

O Windows Vista faz automaticamente.

Caso a janela não apareça, você precisará clicar com o botão direito na Área de Trabalho e escolher a opção Personalizar. Depois, clique em Configurações de Vídeo.

Vá em Personalizar e Configurações de Vídeo.

Você verá que o Windows lista dois monitores, com os nomes de 1 e 2. Basta clicar em qualquer um deles e então marcar a opção “Estender a Área de Trabalho” e em “Este é o monitor principal”.

Escolha os monitores que farão parte.

No Windows XP: o processo é muito semelhante ao Windows Vista. A única diferença é que, para abrir as configurações de vídeo, basta ir ao Painel de Controle > Vídeo.
Usuários de placas de vídeo da NVIDIA: junto com os drivers da placa é instalada uma aplicação chamada “Painel de controle da NVIDIA”. Você pode acessá-la através da área de trabalho clicando com o botão direito. Dentro desse painel, você verá uma opção chamada "Definir vários vídeos" e pode escolher o modo de vídeo nView a ser utilizado.

Usando o nView.

Proteção de rede sem fio é quebrada em um minuto

Pesquisadores japoneses revelaram nesta semana que desenvolveram um método que pode quebrar a criptografia WPA (Wireless Protected Access) usada em redes sem fio em apenas 1 minuto.
Masakatu Morii, da Universidade de Kobe, e Toshihiro Ohigashi, da Universidade de Hitoshima, desenvolveram juntos uma prova de conceito que explora uma vulnerabilidade no Temporal Key Integrity Protocol (TKIP).
Apesar de não terem fornecido detalhes específicos do exploit por razões de segurança, o novo método é muito mais rápido do que a técnica anterior, que levava entre 12 e 15 minutos para expor a rede.
Os criadores do novo método disseram que ele não funciona com o WPA2, a segunda geração do protocolo de criptografia de redes sem fio, que utiliza o Advanced Encryption Standard (AES) como base. O padrão AES é usado frequentemente para proteger permanentemente alguns dispositivos de armazenamento, como alguns pendrives.
Praticamente todos os roteadores e equipamentos de rede que suportam os padrões 802.11g e 802.11n também suportam o WPA2.
Mais detalhes devem ser divulgados durante uma conferência em Hiroshima no dia 25 de setembro.

'Blog do Planalto’ entra no ar

O blog da Presidência da República conhecido como "Blog do Planalto" entrou no ar nesta segunda-feira. O blog trará informações sobre as ações do presidente Lula e usará uma linguagem mais informal.
O blog entrou no ar com posts sobre o pré-sal e a história do petróleo no Brasil. Além disso também foi publicado um vídeo onde o presidente dá as boas-vindas aos internautas e outro com uma entrevista do presidente em um programa de rádio.
Visite o Blog do Planalto clicando aqui.

domingo, 30 de agosto de 2009

Antivírus gratuitos: qual deles é o melhor?

Confira o resultado dos nossos testes

O Laboratório Digital deste mês é sobre os antivírus gratuitos disponíveis pela web. Realizamos pesquisas com várias opções grátis e vimos que são muitos no mercado, mas poucos deles com um nível alto de popularidade.
Também pesquisamos em diversos órgãos relacionados à área de TI que fazem análises de antivírus de mercado. No entanto, há muitas controvérsias principalmente com relação a preferência de usuários de computadores e técnicos de informática.
Nessa pesquisa procuramos instituições que levam o assunto a sério e que procuram nos assessorar da melhor forma possível e com o melhor produto por meio de testes concisos e que nos dão a real ideia de qual software gratuito é melhor em determinado requisito. Então confira toda a nossa análise e mantenha seu computador livre dos vírus.

Nossa avaliação dos 7 antivírus gratuitos foi baseada nos seguintes requisitos:
4.1 Eficácia
Neste requisito analisamos a eficácia do Antivírus em dois pontos, sendo um na “detecção de malwares” e o outro na “remoção dos malwares”.
4.2 Desempenho 
Nesse analisamos quanto tempo de duração o Scan do Antivírus leva do ínicio da varredura até o término.
4.3 Consumo de memória
Foi realizada a análise do consumo de hardware do computador sendo esses “Memória” e “Processador”.
4.4 Interface
Analisamos se o Antivírus se dispõe de uma interface intuitiva, facilitando ao máximo a vida do usuário no processo de configuração, atualização e execução do software.
4.5 Linguagem
Neste requisito analisamos se o Antivírus se dispõe da linguagem Português Brasileiro.
4.6 Firewall Integrada
Neste requisito verificamos se o Antivírus se dispõe do recurso de segurança de Firewall integrada.
4.7. Mail Scan
Este é um recurso importante nos dias de hoje para qualquer Antivírus que queira ter sucesso em seu funcionamento, neste requisito analisamos se o Antivírus se dispõe da funcionalidade de varredura de e-mails.
4.8 Compatibilidade
Neste requisito analisamos a compatibilidade de funcionamento com as versões de sistemas operacionais.
4.9 Recomendação de segmento (Pessoal / Corporativo)
Por último, a recomendação de qual Antivírus é melhor para o segmento que o usuário quer utilizá-lo.

Antivírus gratuitos Parte I - Avast Home Edition
Antivírus gratuitos Parte II - AVG Anti-Virus Free
Antivírus gratuitos Parte III - Avira AntiVir
Antivírus gratuitos Parte IV - Comodo
Antivírus gratuitos Parte V - BitDefender 2009
Antivírus gratuitos Parte VI - ClamWin
Antivírus gratuitos Parte VII - PCTools

Material complementar: ANEXO 1.pdf (38 KB)
Descrição: Tabela comparativa dos antivirus analisados

Fonte: Olhar Digital

sexta-feira, 28 de agosto de 2009

Canonical deve criar loja de softwares para Ubuntu

A Canonical divulgou um componente para sua distribuição Linux em desenvolvimento, o Ubuntu 9.10, apelidado de Kosmic Koala. Para reunir todos os pacotes da plataforma, foi criada a Ubuntu Software Store, que será uma espécie de centro de download de aplicativos.
Ainda em teste, a loja não será instalada nas atuais versões de desenvolvimento do SO, portanto o usuário terá que instalar manualmente por meio do Synaptic.
A loja do Ubuntu oferecerá instalação de programas do Windows, compra de produtos, atualizações diretas do próprio sistema operacional dentre outras coisas. Com a Ubuntu Software Store, gerenciadores como Computer Janitor e Update Manager serão gradativamente substituídos.

quinta-feira, 27 de agosto de 2009

CCleaner v2.23.993

O CCleaner é uma ferramenta de otimização do sistema totalmente gratuita, sendo que a sua principal função é remover rastros do sistema, apagando arquivos temporários, histórico, arquivos temporários do Internet Explorer e informações deixadas por outros softwares, como WinRAR, Nero, Firefox, entre muitos outros.

Download: CCleaner v2.23.993

Análise das câmeras digitais mais populares

Reviramos as funções de cinco câmeras de marcas diferentes. Confira os prós e contras de cada uma

Apesar da popularidade das câmeras em celulares, as digitais compactas ainda levam vantagem quando o assunto é versatilidade e qualidade de imagem. Não maiores que um maço de cigarros, elas são discretas, fáceis de usar e entram em qualquer bolso, podendo ser assim a companhia ideal para qualquer atividade formal ou informal, como passeios, reuniões de família, viagens de lazer ou de negócios e até mesmo baladas.
Sendo assim, passado mais de um ano, o Laboratório Digital volta a esse assunto e analisa algumas câmeras digitais compactas que você pode encontrar no mercado.
Os participantes
Devido à grande variedade de fabricantes e modelos de câmeras, preferimos nos concentrar nas principais marcas, e destas responderam ao nosso convite a Canon, com sua Powershot SD1200 IS, a Fujifilm com a FinePix J10, a Panasonic, com a Lumix FX56 e a estreante Samsung, com a PL50. Entre as empresas convidadas que não puderam participar - por estarem trocando de linha ou não terem equipamentos para avaliação - estão a Sony e a Olympus.
Se comparado com o teste do ano passado, o que pudemos notar é que apesar dos preços terem caído sensivelmente – na média em torno dos R$ 800 – a resolução do sensor parece ter se estabilizado na faixa dos 8 a 10 megapixels. Isso é um bom sinal de que o número de pontos da tela começa a perder importância na câmera dos sonhos dos consumidores em favor de recursos mais elaborados capazes de produzir melhores imagens.
Estabilização de imagem

Apesar de o mercado, de tempos em tempos, eleger um super recurso que parece até justificar a troca da sua câmera atual por uma mais nova – como sistema de foco por detecção de face e suas variações como sensor de sorrisos ou anti-piscada de olhos –, ainda achamos que um recurso que realmente mudou a vida dos fotógrafos para muito melhor foi o estabilizador de imagens. Esse, por sinal, é um dos poucos quesitos que colocamos no nosso convite, de modo que todos os participantes oferecem pelo menos esse recurso.

Ele é particularmente interessante em ambientes internos ou mal iluminados para uma câmera, como os interiores de casas ou situações onde não se deseja o efeito duro e chapado da luz de flash. Com o estabilizador é possível obter imagens com uma iluminação mais natural e bem mais de acordo com a visão do fotógrafo.
No geral, os fabricantes implementaram esse recurso por meio de duas técnicas diferentes: a mais simples é aumentando a sensibilidade do sensor de imagem (o chamado ISO boost), permitindo assim o uso de velocidades maiores. O grande problema dessa solução é que o resultado final pode ser uma imagem mais granulada, o que pode não ser do agrado de alguns usuários. De fato, o mesmo efeito pode ser obtido por câmeras “sem estabilização”, bastando apenas aumentar a sensibilidade ISO para 800 ou até 1.600. Entre as participantes, aquela que adotou essa solução é a J10 da Fuji. A Samsung adota um sistema batizado de DIS, o qual acreditamos ser algum tipo de ajuste por software, já que a imagem demora alguns segundos para ser processada e apresentada na tela. 

Outra solução mais elegante, porém mais complexa, é a chamada “lens shift”, na qual sensores montados na câmera identificam os movimentos involuntários do fotógrafo, corrigindo esse problema movimentando, em tempo real, um dos elementos ópticos da sua objetiva. Com isso é possível minimizar o efeito de tremedeira mantendo a exposição correta. Esse é o caso da Panasonic e da Canon.
De qualquer modo, vale a pena observar que a eficiência do estabilizador de imagem tem seus limites, de modo que o sistema não consegue compensar movimentos rápidos ou bruscos. A dica mais básica e ideal, no entanto, é que o fotógrafo procure segurar firme a câmera na hora de bater a foto.
Dos modelos analisados, apenas a Powershot SD1200 IS ainda vem equipada com um visor óptico, enquanto que nos outros modelos o enquadramento tem que ser feito pela tela LCD. As telas, aliás, também não variaram muito - 2,5” a 2,7” -, assim como sua resolução - 230 mil pontos. A exceção ficou por conta do modelo da Fuji com apenas 115 mil pontos. Isso não interfere na qualidade final da imagem, mas pode interferir na leitura das informações na tela.
A relação de aspecto dessas telinhas é o 4:3 - o mesmo das TVs de tubo -, que por sinal é o mesmo formato adotado por todas as câmeras, apesar da J10 também oferecer o formato 3:2 - a mesma dos fotogramas de filme 35 mm - e a Powershot e a PL50 oferecerem o formato 16:9, o mesmo das TVs LCD. A Lumix é a única a oferecer esses três formatos.
Opções de armazenamento
Uma tendência que começa a se consolidar nesse mercado é a padronização do formato de cartão de memória ao redor do padrão SD, além de suas variantes como o MMC e o SDHC. Mesmo empresas como Olympus e Fuji, que apoiam um padrão próprio, o xD Picture Card, agora também aceitam SD (caso do J10).
Como é comum nos modelos de entrada, alguns já vêm com um banco de memória interna, o que permite que o usuário possa bater algumas fotos sem ter adquirido um cartão de memória.
Nesse quesito, quem leva a melhor é a Lumix, que já vem com 50 MB de memória interna (mais 2 GB em SD), seguido pela Samsung PL50, com 30 MB de memória interna e nenhum cartão. A Canon Powershot não costuma vir com memória embutida, mas a Elgin inclui um cartão SD de 1 GB no seu pacote.
Em termos de conectividade com o PC, todos os fabricantes utilizam portas USB 2.0, mas o que não nos agradou muito é o fato das empresas equiparem seus modelos com conectores de desenho próprio. Se de um lado ganha o fabricante que utiliza apenas um conector, do outro perde o usuário que se vê obrigado a carregar um ou mais cabos na sua bagagem (e reze para não perdê-lo). Uma meia-solução honrosa foi encontrada pela Canon, que apesar de usar o mesmo conector para dados e vídeo, aceita também um cabo USB 2.0 mini padrão.
Baterias
Com relação às baterias, para ganhar em espaço todos os modelos analisados vieram com baterias recarregáveis de desenho proprietário, o que pode ser uma benção por não ter que gastar dinheiro com pilhas. Ou uma maldição caso você precise de uma reposição num momento qualquer. Com exceção do modelo da Samsung, que recarrega sua bateria dentro da câmera, recebendo energia via cabo USB vinda de um PC ou adaptador de rede elétrica, todos os modelos vieram equipados com carregadores tradicionais externos.
A vantagem da solução da Samsung está na sua simplicidade, mas ela também apresenta desvantagens, já que o usuário tem que parar de fotografar para recarregar sua bateria, ao contrário de outros modelos que podem fotografar com uma bateria e manter outra no carregador.
Vale a pena observar que tanto o modelo da Canon quanto da Panasonic também podem funcionar ligados na rede elétrica, mas tal acessório só é oferecido como um opcional.
Modos de cena
Essa talvez seja a área onde os fabricantes mais tentam inovar oferecendo ajustes pré-programados cada vez mais sofisticados e que procuram atender as necessidades mais imprevistas.
No geral, todos os modelos analisados possuem um ou mais modos para retratos, paisagens, cenas de ação/esportes, macro, cenários noturnos, fogos de artifício, por do sol, etc.
A J10 da Fuji, por exemplo, possui modos de cena específicos para fotografar documentos impressos ou ser usado dentro de museus. A Powershot tem um programa para crianças e animais, incluindo peixes em aquários. A Lumix também tem programas para mascotes - com opção de registrar seu nome e idade - e um modo que adiciona bordas decorativas nas fotos. Já a Samsung oferece um curioso modo “guia de enquadramento” que ajuda o usuário a tirar diversas fotos com o mesmo enquadramento, mesmo sem usar um tripé, além do chamado “beauty shot”, que retoca a pele de uma pessoa para parecer mais suave e bonita.
Nossas conclusões
Pela nossas análises, a Lumix FS6 da Panasonic (R$ 899) é o produto que oferece a melhor relação entre preço e desempenho. E por causa disso é a marca que receberá nossa Escolha do Olhar Digital. Apesar de ser um equipamento de 8 megapixels, ela vem equipada com uma lente DC Vario-Elmarit com a chancela da Leica, uma marca que realmente agrega valor ao produto. Fora isso, junto com a Canon a FS6 foi a que ofereceu o sistema de estabilização mais eficiente e a que já vem com mais memória já inclusa - 50 MB internos + um SD de 2 GB. A Canon Powershot seria uma séria candidata a bater a Lumix, mas ela sofre do mesmo problema de seu antecessor avaliado no ano passado: seu preço está bem acima da concorrência - R$ 1.299.
Para aqueles que ainda levam o número de megapixels como principal fator de decisão numa compra, nossa sugestão fica por conta da PL50 da Samsung - R$ 799 – que, apesar de ser nova no nosso mercado, apresenta uma solução muito interessante por um preço bastante agressivo como é costume da empresa. Seu grande atrativo estaria na abertura da sua objetiva zoom, que no modo grande angular chega até 28 mm - contra 33 mm da Lumix. Em contrapartida, seu sistema de estabilização de imagem não nos pareceu tão eficiente quanto o da Lumix, além de demandar uma considerável perda de tempo (ou time lag) entre duas fotos.

Fonte: Olhar Digital.

Nokia apresenta celular com sistema Linux

 

A Nokia apresentou seu primeiro celular com o sistema operacional de código aberto Linux. O N900 foi anunciado nesta quinta-feira, 25, e também deverá concorrer com o iPhone, segundo a companhia.
O aparelho possui teclado QWERTY, tela de 3,5 polegadas sensível ao toque, 32 GB de memória interna (expande até 48 GB), Wi-Fi, 3G, Bluetooth 2.1, GPS e A-GPS. A fabricante finlandesa acredita que o fato de a plataforma móvel Linux proporcionar uma experiência semelhante a um PC chamará a atenção dos usuários corporativos.
Ainda não há previsão para lançamento do N900 no mercado brasileiro, mas ele custará aproximadamente R$ 1.300. Na Europa, as vendas começam na próxima semana.

quarta-feira, 26 de agosto de 2009

SISTEMA OPERACIONAL DO CASAMENTO

(pra descontrair:)

Prezado Técnico,
Há um ano e meio troquei o programa [Noiva 1.0] pelo [Esposa 1.0]
e verifiquei que o Programa gerou um aplicativo inesperado
chamado [ Bebê.exe ] que ocupa muito espaço no HD.
Por outro lado, o [Esposa1.0] se auto-instala em todos os outros programas
e é carregado automaticamente assim que eu abro qualquer aplicativo.
Aplicativos como [Cerveja_Com_A_Turma 0.3],
[Noite_De_Farra 2.5] ou [Domingo_De_Futebol 2.8],
não funcionam mais, e o sistema trava assim que eu tento carregá-los novamente.
Além disso, de tempos em tempos um executável oculto (vírus) chamado [Sogra 1.0] aparece, encerrando Abruptamente a execução de um comando.
Não consigo desinstalar este programa. Também não consigo diminuir o espaço ocupado pelo [Esposa 1.0] quando estou rodando meus aplicativos preferidos.
Sem falar também que o programa [Sexo 5.1] sumiu do HD.
Eu gostaria de voltar ao programa que eu usava antes,
o [Noiva 1.0], mas o comando [Uninstall.exe] não funciona adequadamente.
Poderia ajudar-me? Por favor!
Ass: Usuário Arrependido
RESPOSTA:
Prezado Usuário,
Sua queixa é muito comum entre os usuários, mas é devido, na maioria das vezes,
a um erro básico de conceito: muitos usuários migram de qualquer versão
[Noiva 1.0] para [Esposa 1.0] com a falsa idéia de que se trata de um aplicativo de entretenimento e utilitário.
Entretanto, o [Esposa 1.0] é muito mais do que isso:
é um sistema operacional completo, criado para controlar todo o sistema!
É quase impossível desinstalar [Esposa 1.0] e voltar para uma versão [Noiva 1.0],
porque há aplicativos criados pelo [Esposa 1.0], como o [Filhos.dll], que
não poderiam ser deletados, também ocupam muito espaço, e não rodam sem o [Esposa 1.0].
É impossível desinstalar, deletar ou esvaziar os arquivos dos programas depois de instalados. Você não pode voltar ao [Noiva 1.0] porque [Esposa 1.0] não foi programado para isso.
Alguns usuários tentaram formatar todo o sistema para em seguida instalar a [Noiva Plus] ou o [Esposa 2.0], mas passaram a ter mais problemas do que antes.
Leia os capítulos 'Cuidados Gerais' referente a
' Pensões Alimentícias' e ' Guarda das crianças' do software [CASAMENTO].
Uma das melhores soluções é o comando [DESCULPAR.EXE /flores /presentes /all] assim que aparecer o menor problema ou se travar o programa. Evite o uso excessivo da tecla [ESC] (escapar).
Para melhorar a rentabilidade do [Esposa 1.0], aconselho o uso de
[Flores 5.1], [Férias 3.2] ou [Jóias 3.3].
Os resultados são bem interessantes!
Mas nunca instale [Secretária_De_Minissaia 3.3], [Antiga_Namorada 2.6] ou [Turma_Do_Chopp 4.6 ], pois não funcionam depois de ter sido instalado o
[Esposa 1.0] e podem causar problemas irreparáveis ao sistema.
Com relação ao programa [Sexo 5.1], esqueça! Esse roda quando quer.
Se você tivesse procurado o suporte técnico antes de instalar o [ Esposa1.0] a orientação seria: NÃO INSTALE O [ESPOSA 1.0] sem ter a certeza de que é capaz de usá-lo e cuidá-lo adequadamente como todo excelente software merece!

ANEEL aprova acesso à web pela rede elétrica

A ANEEL (Agência Nacional de Energia Elétrica) aprovou hoje, 25 de agosto, o conjunto de regras para o uso da tecnologia PLC (Power Line Communications) no Brasil.
A tecnologia permite que o acesso à internet através da rede de energia elétrica. Além do acesso à web, a tecnologia também permite a implementação de TV por assinatura por parte das operadoras.
Mesmo com a aprovação das regras pela agência, isto não significa que os serviços já estarão disponíveis imediatamente. Isto dependerá das distribuidoras e, de acordo com as regras do setor de energia elétrica, as concessionárias (como a Eletropaulo, por exemplo) só poderão distribuir a energia e não o acesso à web.
Outro destaque da tecnologia PLC é que ela ajudará a ampliar a inclusão digital, já que o número de residências brasileiras que possuem energia elétrica é maior do que as que possuem telefone. Isto permitirá que mais pessoas com PCs em casa tenham o acesso à internet.

segunda-feira, 24 de agosto de 2009

Twitt Sex: o irmão bastardo do Twitter

 

O Twitter ganhou uma versão não-oficial voltada ao público adulto. Também em formato de microblog, o Twitt Sex reúne pessoas que desejam trocar mensagens e materiais impróprios para menores de 18 anos.
O portal é independente do Twitter e possui plataforma própria. O novo site de micro postagens está disponível em inglês e russo. O nome semelhante talvez sirva apenas para chamar atenção dos internautas.
Até agora, a rede social parece ser pouco acessada, já que as mensagens exibidas na home se mostram bem antigas. Os perfis não parecem ser confiáveis, e os links publicados dão a sensação de hospedar algum malware.

Veja os 50 melhores sites do ano, segundo a Time

 

A revista Time publicou uma lista com o que ela julga reunir os 50 melhores sites de 2009. Não há necessariamente um ranking com as posições de cada escolha. Todos os selecionados pela publicação estão ali em pé de igualdade.
Muitos portais listados já caíram no gosto dos internautas brasileiros, como Flickr, Youtube, Google, Wikipedia e Skype. Mas também há outros nem tão conhecidos por aqui, como o Wolfram|Alpha, Hulu e CouchSurfing.
A publicação americana também selecionou os 25 melhores blogs do ano. Lá estão BoingBoing, TechCrunch, Official Google Blog e Bad Astronomy.

Google é o principal buscador dos usuários de Linux

 

Usuários da plataforma Linux são os mais fiéis ao buscador do Google. De acordo com pesquisa feita pela rede de anúncios online Chitika, 94,61% dos internautas que usam o sistema operacional em código aberto realizam suas buscas por meio do Google.

Em seguida no ranking, foram classificados os adeptos das máquinas Mac, que fazem 93% de suas pesquisas com o buscador. Entre os usuários do Windows, 78,5% utilizam o site.

Depois do Google, o Yahoo! é o segundo buscador mais popular. Neste contexto, os usuários do Windows saem na frente com 10,3% das buscas feitas pelo site. A porcentagem entre os usuários de Mac é de 4,96% e de Linux 3,48%.
O Bing tem seu uso mais restrito aos usuários de Windows, com 8%. Apenas 1,13% dos internautas que utilizam Mac pesquisam com o buscador da Microsoft. Entre os usuários de Linux o número é ainda menor, com somente 0,77% de representatividade.

O estudo analisou 163,2 milhões de buscas na rede da Chitika nos Estados Unidos e Canadá, no período de 30 de julho a 16 de agosto.

sexta-feira, 21 de agosto de 2009

Twitter anuncia sistema de localização geográfica

 

O Twitter pretende disponibilizar no portal recursos de localização geográfica entre os usuários. A informação foi divulgada na última quinta-feira, 20, no blog oficial do serviço.
Ao mandar uma mensagem, a localização do usuário será mostrada no microblog. O co-fundador do site, Biz Stone, disse que a aplicação poderá ser desativada pelos internautas, preservando assim a privacidade dos que não desejam ser encontrados.
Ainda não há uma previsão de quando o sistema de localização será lançado, mas, em breve, o Twitter permitirá que os desenvolvedores tenham acesso à ferramenta. Segundo Stone, a novidade possibilitará ao usuário seguir pessoas próximas de seu convívio.

quinta-feira, 20 de agosto de 2009

Manutenção de PCs: como testar se uma fonte está queimada?

Se o seu computador não liga, não pisca e nem dá sinal de vida, a probabilidade da fonte ter queimado é alta. Mas como testá-la? Com este artigo você aprenderá, e de forma bem simples!

Problemas com computadores acontecem. Por mais cuidadosos que nós sejamos com nossos preciosos e queridos equipamentos, a realidade é que dificilmente alguém escapará desta triste situação. Para alguns deles, existem apitos da placa mãe, para outros sinais e avisos na BIOS. Alguns componentes especiais hoje vêm equipados de fábrica até mesmo com LED indicadores numerados, bastando uma rápida consulta no manual.

Mas e quando você pressiona o botão de força e nada acontece (não há nenhum barulho, nem luz e nem ruídos dos discos rígidos, muito menos um drive de DVD trabalhando), o que fazer nesta hora tão desesperadora?

A primeira dica sempre é verificar os cabos e as suas respectivas conexões entre tomada e a fonte, pois em alguns casos de sobrecarga o equipamento corta o fornecimento de energia para o computador. Nessas situações o problema é resolvido rapidamente com a retirada e a reinserção do cabo de alimentação.

O problema é a falta de energia, mas não na tomada

Para outros modelos, existe também uma chave de liga/desliga na parte de trás, geralmente logo abaixo da ventoinha. Verifique-a em ambas as posições e tente ligar o computador.

Agora, se tudo está devidamente ligado e há energia passando pela tomada, uma das grandes possibilidades é a da sua fonte ter queimado. E para que você tenha certeza de que foi isso que aconteceu, o Baixaki preparou algumas dicas e testes bem rápidos que podem ser realizados para você não ter que desmontar o PC, peça por peça, em busca de uma solução.

Pronto para colocar a suspeita em ação? Então vamos ao trabalho! E que fique bem claro: estes passos são válidos apenas para fontes do tipo ATX!

Abrindo o computador

O primeiro passo é abrir a lateral do computador com uma chave de fenda, de modo a garantir o acesso aos cabos e componentes. Basta retirar os três parafusos que ficam na parte de trás da porta lateral e puxá-la.

Parafusos que devem ser retirados do gabinete

Com a lateral retirada, comece a remover todos os cabos de alimentação que estão ligados aos componentes do computador, como discos rígidos, drives de DVD, ventoinhas e placa mãe.

Para o próximo passo, nós recomendamos que você remova totalmente a fonte do gabinete, de modo a evitar que algum cabo permaneça acidentalmente ligado a algum dos componentes internos.

Testando a fonte

Com a fonte livre, desconectada da tomada e de todas as partes do computador, localize o cabo de alimentação da placa mãe. Ele é o maior de todos, contando com vinte ou vinte e quatro pinos, de acordo com cada versão.

Pinos que devem ser ligados

Pegue um clipe de papel fino e metálico, sem pinturas e dobre-o de modo que ele fique com duas pontas paralelas para baixo. Outra alternativa é utilizar um fio metálico maleável, com as pontas desencapadas.

Com o cabo de alimentação da placa mãe em mãos, localize o terminal do fio verde e insira uma das pontas do clipe ou do fio (ele é responsável pela partida do computador quando o botão de energia é acionado). Logo ao lado deste terminal, deve haver também outro para o fio preto (GND). É nele que deve ser inserida a outra ponta do clipe. A esta altura seu conector da placa mãe deve estar exatamente assim:

Clip de papel inserido

Tudo certo? Então chegou a hora do teste! Cuidadosamente ligue o cabo de alimentação na tomada e depois na fonte. Caso as ventoinhas comecem a girar, você tem um indicativo de que a sua fonte está funcionando normalmente, logo dificilmente ela será uma das causas do computador não estar ligando.

Fonte funcionou?

Medindo adequadamente a tensão

E para as pessoas que possuem multímetros em suas casas, uma dica final (para os casos em que a fonte liga) é também conferir se a distribuição de tensão está correta nos cabos. Para isso, regule o aparelho para modo de alimentação contínua, pegue qualquer terminal preto do cabo da placa mãe e insira a ponta multi-teste preta (com a fonte ainda ligada pelo último teste).

Em seguida, procure pelo fio vermelho e ligue a outra ponta de testes nele. O valor mostrado no aparelho deve ser de 5V, com variação de 0,5V para mais ou para menos. Em seguida, repita o procedimento com o fio amarelo, mantendo a ponta preta no fio preto. A tensão mostrada deve ser de 12V, novamente com variação de 0,5V para mais ou para menos.

Medindo a tensão

Este procedimento também pode ser realizado com as pontas Molex (os encaixes para discos rígidos e outros periféricos, que contem quatro encaixes), valendo os mesmos procedimentos e valores descritos acima.

Xiiiiiiiiiii!! Não deu certo!

Se a sua fonte não deu nem sinal de vida com o teste proposto acima, é provável que ela esteja avariada. O custo do reparo varia também de acordo com a natureza do problema (se for só um fusível, você gastará centavos na troca), mas se você não entende de eletrônica o ideal é buscar a ajuda de um técnico especializado. Caso opte pela compra de uma fonte nova, leve sempre em consideração a necessidade de energia dos seus componentes para não comprar uma abaixo das especificações necessárias.

E para quem não tem a menor ideia de qual fonte ou marca comprar, o Minha Vida Digital possui outro artigo especial da série de manutenção, no qual foram detalhadas diversas opções de marcas, qualidades e capacidades, todas separadas e ordenadas em tabela.

Soltar a sua fonte atual e substituí-la também é tarefa simples, bastando a remoção dos parafusos da parte de trás do gabinete (mostrados na imagem abaixo) e a substituição dos equipamentos. A colocação dos cabos e parafusos para o novo equipamento também deve ser bem similar.

E você, conseguiu solucionar o problema do seu computador? Não se esqueça de deixar o seu comentário e de dar sugestões, para que nós possamos sempre trazer artigos e dicas a todos os leitores do Baixaki.

Até a próxima e boa sorte com os reparos!

PS: NÃO SE ESQUEÇÃO DE COMENTAR NO BLOG

Fontes: Você dá a devida importância à sua?

Ela não é a fonte da juventude, mas não errar na escolha pode ajudar a diminuir suas rugas

Você já parou para pensar na fonte do seu computador? Se não, este pode ser um ótimo momento para você dar o devido valor a uma das peças mais importantes da sua máquina. A fonte de que estamos falando não é a da juventude, mas se você fizer a escolha certa na hora de adquirir uma, sem dúvida muitas rugas de preocupação serão eliminadas do seu rosto. A fonte de que estamos falando é a peça responsável em fornecer energia para todos os componentes do seu PC, pois sua principal função é converter a corrente alternada em corrente contínua.
Não precisa se assustar! Não vamos falar de termos técnicos ou da área elétrica, isso porque não há nada de técnico, pois a corrente alternada nada mais é do que a corrente fornecida pela rede elétrica – 110 V ou 220 V – e a contínua - +3,3 V, + 5V, +12 V ou – 12 V - é a tensão usada pelos seus aparelhos domésticos. Vale ressaltar que a principal função deste artigo não é esmiuçar o tema, mas sim fornecer informações que a maioria das pessoas não leva em consideração na hora de comprar ou montar um computador.



O BÁSICO DAS FONTES



Deixada de lado
Basicamente, a fonte do seu computador fornece energia para todo o sistema, mas não é só isso. Ela também auxilia no processo de refrigeração dos componentes da sua máquina. Mesmo executando uma das principais funções no quesito manutenção da vida útil ao melhorar seu desempenho, é visível o desprezo sofrido por elas.

Em média a fonte chega a custar o equivalente a 20% do total do valor de um computador, porém muitas vezes elas são deixadas de lado e perdem a vez na preferência dos usuários para as placas de vídeo, processadores, HDs ou outros componentes.

Outra vantagem de escolher uma boa fonte é que esse “gasto a mais”, na verdade, é um investimento, pois investir em uma fonte de qualidade pode ajudar a poupar seus componentes – sua amada placa de vídeo, seu idolatrado processador ou seu invencível HD – e também ajuda a economizar na conta de luz da sua casa.

Nem sempre uma fonte mais cara é um

Como ela faz isso?
Se você se perguntou como a fonte auxilia na manutenção da vida útil do seu computador, aí vai uma das respostas: ela auxilia na manutenção dos componentes do seu PC, pois fornece a tensão correta para cada elemento e também auxilia na refrigeração deles. Isso permite que tudo funcione em temperaturas mais agradáveis e, desta forma ,nada é sobrecarregado ou sofre por causa do calor excessivo dentro do gabinete.
Se sua fonte não exercesse essas funções, sem dúvida sua máquina não funcionaria perfeitamente e, provavelmente você sofreria com desligamentos constantes, travamentos e até o aparecimento da temida CrashScreen.



ANTES DE ABRIR A CARTEIRA



Do que você precisa?
Agora que você já sabe que a fonte de alimentação não é apenas mais um componente do seu PC, mas que na verdade ela funciona como o combustível para tudo, é interessante saber com o que está lidando e, caso queira investir em uma fonte melhor, prestar atenção nestas dicas para não gastar dinheiro à toa.
Se você está pensando em montar um computador ou deseja comprar um pronto, já deve ter visto a quantidade e variedade de fontes disponíveis no mercado. Isso não é por acaso, visto que cada computador necessita de componentes específicos de acordo com o uso que será feito dele. Portanto, antes de sair para as compras, é interessante saber qual é o seu perfil de usuário para não comprar uma fonte em desacordo com o uso que se fará dela.

Uso simples.Computador para uso doméstico

Um computador que terá seu uso reduzido a acesso à Internet, edição de textos, planilhas ou visualização de fotos não precisa de muita potência, pois sua placa de vídeo e processador, componentes que mais exigem energia, não são tão exigidos.
Para saber a quantidade de potência que seu micro precisa, em primeiro lugar liste todos seus componentes e, em seguida, use uma calculadora. Para o cálculo de potência indicamos a Extreme Power Supply e para listar seus componentes o PC Wizard ou SiSoftware Sandra Lite podem ajudar.
Computador mais robustoPerfil usuário meio-termo.

Se você quer um computador para tarefas mais pesadas como: edição de vídeos, edição de imagens e quer jogar alguns games medianos, pode usar a mesma calculadora acima. Vale lembrar que este tipo de computador pode sofrer vários upgrades, portanto é interessante deixar uma margem após o cálculo da potência.

Por exemplo, o resultado dos seus cálculos foi 400 W, é interessante deixar uma margem para upgrades de 20 a 30%, dessa forma você precisa de uma fonte de aproximadamente 550 W para rodar tudo com folga.
PC para quem é do mal e gosta de pegar pesado.
Computador do mal
Um PC para gamers precisa ser mais Hardcore, portanto é necessário calcular a potência dando pesos diferentes para cada componente, como no caso da placa de vídeo, por exemplo, porque ela é muito exigida neste tipo de PC. A calculadora PSU Watts é uma alternativa para calcular a demanda de potência dos componentes mais exigidos em um computador para jogos.
Vale lembrar que neste caso, é importante observar as exigências de cada componente para depois comprar a fonte adequada. Resumindo: o que determina a potência necessária neste tipo de computador são os componentes mais exigidos, sendo assim, primeiro você define quais peças vai usar para depois estabelecar a potência da sua fonte.



QUE POTÊNCIA É ESSA?



Custo X Benefício
Você já sabe que fontes na verdade são investimentos, principalmente para quem está montando um computador, pois elas são o combustível da sua máquina e depois de investir em um processador, HD, placa de vídeo e tudo que há de melhor, você não vai querer que eles sejam alimentados com energia instável. A mesma coisa acontece em um carro, você lava, passa aspirador, coloca néon, banco de couro, um motor potente, mas para economizar coloca gasolina adulterada. Adianta investir em Fonte é dinheiro!certas partes e negligenciar outras?
Portanto, na hora de escolher uma fonte é sempre bom não trocar o certo pelo duvidoso. Apesar de toda a polêmica envolvendo fontes originais e genéricas, é sempre bom poder contar com equipamentos que possuam garantias e que os valores de eficiência e potência sejam verdadeiros. É claro que as fontes genéricas podem ser tão boas quanto uma original, mas a probabilidade de encontrar uma assim é bem pequena.
Para que você se convença de que há ótimas fontes, mas com um preço acessível, confira a tabela abaixo. É claro que os valores refletem o uso que você fará da sua máquina – quanto mais exigida, mais você precisa desembolsar.

Confira boas opções de fontes que podem caber no seu bolso.

Potência, Eficiência ou os dois?
O que determina a qualidade de uma fonte é sua potência e eficiência, ou seja, o que ela gasta e o que ela produz. As fontes são classificadas quanto à potência máxima fornecida   (100 W, 200 W, 300 W...), porém na maioria dos casos o que é indicado na embalagem nem sempre é fornecido devido a alguns fatores: o fabricante usou temperaturas durante os testes abaixo do que é encontrado dentro dos computadores normalmente. Em outras palavras, a fonte foi testada em uma temperatura de 20°C, por exemplo, e obteu X de potência máxima, sendo que a temperatura comum dentro de um computador está entre 30 e 40°C.

É provavel que o fabricante pode ter cravado a potência máxima obtida em qualquer intervalo de tempo e a definiu como máxima, ou seja, a fonte atingiu 300 W em um intervalo de tempo de meio segundo, desta forma seu fabricante pode considerar como sua potência máxima.

Outro coisa muito comum é que o fabricante é um picareta e simplesmente “ocultou” a potência real da sua fonte para vender gato por lebre. Isso acontece geralmente com fontes genéricas.Em suma, potência real é a real quantidade de potência produzida pela fonte. Avaliar estes pontos é uma boa forma de definir a qualidade de uma fonte, pois se ela é realmente boa não há motivos para camuflar maus resultados. Para ter certeza da qualidade da fonte que você deseja comprar é possível pesquisar o seu desempenho.

Não se engane por uma etiqueta.

Eficiência = Watts reais
Como dito acima, a eficiência de uma fonte é determinante na hora de estabelecer sua qualidade. Esta eficiência também pode ser chamada de Watts reais e ela é medida assim: a quantidade de energia “sugada” da rede elétrica e quanto é revertido em potência para sua máquina.
Uma forma de saber a eficiência da sua fonte é através de uma regra de três simples, por exemplo, para produzir 300 W sua fonte capta 450 W. Para saber o valor da sua eficiência, basta montar um esquema assim:

300 – x
450 – 100

Onde X é o valor da potência, no nosso caso o valor foi de 66%. Segundo alguns órgãos que regulam e definem a qualidade das fontes como o 80 Plus e até o Inmetro, para uma fonte ser considerada ótima, sua eficiência deve ser o mais próxima possível de 100%, ou seja, quanto mais próximo de 100% mais eficiente, porém mais cara ela fica. Fontes consideradas boas possuem valores próximos ou superiores a 80% de eficiência, por isso há a certificação 80 Plus.
Uma fonte com alto valor de eficiência contribui, principalmente, para o aumento da vida útil do seu computador, pois produz menos calor e também colabora para diminuir o valor da sua fatura de energia elétrica. Portanto, é possível perceber que vale a pena investir em uma fonte com eficiência maior, pois a longo prazo o valor investido volta como economia na sua fatura de energia.

Dê nome aos bois.

Compra certa
Agora que você já sabe um pouco mais sobre fontes é provável que você queira fazer um upgrade na sua máquina para tratá-la como ela realmente merece. Dessa maneira, é importante, antes de tudo, pensar em alguns pontos tratados neste artigo, como: perfil de usuário, custo x benefício, genéricas x marcas e valores de potência e Watts reais. Tudo isso é de extrema importância para quem deseja ter um computador bonito e saudável.

YouTube terá vídeos da Time Warner

O YouTube e a Time Warner fecharam um acordo que permitirá que o popular site de vídeos possa exibir conteúdo de canais como TNT, CNN, Cartoon Network e vários outros.
O site terá vídeos curtos de programas como "The Ellen DeGeneres Show" e séries de TV como "Gossip Girl". Se o acordo for ampliado no futuro, o YouTube poderá exibir programas completos assim como já ocorre com o Hulu (não disponível para os brasileiros).
Além disso, como parte do acordo atual o YouTube integrará o player da Time Warner ao site.
Em março deste ano, o YouTube já havia fechado um acordo similar com a Disney para exibição de vídeos de canais como ESPN e  ABC.


YouTube

quarta-feira, 19 de agosto de 2009

Vazam supostas imagens do Google OS

Nesta segunda-feira, 15/08, o site Mashable divulgou imagens que, supostamente, seriam do sistema operacional Chrome. O SO é baseado em Linux e está sendo desenvolvido pelo Google.

Enviado por uma fonte desconhecida, as imagens mostram a plataforma instalada em um computador. As fotos não possuem garantia nenhuma de serem verdadeiramente do Chrome.

Apesar do conhecimento oficial sobre a criação do sistema operacional, o Google não informa em que ponto está o seu desenvolvimento.

chrome os

chrome os2