sexta-feira, 31 de agosto de 2012

O que é OpenDocument Format (ODF)?

Quem já utilizou um software livre para editar documentos de texto com certeza já se deparou com alguns formatos bem diferentes, como ODT, ODS e ODP. Mas você sabe por que os desenvolvedores não usam apenas extensões como DOC, XLS e PPT?

Os formatos utilizados pelo Microsoft Office são proprietários. Isso significa que, para criar uma aplicação que faça uso dessas extensões, é preciso pagar. Por isso, o ODF foi criado. Trata-se de um formato livre e aberto para a comunidade. Qualquer pessoa que queira desenvolver uma aplicação com suporte às extensões do tipo OD pode fazê-lo sem se preocupar com direitos autorais.

Como surgiu o ODF?

O padrão ODF foi criado pelo OASIS, uma organização que tem como objetivo promover padrões digitais de documentos, imagens e outros tipos de arquivos utilizados com frequência na internet. Todas as especificações do novo formato são criadas em reuniões dos comitês técnicos.

Entre 2005 e 2006, o ODF foi homologado pela ISO sob a identificação ISO 26300. Isso significa que o OpenDocument Format passou a ser um padrão reconhecido internacionalmente.

O que é OpenDocument Format (ODF)?

(Fonte da imagem: Baixaki/Tecmundo)

A aprovação no Brasil, dado pela ABNT, veio só em 2008 (identificado como NBR ISO 26300), o que causou certa euforia entre os utilizadores de software livre. Isso porque, de acordo com o Código de Defesa do Consumidor brasileiro, quando uma norma da ABNT passa a existir, todos os produtos do mercado devem incorporá-la.

Quem utiliza?

No Brasil, muito órgãos públicos passaram a utilizar o ODF como formato-padrão para seus documentos. Banco do Brasil, Caixa Econômica Federal, Celepar, Correio, Exército Brasileiro, Itaipu Binacional, Marinha do Brasil e Petrobrás são apenas alguns exemplos. Além disso, o Governo do Estado do Paraná também passou a utilizar o ODF em toda a sua documentação interna.

Ao redor do mundo, a lista de países que incorporaram o formato cresce a cada dia. África do Sul, Alemanha, Bélgica, Croácia, Dinamarca, França, Holanda, Portugal, Japão, Rússia e muitos outros já aderiram ao ODF.

Como identificar?

Os arquivos que utilizam o padrão ODF podem ser facilmente identificados por suas extensões. Acompanhe na lista abaixo os principais formatos.

Extensão

Tipo de documento

.odt

Documento de texto

.ods

Planilha eletrônica

.odp

Apresentação de slides

.odb

Banco de dados

.odg   

Desenho vetorial

.odf

Equação matemática

Você certamente já se deparou com algumas dessas extensões enquanto estava navegando pela internet. Quem utiliza o sistema operacional Linux sem dúvida já trabalhou com arquivos ODF.

Abrindo um documento ODF

Existem diversos aplicativos no mercado que permitem abrir e editar documentos que utilizam os padrões ODF. Os mais famosos são as suítes Apache OpenOffice e o LibreOffice, que oferecem editor de texto, ferramentas para trabalhar com planilhas e apresentações de slides e também aplicações de gerenciamento de banco de dados.

O que é OpenDocument Format (ODF)?

(Fonte da imagem: Baixaki/Tecmundo)

Alguns serviços online também incorporaram os formatos livres em sua lista, como é o caso do Google Drive, da gigante Google. Outra empresa de renome que oferece alternativas para quem trabalha com ODF é a IBM, com a suíte IBM Lotus Symphony.

Se você não quer deixar o Microsoft Office de lado, não tem problema. Existem diversos plugins para tornar o Word, Excel e PowerPoint compatíveis com o formato livre. São eles: ODF Add-in for Microsoft Word, ODF Add-in for Microsoft Excel e ODF Add-in for Microsoft PowerPoint.

10 coisas que não existiriam se não fosse o Linux

O sistema operacional livre mais famoso do mundo está em vários lugares é mais importante do que você pode imaginar.

Linux. Muita gente treme só de ouvir falar no sistema operacional criado por Linus Torvalds e divulgado ao mundo a partir de 1991. Contudo, essa história de que “Linux é difícil de usar” tem ficado dia a dia mais para trás, vide distribuições cada vez mais funcionais e amigáveis para o usuário final como Fedora e Ubuntu.

Contudo, o sistema operacional livre mais usado no mundo não corresponde apenas às várias distribuições que milhões de pessoas usam ao redor do globo terrestre. Ele está em lugares que você, provavelmente, nem imagina, comprovando toda sua robustez e versatilidade.

Ele é usado em diversas funções diferentes e o Tecmundo lista agora dez coisas que provavelmente não existiriam se não fosse o Linux.

10 coisas que não existiriam se não fosse o Linux

Tux, o mascote do Linux

Grandes servidores

Serviços que você utiliza todos os dias, como Google e Facebook têm Linux rodando em seus servidores para armazenar muito conteúdo. Todos os serviços de web da Google, como Docs, Agenda e Calendário, ficam hospedados em máquinas com o sistema operacional do pinguim.

Sistemas de controle de tráfego aéreo

Para que as pessoas viajem em segurança de uma parte a outra do mundo, há a necessidade de controle de tráfego aéreo. A maioria das máquinas operadas pelos controladores de voo usa Linux para garantir que o avião que carrega você de um ponto a outro decole e pouse em segurança.

Sistemas de alta tecnologia para controle de tráfego

Segundo o site LinuxforDevices.com, a cidade de San Francisco, uma das mais populosas dos Estados Unidos, usa um sistema de alta tecnologia para controle de tráfego terrestre. O município tem um trânsito caótico e é com Linux rodando em seus computadores que a prefeitura local pretende reduzir esse problema.

Android

10 coisas que não existiriam se não fosse o Linux

Android também é Linux.

O Android é o sistema operacional desenvolvido pela Google para dispositivos portáteis. Ele é um dos mais usados do gênero e cada vez mais novos aparelhos de grandes fabricantes são lançados com ele instalado. Pois se você ainda não sabia, agora é a hora: Android é desenvolvido tendo como base o Linux.

Trem de alta velocidade japonês

Outra ajuda que o Linux dá ao mundo dos transportes é funcionando nos computadores que operam o sistema de trens de alta velocidade no Japão. Sempre que nessas enormes e velozes máquinas de ferro embarcam passageiros e eles partem rumo ao seu destino, é o sistema criado por Linus Torvalds demonstrando a sua versatilidade.

Bolsa de Nova York

A Bolsa de Valores de Nova York também usa Linux. Desde 2007, o local que é o ponto nevrálgico do sistema financeiro estadunidense optou por instalar o sistema livre em suas máquinas. Os motivos são simples e claros: redução de custos (afinal, Linux é de graça e não se paga licença) e aumento de flexibilidade (não à toa o sistema é chamado de “livre”).

Supercomputadores

Outra informação recorrente no mundo do software livre é a preferência de desenvolvedores de supercomputadores pelo Linux. Estimativas apontam para cerca de 90% das supermáquinas existentes hoje rodando alguma variação de Linux. A explicação talvez seja a mais óbvia: o sistema livre é gratuito e flexível.

Carros inteligentes da Toyota

10 coisas que não existiriam se não fosse o Linux

Toyota agora faz parte da Linux Foundation.

Recentemente, de acordo com o site LinuxInsider, a Toyota aderiu à Linux Foundation, a fundação criada em 2007 e que é responsável pela colaboração para aprimoramento do sistema. A justificativa, segundo o gerente geral de projetos da empresa Kenichi Murata, foi o fato de o sistema Linux possuir “a flexibilidade e a maturidade tecnológica” de que eles precisam para desenvolver veículos inteligentes.

Acelerador de partícula

A Cern, Organização Europeia para a Investigação Nuclear, maior laboratório de física de partículas do mundo e referência global no assunto, faz uso do sistema em suas pesquisas relacionadas a partículas de energia. O famoso acelerador de partículas do laboratório funciona com Linux.

Submarinos nucleares

A Lockheed Martin, maior produtora de produtos aeroespaciais para fins militares do mundo, apresentou, em 2004, a linha de submarinos nucleares BAEs Astute-class. O sistema central dessas máquinas subaquáticas possui a distribuição de Linux Red Hat instalada.

Huawei apresenta smartphone com Android 4.0

Huawei apresenta smartphone com Android 4.0

(Fonte da imagem: Divulgação/Huawei)

A Huawei apresentou durante a IFA 2012 o Ascend G600, seu novo smartphone equipado com Android. O modelo roda a versão 4.0 Ice Cream Sandwich – penúltima versão do sistema operacional do Robô – e tem câmera principal de oito megapixels.

O smartphone também é acompanhado por um par de alto-falantes com sistema surround DTS para fornecer alta qualidade sonora aos seus usuários. A Huawei promete que seu novo smartphone fornecerá maior clareza visual, poder e velocidade. Confira as especificações:

  • Tela LCD de 4,5 polegadas com tecnologia IPS e resolução de 960x540;
  • Processador Qualcomm dual-core de 1,2 GHz;
  • Bateria de lítio de 1930 mAh que pode ser carregada totalmente em 4 horas;
  • Ampla conectividade com Wi-Fi Direct, Bluetooth e DLNA;
  • Porta microUSB e microSD com capacidade para cartões de até 32 GB;
  • 768 MB de memória RAM;
  • 4 GB de armazenamento ROM;
  • Suporte à tecnologia NFC de pagamento móvel;

Segundo a Huawei, o aparelho inicia rapidamente: são apenas 5 segundos para poder começar a utilizá-lo. O modo stand-by ultrapassa 15 dias. Já o Wi-Fi Direct do dispositivo permite que ele se conecte com outros aparelhos compatíveis sem a necessidade de uma rede sem fio. O sistema presente no celular permite a troca de arquivos e fotos com um simples movimento.

O telefone terá duas opções de cores (preto e branco) e chegará a alguns países a partir de setembro (a empresa não especificou a lista). O preço também não foi divulgado pela Huawei.

Fonte: Engadget

A Ethernet terabit vem aí e o bicho vai pegar

Se a velocidade das transmissões de dados via internet nos afeta (positiva ou negativamente) de forma direta, o tráfego de dados via redes Ethernet pode causar impacto indireto no nosso dia a dia; entenda como.

A velocidade das redes de dados Ethernet é algo que causa certa preocupação nos especialistas. Recentemente, o IEEE (Instituto de Engenheiros Elétricos e Eletrônicos) anunciou que está desenvolvendo o novo padrão de transmissão de dados em redes Ethernet, que deverá ficar na faixa de 400 gigabits a 1 terabit por segundo. Para comparar, isso seria suficiente para transferir o conteúdo de dois discos de Blu-ray e meio em apenas um segundo.

A Ethernet terabit vem aí e o bicho vai pegar

Um laptop comum geralmente atinge velocidades máximas de apenas 100 megabits por segundo. Se todo o sistema estiver bem configurado e com equipamentos de última geração, talvez seja possível que ele alcance até 1 gigabit por segundo — isso  assumindo que o notebook em questão tenha uma porta Ethernet para que seja possível uma conexão cabeada.

Os MacBooks Air são exemplos de máquinas que não possuem mais conexões Ethernet físicas, e essa tendência tende a aumentar conforme mais computadores seguem esse padrão.

Por que devemos nos importar com conexões Ethernet se a internet é que está lenta?

A verdade é que a maioria das pessoas não sabe ou não se importa com as taxas de transferência de suas conexões Ethernet. Isso acontece porque o principal gargalo hoje em dia para a maioria dos usuários é a velocidade da conexão com a internet, e não a da rede interna de dados.

Mas isso não significa que a velocidade da Ethernet não seja importante para usuários comuns. As empresas que ficam do outro lado da conexão — Facebook, Google, empresas de telecomunicações, bancos e instituições financeiras — estão tendo um aumento absurdo no tráfego de dados de suas redes.

E se elas não puderem se expandir economicamente ou até mesmo adicionar novos recursos em seus sistemas, a internet como um todo pode sair perdendo, diminuindo o seu apelo e freando o desenvolvimento como um todo. Isso pode fazer com que ela se torne menos interessante e, o pior de tudo, muito mais cara.

O IEEE desenvolveu diversos estudos a respeito disso nos últimos tempos e publicou um trabalho em julho deste ano, concluindo que o fluxo de dados transferidos dentro de alguns locais dobra de volume a cada 18 meses. Tendo essas informações em mãos, o instituto reuniu um novo grupo de estudos para tentar satisfazer essa necessidade por banda.

A Ethernet terabit vem aí e o bicho vai pegar

O tráfego de dados dobra a cada 18 meses (Fonte da imagem: Reprodução/IEEE)

John DAmbrosia, chefe do novo grupo Consenso de maior velocidade Ethernet, espera que, em 2015, a banda máxima suportada seja dez vezes maior do que era em 2010. Em 2020, o objetivo é que ela seja 100 vezes maior do que era em 2010.

Entretanto, a maior parte do grupo vai estudar qual das opções é mais viável: 400 gigabits por segundo ou 1 terabit por segundo. Até o momento, quase todas as empresas que desenvolvem equipamentos para rede parecem favorecer a primeira opção, contudo  os clientes insistem que a segunda seja o formato ideal de transmissão do novo padrão, ou seja, 2,5 vezes maior.

Segundo D’Ambrosia, essa questão é extremamente delicada, pois envolve custos elevados de desenvolvimento e talvez um padrão de 1 terabit não seja economicamente viável.

Ele continua: “As pessoas entendem que 400 gigabits é tecnicamente e economicamente viável. Quando vemos uma Ethernet de 1 terabit, percebemos que ela existe apenas pela demanda. As pessoas sabem que existe um “tsunami” de dados chegando nos próximos anos. É matemática básica: 1 terabit é maior do que 400 gigabits, portanto  as empresas querem 1 terabit. O problema disso é que alguém precisa ter os pés no chão e se preocupar com a viabilidade do negócio.”

Como será possível atingir essas velocidades?

Não importa o padrão escolhido. O único modo de chegar lá é juntando diversas conexões físicas diferentes em uma única conexão de altíssima velocidade. O problema desse sistema é que, para funcionar, cada um dos links precisa de seus próprios componentes e controladores, e isso pode deixar tudo muito caro no final das contas.

Exemplificando: para se atingir 400 gigabits, é preciso agregar 25 conexões de 1 gigabit em grupos de 16. Já se a velocidade desejada for 1 terabit, é preciso aumentar esse grupo para 40.

Para que os dados possam trafegar em ambas as direções, é necessário dobrar esse número de cabos, ou seja, serão 80 grupos de 25 conexões de 1 gigabit trabalhando em paralelo. Isso certamente não parece muito interessante. Adicione nessa mistura o fato de que todos esses cabos são feitos de cobre, ou seja, eles são muito grossos, pesados e de difícil manuseio.

A Ethernet terabit vem aí e o bicho vai pegar

Quem foi o responsável por essa bagunça? (Fonte da imagem: Reprodução/Pingdom)

Nos gigantescos datacenters e centros de supercomputação, existem diversos problemas relacionados ao cabeamento, devido ao volume ocupado por esses componentes. Segundo D’Ambrosia, alguns desses locais precisam desenvolver estruturas físicas mais robustas para dar conta do peso e do tamanho dos cabos de cobre, que podem chegar a ter até 2 polegadas de diâmetro.

Nos computadores pessoais

Em se tratando da Ethernet vista pelo lado dos computadores pessoais, são usadas conexões RJ-45 e cabos de cobre. Mas, onde são empregadas conexões de 100 gigabits, são utilizados dois tipos de material: cobre e fibra óptica. Os cabos de cobre são mais baratos, mas a fibra óptica pode alcançar muito mais velocidade.

Os padrões atuais de 40 gigabits e 100 gigabits exigem que os cabos de cobre tenham no máximo 5 metros de distância dos roteadores até os computadores, e diminuir esse comprimento seria pouco prático.

A Ethernet terabit vem aí e o bicho vai pegar

(Fonte da imagem: Divulgação/Cisco)

O objetivo principal do IEEE é desenvolver um padrão que diga qual é a forma de conexão Ethernet mais eficiente em todos os sentidos; seja em termos econômicos ou estruturais. Somente depois de encontrar o modelo mais eficiente é que vai ser possível passar para a fase de desenvolvimento.

“A Ethernet terabit parece incrível, e de fato é. Mas não significa apenas querer. É preciso fazer as contas e ver o quanto você está disposto a pagar por ela”. Finaliza D’Ambrosia.

Novas tecnologias em estudo

Se o IEEE é o responsável por definir um padrão viável e definitivo para as redes Ethernet de alta velocidade, cientistas do mundo todo procuram desenvolver estudos sobre meios de transmissão de dados de forma mais veloz. Um teste feito pelos pesquisadores do Telekom Innovation Laboratories (T-Labs) no ínicio do ano em Berlim, utilizando cabos de fibra óptica, levou os dados a serem transferidos em médias de 400 gigabits por segundo.

Segundo os especialistas, a conexão que foi feita entre Berlim e Hanover, na Alemanha, cobrindo uma distância de 734 km, pode atingir a marca de 24,6 terabits por segundo caso todos os 48 canais de transmissão do cabo de fibra óptica trabalhem em conjunto.

A Ethernet terabit vem aí e o bicho vai pegar

(Fonte da imagem: iStock)

Redes sem fio mais rápidas também estão em estudo em diversos pontos do globo. Cientistas norte-americanos e israelenses se juntaram em um projeto que pretende modificar os padrões das redes sem fio atuais. A ideia dos pesquisadores foi mudar o modo como o sinal é transmitido pelos roteadores.

De acordo com eles, foi possível desenvolver uma onda de transmissão giratória e contínua, utilizando os sinais em estado OAM (Movimento Angular Orbital) em vez de apenas SAM (Movimento Angular Rotativo). Isso garante que muito mais dados sejam condicionados em menos espaço, fazendo com que a transmissão wireless atinja até 2,56 terabits por segundo.

Velocidades da internet pelo mundo

Enquanto a taxa de transferência das redes Ethernet atinge terabits de velocidade, as transmissões via internet são mais modestas. Isso acontece porque as transferências de dados funcionam muito melhor dentro de um ambiente controlado, como os datacenters e centros de computação avançada. Lá dentro, os cabos são gerenciados e controlados por equipes inteiras.

Quando se trata do mundo real, temos problemas bem mais complexos para enfrentar: além do próprio meio ambiente que ajuda a danificar o material, as longas distâncias prejudicam o funcionamento adequado das transmissões, mesmo com cabos de fibra óptica — sem contar o custo necessário para empregar essas tecnologias em locais onde o acesso é mais difícil.

A Ethernet terabit vem aí e o bicho vai pegar

(Fonte da imagem: iStock)

Recentemente ficamos sem internet no sul do Brasil por causa de um rompimento de cabo ocorrido próximo a Curitiba. Um caso ainda mais curioso é o de uma senhora, que acabou com a internet de dois países inteiros depois que cortou um cabo de transmissão enquanto fazia escavações em busca de metais preciosos.

A Coreia do Sul continua liderando o ranking

Atualmente, a Coreia do Sul continua liderando o ranking de países com a internet mais rápida. Enquanto o país da Samsung possui uma média de 15,7 megabits por segundo, a média global fica na casa dos 2,6. O Brasil fica pouco abaixo da media mundial, com 2,1 megabits por segundo. Quem fica lá embaixo na tabela são alguns países da África, em que a média de velocidade não ultrapassa os 200 kilobits.

O desenvolvimento de novos padrões é sempre muito importante. É difícil imaginar que apenas pouco mais de 10 anos atrás era necessário aguardar até depois da meia-noite para acessar a internet, graças ao pulso único. O coro de sons e ruídos desconexos liberados pelos modens dial-ups alertava os vizinhos que a hora da internet chegou.

A Ethernet terabit vem aí e o bicho vai pegar

(Fonte da imagem: Reprodução/The Verge)

Naquela época, era difícil imaginar que a internet poderia chegar a ter um lugar tão importante na sociedade como tem hoje. Se a taxa de 56 kilobits por segundo era cerca de 170 vezes menor que os 10 megabits por segundo que temos hoje, é possível acreditar que cheguemos ao sonhado terabit de velocidade na internet daqui a dez anos.

Para que isso aconteça é preciso investir muito mais em tecnologia e infraestrutura, não apenas no Brasil, mas no mundo todo. Contudo, sabemos que a tecnologia evolui a passos largos, portanto isso não está tão distante da realidade.

Uma tempestade pode acabar com a computação em nuvens? Boa parte das pessoas acredita que sim

Uma tempestade pode acabar com a computação em nuvens? Boa parte das pessoas acredita que simNa foto, a internet está sobre o campo (Fonte da imagem: Reprodução/Wikimedia Commons)

Você sabe o que é computação em nuvem? Se a resposta for sim, parabéns: você faz parte de uma minoria. Isso porque uma pesquisa realizada nos Estados Unidos pela Wakefield Research revelou que boa parte da população ainda tem sérios problemas para entender a tecnologia, dando origem a uma série de equívocos, no mínimo, bizarros.

Duvida? Das 1 mil pessoas entrevistadas, 51% delas disseram acreditar que o recurso está relacionado ao tempo e que uma tempestade pode interferir em seu funcionamento — ou seja, proteja seus documentos no Dropbox para eles não molharem.

Essa é apenas uma das respostas bizarras que o estudo mostrou. De acordo com o site Citrix, que colaborou com a coleta de dados, 22% dos americanos fingem saber do que a tecnologia se trata, sendo que um terço dessa estatística acontece em ambientes de trabalho. Quer impressionar seu chefe? Fale em como a previsão do tempo disse que era um ótimo dia para acessar o Google Drive.

Uma tempestade pode acabar com a computação em nuvens? Boa parte das pessoas acredita que simInternet flagrada em momento de lazer (Fonte da imagem: Reprodução/Wikimedia Commons)

O desconhecimento em torno da cloud computing é tão grande que 97% dos entrevistados — ou seja, quase todo mundo — falou que usa um serviço do gênero na hora de realizar compras, nas redes sociais e até mesmo para acessar seu banco. Quem sabe as próximas gerações possam sacar seu salário pelo Skydrive, não é mesmo?

A boa notícia é que muita gente disse que se trata de uma tendência para o futuro, o que mostra que, mesmo sem ter uma noção exata do que se trata, as pessoas imaginam que o recurso possui um potencial que pode ser melhor explorado — e, quiçá, compreendido — nos próximos anos.

Mas o que é a tal nuvem?

A pergunta que não quer calar também trouxe respostas bem variadas. A principal, como não poderia deixar de ser, era “aquela coisa branca e fofinha”. Isso deixa claro que o termo “nuvem” ainda cria muita confusão, principalmente quando muita gente fez referência a céu e tempo.

Uma tempestade pode acabar com a computação em nuvens? Boa parte das pessoas acredita que simInternet vista de cima (Fonte da imagem: Reprodução/Wikimedia Commons)

O Citrix revela que somente 16% dos entrevistados soube dizer que se trata de uma rede de computadores em que é possível armazenar e compartilhar arquivos via internet. O restante se limitou a trazer ideias bem absurdas envolvendo ciberespaço, “o sonho de todo hacker” e até mesmo travesseiro, fumaça e papel higiênico.

O que eles quiseram dizer com isso, jamais saberemos.

Fonte: Citrix

quinta-feira, 30 de agosto de 2012

Windows: como forçar um programa a usar um núcleo específico da CPU

De uma maneira bem simples é possível escolher um núcleo exclusivo para ser usado por um aplicativo.

Windows: como forçar um programa a usar um núcleo específico da CPU

Por padrão, os programas que você executa no computador usam todos os núcleos disponíveis do processador, e isso acontece desde o Windows XP, mantendo-se até mesmo no Windows 8. Mas se você tem um processador dual ou quad-core, é possível definir a “afinidade com o processador” para escolher qual o núcleo da CPU um programa poderá usar.

Dessa forma, é possível escolher qual programa poderá usar um determinado núcleo, enquanto outro aplicativo executa outro. Embora não seja permitido definir essa “prioridade de núcleos” para os serviços do sistema, você pode utilizar esse recurso em programas como o Google Chrome, Firefox ou qualquer outro. Assim, você obterá um bom desempenho geral no seu computador.

Mudar a afinidade com o processador significa que você limitará um aplicativo para fazer com que ele rode apenas em determinado núcleo, o que pode ser muito útil se você tiver um programa que está monopolizando toda a CPU. Mas cuidado: para a maior parte dos aplicativos, não é recomendado que você faça essa alteração nas configurações – é bem melhor deixar o Windows gerenciá-los.

A configuração da afinidade de processador dura enquanto um aplicativo estiver aberto: quando você fechar o programa ou reiniciar o computador, os valores retornarão a forma padrão. Veja como escolher um programa para ser executado com exclusividade em um dos núcleos:

Windows XP

1. Pressione Ctrl + Alt + Delete para abrir o Gerenciador de Tarefas do Windows , e vá para a guia “Processos”. Na lista de processos, escolha aquele que você deseja fazer a alteração e clique com o botão direito sobre o seu nome;

Se você não sabe qual processo está associado a qual aplicativo, abra a aba “Aplicativos”, clique com o botão direito do mouse sobre o nome do programa e selecione “Ir para processo”. Esse comando vai abrir a aba “Processos” automaticamente, e o processo especificado será destacado;

2. Agora clique com o botão direito sobre o nome do processo escolhido e selecione a opção “Definir afinidade” no menu contexto;

3. Na caixa de diálogo “Afinidade com o processador”, você encontrará diversas opções de seleção: “todos os processadores” e as opções de núcleos do seu processador. Se você tiver um processador dual-core, por exemplo, eles estarão listados como “CPU 0” e “CPU 1”. Basta apenas marcar qual dos núcleos você deseja e clicar em OK.

Windows: como forçar um programa a usar um núcleo específico da CPU

Windows Vista e  7

1. Pressione Ctrl + Shift + Esc para abrir o Gerenciador de Tarefas do Windows;

2. Na guia “Processos”, marque a caixa de seleção “Mostrar processos de todos os usuários”;

Windows: como forçar um programa a usar um núcleo específico da CPU

3. Clique com o botão direito no processo cujo processador a afinidade você deseja alterar e escolha “Definir afinidade”.

4. Agora escolha qual o núcleo do CPU você deseja que o programa rode e clique em OK.

Windows 8

1. Clique com o botão direito do mouse na barra de tarefas do Windows e selecione “Task Manager” ou “Gerenciador de tarefas” dependendo do idioma do sistema operacional;

2. Em seguida, selecione a aba “Details” (detalhes);

Windows: como forçar um programa a usar um núcleo específico da CPU

3. Encontre o processo na lista e clique com o botão direito sobre ele;

4. Escolha “Set affinity” (definir afinidade) no menu contexto;

5. Por padrão, os aplicativos estão marcados para userem todos os processadores no PC. Basta desmarcar essa opção e escolher qual dos núcleos você deseja que o programa seja executado.

Instale um antivírus no seu Linux

A dica deste semana na coluna “Dicas para Linux” será como escolher e instalar um antivírus no seu sistema operacional Linux… O QUÊ? Instalar antivírus no Linux? Linux não era imune? Não é o sistema mais seguro da face da Terra e de toda a Galáxia?

Desculpe se a coluna desta quarta-feira estragou o sonho de alguém. Linux nunca foi imune a vírus e existem muitos exemplares de pragas para o sistema. Qualquer sistema operacional está sujeito à pragas virtuais, falhas e ataques, e Linux não foge à regra.

É preciso ficar preocupado, então? Não. Os riscos de contaminações nos sistemas Linux para desktop são baixos e o risco de uma epidemia é mais baixo ainda (nunca aconteceu). O motivo não é a velha história de “é mais seguro porque é menos usado”. Uma série de motivos faz do Linux uma base segura, não só a quantidade de usuários, mas também o sistema de restrição, a arquitetura do sistema, as diferenças nas estruturas das distribuições, o modo de instalação de programas (via repositório) e o modelo de desenvolvimento aberto, cujo resultado são falhas críticas encontradas e corrigidas mais rapidamente.

Antes de falar no Android, que é Linux, para dizer que “sim, é só ser mais usado que o sistema vira alvo”, entenda que o Android em si é seguro, mas sua política de segurança não. Quando um sistema é muito utilizado, os criminosos voltam seus olhos para o sistema, obviamente, mas não é somente isso que vai fazer o sistema ser menos seguro. Além da quantidade de usuários, uma política de segurança falha faz o sistema operacional ficar vulnerável.

Para ter uma ideia, o Symbian sofria com muitas pragas, mas a Nokia mudou sua política de segurança, passando a usar uma loja de programas exclusiva e verificando os aplicativos hospedado, desenvolvidos para seu sistema. É o mesmo que faz a Apple, com seu iOS, um dos mais utilizados em smartphones e tablet, e no entanto, pragas são raras no sistema da maçã.

Mas então, se é seguro, por que devo instalar um antivírus no meu Linux? A resposta é: Prevenção.

Prevenção nunca é demais. Não é porque o Brasil é livre de Poliomielite que não vou levar meus filhos para tomar a vacina, não é mesmo? Além disso, antivírus para Linux serve para arquivos do Windowstambém. Quem tem dual boot, ou seja, um sistema Linux e um sistema Windows no mesmo computador, ou uma rede mista, com equipamentos Linux e Windows, um antivírus é altamente recomendável, principalmente quando leva-se em consideração que o sistema da Microsoft ainda é o principal celeiro de pragas.

Qual antivírus escolher? Existem muitas opções, mas duas boas são: ClamAV e BitDefender. Veja mais sobre eles.

BitDefender e ClamAV

ClamAV

É um motor de verificação de vírus e outras pragas e está sob licença GPL, ou seja, é um antivírus de código aberto e multiplataforma, usado, por exemplo, pela IBM, pelo governo de Vermont, e por universidades, como a Universidade de Nantes, de Michigan e de Indiana.

Para instalar, procure na sua Central de Programas por ClamTk:

Clique para instalar

ClamTk é o motor ClamAV com a uma interface para Linux:

Interface ClamTk é simples

BitDefender

Outra boa opção é o BitDefender. É um antivírus proprietário e pago, que pode ser usado sem custos se for para uso doméstico. A recomendação é que somente usuário avançado deve usar. O motivo está na instalação e em um bug, que será falado mais abaixo.

Para baixar e conseguir uma licença, acesse:

http://www.bitdefender.com/br/business/antivirus-for-unices.html

Clique para obter uma versão de testes e preencha o cadastro (cadastro da licença grátis também, não esqueça). Um e-mail chegará em sua conta. Onde estiver escrito “You can find Linux-based solutions and other individual Bitdefender Enterprise Solution trial downloads here”, clique e entre no programa “BitDefender Antivirus Scanner for Unices”.

Escolha agora o arquivo compatível com sua distribuição. O Ubuntu, por exemplo, usa “.deb”. Talvez seja preciso clicar com botão direito do mouse e “Salvar link como…”.

Instalação

A instalação, no entanto, é a mais bizarra possível. Por algum motivo a BitDefender colocou os pacotes .deb e .rpm, de simples instalação em 2 cliques, dentro de um pacote .run. Então no lugar de uma trivial instalação, você terá que usar o Terminal. Por que ela fez isso? É um dos grandes mistérios da humanidade.

Primeira coisa a ser feita é permitir que o arquivo .run seja executável. Clique com botão direito do mouse, vá em “Propriedades”, na aba “Permissões”, marque a caixa “Permitir execução do arquivo como um programa”.

Marque a caixa “Permitir execução do arquivo como um programa”

Agora abra o Terminal (Consola ou Konsole) e execute como administrador o comando “./nome_do_programa”. No Ubuntu, por exemplo, fica assim:

1

sudo ./BitDefender-Antivirus-Scanner-7.6-4.linux-gcc4x.amd64.deb.run

Agora será preciso aceitar a licença, digitando no final do contrato “accept” e colocando “Y” quando pedido para instalar a interface gráfica.

Arrumando a casa

Procure o BitDefender no seu sistema, mas caso não encontre, é possível acessar apertando Alt + F2 e digitando “bdgui”.

Pode acontecer um erro muito chato, que impede a verificação, fazendo o BitDefender fechar. Para arrumar é simples. Apenas digite no Terminal:

1

2

3

4

sudo bash

rm /opt/BitDefender-scanner/var/lib/scan/bdcore.so

cat /opt/BitDefender-scanner/var/lib/scan/versions.dat.* |awk '/bdcore.so.linux/{print $3}'|while read bdcore_so;do touch /opt/BitDefender-scanner/var/lib/scan/$bdcore_so;bdscan --update;ln -s /opt/BitDefender-scanner/var/lib/scan/$bdcore_so /opt/BitDefender-scanner/var/lib/scan/bdcore.so;done

exit

Agora é só usar seu BitDefender.

BitDefender pronto para usar

Anatel anuncia projeto de medição da qualidade da banda larga

O ministro das Comunicações, Paulo Bernardo, e o vice-presidente da Agência Nacional de Telecomunicações (Anatel), Jarbas Valente, apresentaram nesta semana em entrevista coletiva à imprensa detalhes do projeto de medição da qualidade da banda larga fixa no Brasil.
O projeto depende da participação da sociedade para ser implementado, uma vez que os equipamentos de medição da internet serão instalados nas conexões de voluntários.
A medição, que começa no mês de outubro, está prevista no Regulamento de Gestão da Qualidade do Serviço de Comunicação Multimídia (RGQ-SCM - aprovado pela Resolução Anatel 574/2011). Os primeiros resultados devem ser divulgados, pela Agência, em dezembro deste ano.
De acordo com o conselheiro Jarbas Valente, o objetivo do projeto é reunir informações suficientes para a adoção de medidas que permitam a progressiva melhoria do serviço. "Trata-se de uma medição em todo o território nacional que fornecerá dados importantes para as ações da Anatel", avaliou.
Espera-se, em todo o Brasil, a mobilização de cerca de 12 mil usuários do serviço. Jarbas Valente informou que a adesão ao projeto não exige conhecimentos avançados de informática dos voluntários. "Basta ligar o equipamento de medição ao modem ou ao roteador e deixá-lo funcionando. O usuário não precisa fazer nada além disso", explicou.
Segundo o ministro Paulo Bernardo, a medição contribuirá de forma decisiva para a elevação da competição da banda larga fixa no país, pois o consumidor terá parâmetros objetivos para comparar os serviços das diversas prestadoras. Na sua avaliação, a comparação estimulará as empresas a investir mais para assegurar a qualidade dos serviços e a reduzir preços para ampliar sua base de clientes. "Esse regulamento de qualidade aprovado no ano passado é mais avançado do que de outros países", disse Paulo Bernardo.

Jarbas Valente e Paulo Bernardo anunciaram ainda a criação do perfil específico da Anatel no Facebook para divulgação do programa de medição da qualidade da banda larga no Brasil.
O processo de medição da qualidade da banda larga será coordenado pela Anatel por meio da Entidade Aferidora da Qualidade (EAQ). No Brasil, será adotada a mesma tecnologia usada e aprovada em mais de 35 países, como Estados Unidos e Reino Unido, em iniciativas semelhantes. Os resultados dessas medições permitirão à Anatel conhecer com maior precisão a qualidade do serviço em todo o País e, assim, adotar as medidas necessárias para que sejam cumpridas as metas estabelecidas na regulamentação da Agência.
O superintendente de Serviços Privados, Bruno Ramos, informou que, para a medição da qualidade da banda larga fixa, o projeto abrangerá usuários das prestadoras do Serviço de Comunicação Multimídia (SCM) com mais de 50 mil acessos: Oi. NET, Telefônica/Vivo, GVT, Algar (CTBC), Embratel, Sercomtel e Cabo Telecom.
Podem ser voluntários do programa todos os usuários que tenham contrato de prestação de serviço de banda larga fixa em seu nome. Para se candidatar, é necessário informar os dados pessoais e os do serviço contratado, por meio do cadastro disponível no portal www.brasilbandalarga.com.br. Funcionários das empresas analisadas não poderão ser voluntários.
Após análises das características dos consumidores e dos serviços por eles contratados, será feita uma seleção para garantir que a amostragem represente os diferentes perfis de consumidores da banda larga fixa no Brasil. Serão acompanhados indicadores como velocidades de upload e download, latência, variação da latência (ou jitter) e perda de pacotes.
Os selecionados pela EAQ não terão qualquer ônus para instalação dos equipamentos e também não serão remunerados. Os voluntários receberão um aparelho batizado de whitebox, que fará a medição ao ser conectado ao modem/roteador de cada residência ou empresa. A aferição nos equipamentos instalados nos computadores será diária e ininterrupta. O equipamento não coleta qualquer informação pessoal, nem interfere ou monitora a navegação do usuário.
Além de colaborar para aferição da qualidade da banda larga, cada voluntário receberá relatório mensal com dados relativos à qualidade do serviço  em sua residência ou empresa.
A metodologia e procedimentos referentes às medições foram definidos pelo Grupo de Implantação de Processos de Aferição da Qualidade (GIPAQ), grupo de trabalho coordenado pela Anatel, com participação de representantes das Prestadoras, da Entidade Aferidora da Qualidade (EAQ) e de entidades convidas, como o CGI.Br e o Inmetro.
Fonte: Anatel
Whitebox, o aparelho usado para medir a qualidade da banda larga:

Deixe o GMail ao seu gosto com o GMelius

Complemento para o Firefox e Chrome permite ativar, desativar ou modificar vários recursos no serviço de e-mail da Google.

Com seus numerosos botões e opções que talvez você nunca use, a interface do Gmail pode acabar atrapalhando a tarefa de simplesmente ler as mensagens. É verdade que a Google a fez lotada de recursos, mas nenhum a interface é perfeita para todos os seus usuários. O Gmelius é um complemento para o Chrome e o Firefox que lhe permite personalizar a interface do GMail a seu gosto, escolhendo quais recursos usar, e como usar.

A interface do Gmelius é uma longa lista de opções, mas dividida em seções fáceis de entender e fá conta do recado. Com um clique você pode esconder a barra superior na interface do GMail, mover os marcadores para a direita do assunto da mensagem, ativar ícones que indicam o tipo de arquivo anexo a um e-mail, desativar ou colorizar os ícones nos botões da barra de ferramentas do Gmail, desabilitar o Widget de pessoas, habilitar a rolagem automática de volta ao topo da página e muito mais.

gmelius-360px.jpg
A interface do Gmelius: basta marcar o que deseja ativar ou desativar

Também é possível remover os anúncios do Gmail, e homogeinize a formatação de todas as mensagens que chegam. Com isso aqueles e-mails em Comic Sans e letras coloridas, que mais parecem bilhetes de sequestrador, irão ser mostrados na fonte padrão do GMail.

O Gmelius é gratuito, mas o desenvolvedor (Florian Bersier, um estudante na Universidade de Oxford, na Inglaterra) encoraja e aceita doações via PayPal, que podem ser tão pequenas quanto US$ 1,00. Se você gostar, colabore.

quarta-feira, 29 de agosto de 2012

Golpe no Facebook atrai usuários com a promessa de mudar a cor da rede social

Spammers aproveitam para roubar dados da vítima e utilizar perfil para espalhar mensagens contendo o link malicioso e atrair mais usuários

Há algum tempo circula pelo Facebook um link que supostamente possibilita ao usuário trocar da cor da rede social, de azul para vermelho, verde e até rosa. A mensagem é mais um golpe.

Segundo a empresa de segurança Sophos, caso você seja atraído por essa mensagem e visite um dos links anexos nela, você encontrará "uma história muito familiar". O usuário é comumente redirecionado para uma página que solicita uma "verificação" (verificar o que?) antes de poder alterar o esquema de cores da página.

É aí que crackers solicitam sua permissão para que um aplicativo não autorizado tenha acesso ao seu perfil e poste mensagens em seu nome - como acontece quando acessamos aplicativos de terceiros. Dando a tal autorização, scammers serão capazes de roubar dados do seu perfil e, de quebra, utilizar a sua rede de contatos para publicar em seu nome uma mensagem maliciosa que tem a função de atrair mais vítimas, como mostra a imagem abaixo:

corFB_435
Usuário caiu na armadilha e seu perfil espalha a mensagem maliciosa pela rede

A mensagem aparece como se fosse um comentário em páginas, grupos e no feed de amigos. As vítimas devem remover todas as mensagens que foram postadas em seu nome pelo APP, antes de seus amigos também caiam na armadilha.

O velho e conhecido "não clique" é ainda a melhor forma de se prevenir contra essa ameaça.

Página inicial do Google agora mostra lembretes de aniversário

Aniversários no Google

O Google adotou nessa terça-feira, 29, um recurso já bem conhecido pelos usuários do Facebook. A partir de agora, a gigante de buscas vai lembrar os internautas sobre o aniversário de seus amigos.
A novidade foi anunciada pela engenheira de software da companhia Irene Chung. Ela explicou que só serão vistos aniversários dos contatos presentes em algum círculo do Google+. A foto da pessoa será mostrada abaixo dos lembretes da rede social, com uma recomendação para que você dê os parabéns.
Por enquanto, só quem navega pela versão em inglês do buscador verá os lembretes, mas em breve eles serão disponibilizados a todos.

A revolução dos Ultrabooks

Os computadores portáteis estão sofrendo uma mudança radical, e quem abre o caminho é a mais nova geração de Ultrabooks

O PC está passando pela mudança mais radical desde a criação do IBM PC há três décadas, e os Ultrabooks e o Windows 8 estão puxando a fila. Ultrabook cada vez mais finos estão tendo sucesso onde os netbooks falharam, entregando mais desempenho, automomia de bateria e uma experiência de computação “completa”. Antes vistos como simples cópias do MacBook Air, os Ultrabooks agora estão indo além. Experiências como o Toshiba Satellite U845W, com sua tela em proporção de cinema, estão expandindo a definição do que é um PC.

toshiba_satelliteu845w-360px.jpg
Toshiba Satellite U845W: Um ultrabook com tela de cinema

Revoluções são caóticas. Elas modificam o status quo e deixam velhas tradições e conceitos para trás. O PC, que antes era a ponta de lança da revolução digital pessoal, pode parecer algo antiquado ao lado de novos tablets e smartphones projetados para um mundo sempre conectado. Na realidade o PC está bastante envolvido na revolução atual, mudando sua propria natureza para responder a novos modelos de uso e uma nova geração de usuários. O recente anúncio do Surface - um PC com Windows 8 disfarçado de tablet - demonstra a flexibilidade do PC e sua relevância na era digital moderna.

Veja também:
Vídeo: Saiba mais sobre os Ultrabooks

Os atuais Ultrabooks - notebooks leves e finos que a Intel está incentivando os fabricantes de PCs a construir - representam o futuro do PC. Tablets são ótimos para navegar na web e consumir mídia, mas os usuários precisam de teclados e capacidade de expansão para melhor produtividade. Os fabricantes de Ultrabooks estão adotando algumas das melhores características dos tablets, como o suporte a multitoque e longa autonomia de bateria, enquanto mantém a essência do PC como a ferramenta de produtividade digital definitiva.

A nova revolução da computação se aproxima graças a uma legião de usuários e desenvolvedores que estão criando novas formas de interagir com os dados e uns com os outros em uma sociedade conectada. Estas não são mudanças incrementais, mas um primeiro disparo vindo de desenvolvedores e usuários que nunca conheceram um mundo sem a Internet. E o novo PC desempenha um papel crucial atendendo a essas necessidades. A Apple e a Microsoft estão criando ambientes uniformizados, possibilitando uma transição invisível entre o smartphone e um PC ou Mac, todos conectados via serviços na nuvem. O Windows 8 está na frente dessa tendência, com o mesmo núcleo no Windows Phone 8, Windows RT para tablets e Windows 8 em PCs.

A nova revolução

A conectividade sempre presente, a nuvem e a fácil mobilidade definem esta revolução na tecnologia pessoal. Os usuários também tem um papel, adotando o consumo de mídia digital em vez de encarar os aparelhos como apenas hardware. Usuários de smartphones e tablets - em particular iPhones e iPads - abriram o caminho. Assim como nos primeiros dias da computação pessoal, antes do IBM PC, o mercado de smartphones era altamente fragmentado, com visões divergentes sobre o que os usuários queriam. Mas após o iPhone todos os smartphones são muito similares, e ter um plano de dados associado à sua linha agora é algo comum.

Depois de um início tímido, os fabricantes de PCs estão abraçando a mudança. O programa Ultrabook da Intel está incentivando a adoção pelas massas de computadores ultrafinos e ultraportáteis que tem bem menos limitações que os não tão distantes netbooks. A maioria destes projetos, incluindo os da Apple, são baseados em hardware da Intel.

Entretanto, a nova geração de Ultrabooks, incluindo até mesmo os modelos mais sofisticados como o Vizio C14-A2, tem sido lenta na adoção do conceito do “sempre conectado”, com surpreendentemente poucos modelos equipados com banda larga móvel (3G e, nos EUA, 4G). Mesmo a Apple, que liderou em outras áreas, ainda não inclui este recurso em suas famílias MacBook Pro e MacBook Air.

vizio_c14a2-360px.jpg
Vizio C14-A2

À medida em que verdadeiras redes 4G se tornarem mais populares a situação pode mudar, especialmente quando o armazenamento em nuvem se tornar praticamente uma parte do sistema operacional. A Apple já está indo nessa direção com o iCloud, e a Microsoft estará integrando o seu serviço de armazenamento SkyDrive no Windows 8.

O tablet Surface, da Microsoft, mostra como os PCs estão evoluindo em outras direções. O Surface RT, modelo baseado em um processador ARM, é “travado” para acessar apenas a loja de aplicativos da Microsoft, assim como o iPad é ligado à App Store. Mas o Surface Pro será um PC ultrafino - um tipo de Ultrabook - em pele de tablet, com um desktop completamente funcional e a capacidade de rodar a maioria dos aplicativos Windows.

Windows 8: alcançando as nuvens

O Surface e o Windows 8 representam uma mudança na forma como a Microsoft vê o PC: a nuvem, antes um acessório, agora é uma das peças centrais do sistema.

O SkyDrive é integral ao Windows 8, permitindo que aplicativos como o Microsoft Office 2013 armazenem arquivos online nativamente. O SkyDrive permite que a Microsoft extenda seu ecossistema também a tablets e smartphones, com os usuários podendo acessar facilmente seus dados no SkyDrive a partir de telefones celulares, tablets e PCs.

Além disso, com o Office 2013 e o Windows 8 a Microsoft espera massificar as interfaces multitoque. Isso não significa necessariamente telas sensíveis ao toque: touchpads maiores e melhorados, com recursos como detecção na borda, irão tornar o Windows 8 muito mais fácil de usar do que com a geração anterior de dispositivos de entrada.

O fator Apple

O imenso sucesso da Apple com o iPad, iPhone e MacBook Air incentivou os fabricantes de PCs a explorar novos designs para seu hardware. Embora a Apple ainda não tenha conseguido erodir de forma significativa a participação do Windows no mercado de desktops, nos notebooks ela vem ganhando terreno. O MacBook Air se tornou quase um sinônimo de computadores portáteis ultrafinos. O sucesso do Air com certeza inspirou o Ultrabook, e dezenas de modelos deste estão agora chegando ao mercado.

O novo MacBookPro, com sua tela retina, tem uma resolução de 2880 x 1800 pixels, ou uma densidade de 220 pixels por polegada. Os fabricantes de PCs ainda estão atrás, mas já começam a se mexer: a nova geração de Ultrabooks com telas de 13 polegadas e resolução de 1080p tem uma densidade de pixels de 160 ppi. O limite foi redefinido, e os usuários irão considerar uma tela de alta qualidade como algo essencial.

ivybridge_die-360px.jpg
Visão ampliada de um processador Intel "Ivy Bridge"

O panorama dos notebooks

O processador Ivy Bridge, da Intel, oferece alto poder de processamento com um consumo de energia muito menor do que as gerações anteriores. Embora os Ultrabooks tenham chegado ao mercado com processadores da geração anterior, Sandy Bridge, é com o Ivy Bridge que eles irão realmente cumprir a promessa de longa autonomia de bateria e novos tamanhos e formatos, a maioria mais fina, leve e eficiente que os anteriores. Durante a feira de tecnologia Computex, que aconteceu em Taiwan em Junho, os fabricantes de PCs mostraram uma enorme quantidade de protótipos - alguns radicais, outros pequenas variações no design. Por exemplo o Taichi, da ASUS, que é um notebook com uma tela destacável que se torna um tablet independente.

As empresas também está experimentando materiais exóticos para reduzir o peso. Tanto o Lenovo Thinkpad X1 Carbon quanto o Gigabyte X11 usam fibra de carbono como o principal material em seu chassis. E como mencionamos no começo desta matéria, o Toshiba U845W tem uma tela com proporção de 21:9 e resolução nativa de 1792 x 768 pixels, capaz de exibir filmes em widescreen em seu formato nativo.

lenovo_x1carbon-360px.jpg
Lenovo IdeaPad X1 Carbon: chassis em fibra de carbono

Ainda não está claro quais destas idéias irão conquistar os corações dos consumidores. O que está claro é que a era de máquinas quase idênticas e sem apelo, com telas de 15.6 polegadas em desajeitados gabinetes plásticos está chegando ao fim. E isso só pode ser uma coisa boa.

A evolução dos Ultrabooks

Originalmente os Ultrabooks tinham de atender a alguns requisitos básicos - como uma autonomia de bateria superior a cinco horas, retorno rápido da hibernação e um design “fino e com estilo” - para poder ostentar o título.

Mas com o novo processador Ivy Bridge a Intel modificou a definição de um Ultrabook. Todas as máquinas baseadas no novo chip tem que ter estes recursos:

  • Transferência rápida de arquivos via USB 3.0, Thunderbolt ou ambos.
  • Mais agilidade, resultado do uso de discos de estado sólido (SSDs) ou sistemas híbridos baseados na tecnologia Intel Smart Response (que usa pequenos SSDs como cache rápido para HDs tradicionais)
  • Segurança integrada ao hardware, incluindo proteção de identidade e tecnologia antifurto.

Também há recursos opcionais como suporte a multitoque, sensores mais sofisticados, incluidno acelerômetros, e a tecnologia WiDi para streaming de vídeo para TVs de alta-definição.

Mas este não será o capítulo final na evolução da definição de Ultrabook. A próxima geração de processadores, de codinome Haswell, trará melhorias substanciais aos gráficos em 3D, maior eficiência no consumo de energia e melhor desempenho. A Intel vê o Haswell como uma tecnologia de processador disruptiva, possibilitando uma maior variedade de designs e maior autonomia de bateria sem sacrificar o desempenho.

terça-feira, 28 de agosto de 2012

Como limpar seu computador de uma forma segura e fácil

Talvez você não repare, mas, diariamente, uma grande quantidade de poeira é depositada em seu PC. Pequenas frestas e orifícios possibilitam a entrada de sujeira no interior da máquina. Além disso, teclado, mouse, monitor e outros componentes ficam imundos com facilidade.

Para evitar problemas de funcionamento e danos à sua saúde, é necessário realizar limpezas periodicamente. Claro, usar o espanador de pó já ajuda, mas isso nem sempre é suficiente. Hoje, vamos ensinar como limpar seu computador de forma segura e fácil.

Atenção

Antes de começar, certifique-se de que o PC está devidamente desligado. Recomendamos que você nunca use água para limpar os componentes de hardware. Não é indicado usar álcool comum ou produtos derivados, pois eles podem estragar as peças.

Como limpar seu computador de uma forma segura e fácil [vídeo]

(Fonte da imagem: Baixaki/Tecmundo)

É importante realizar todo o processo com cautela e delicadeza, pois qualquer movimento brusco pode danificar as peças do computador. Além disso, indicamos que você faça a limpeza em um local arejado e que seja fácil de limpar posteriormente.

Materiais necessários

Para executar todos os procedimentos, você vai precisar de:

Como limpar seu computador de uma forma segura e fácil [vídeo]

(Fonte da imagem: Baixaki/Tecmundo)Panos sem fiapos;

Cotonetes;

Palito de dentes;

Detergente;

Água;

Água destilada;

Como limpar seu computador de uma forma segura e fácil [vídeo]

(Fonte da imagem: Baixaki/Tecmundo)Álcool isopropílico;

Aspirador de pó;

Pincel de cabo longo e cerdas macias;

Secador de cabelos com ar frio;

Folha de jornal;

Chave de fenda;

Chave philips;

Pinça;

Uma lata de ar comprimido pode ser útil.

Limpando o “rato”

Vamos começar nossa faxina pelo componente mais fácil, o mouse. Para limpá-lo, você precisa apenas umedecer um pano com água e detergente e passar o pano na superfície externa do periférico.

Como limpar seu computador de uma forma segura e fácil [vídeo]

(Fonte da imagem: Baixaki/Tecmundo)

Se você usa um mouse com bolinha, abra o compartimento inferior, remova a bolinha e, com um palito de dentes, remova a crosta de resíduos das roldanas. Por fim, use uma pinça para retirar a sujeira. Vale repetir essa limpeza com certa frequência, pois a poeira acumulada pode afetar o funcionamento do periférico.

Limpeza básica do teclado

Agora que fizemos a limpeza do mouse, é hora de dar uma geral no teclado. Primeiro, vamos fazer uma faxina básica, pois nem todos os teclados precisam ser desmontados para ficar limpos.

Desconecte o teclado do PC e leve-o até algum local em que você possa fazer sujeira. Não remova o periférico com o computador ligado, pois isso pode causar problemas;

Abra um jornal no chão para evitar que a poeira caia no piso;

Vire o teclado de ponta-cabeça e sacuda-o para remover parte da sujeira;

Se você quiser, dê leves tapinhas na parte traseira do teclado;

Agora, use a lata de ar comprimido para expelir o restante da sujeira. Se você não tiver uma, vale usar um secador de cabelos com ar frio;

Passe o bico com cerdas do aspirador de pó por cima do teclado;

Aplique um pouco de álcool isopropílico em um cotonete. Passe o cotonete nas laterais das teclas e nas frestas. Não use muita força, pois uma tecla pode sair do lugar;


Como limpar seu computador de uma forma segura e fácil [vídeo]

(Fonte da imagem: Baixaki/Tecmundo)

Umedeça levemente um pano e aplique um pouco de detergente. Passe o pano em cima das teclas para retirar a sujeira que ficou grudada. Por fim, passe um pano seco.

Limpeza avançada do teclado

Muitas vezes, a sujeira acumulada no interior do teclado pode impedir o bom funcionamento do dispositivo. Para solucionar o problema, você deverá remover as teclas. Este procedimento é arriscado, portanto, você deverá ser delicado ao realizar os passos a seguir. Caso não sinta confiança, ignore essa etapa.

Primeiro, registre a posição de cada tecla, pois você precisará colocá-las nos locais apropriados posteriormente;

Agora, usando a chave de fenda como alavanca, retire cada uma das teclas;

É preciso tomar cuidado para remover as teclas grandes, pois é fácil danificar os encaixes;

Depois de remover os botões, use o ar comprimido (ou o secador de cabelos) para expelir a sujeira;

Passe um pano úmido em toda a superfície;

Por fim, recoloque as teclas no lugar.

Tirando a sujeira dos cabos

A limpeza dos cabos externos é a menos trabalhosa, pois basta umedecer um pano em uma mistura de detergente com água, passá-lo nos cabos e depois secá-los com um pano seco.

Como limpar seu computador de uma forma segura e fácil [vídeo]

(Fonte da imagem: Baixaki/Tecmundo)

Não se esqueça de secar muito bem as partes metálicas, pois tal deslize pode gerar problemas com eletricidade. Aliás, evite passar panos úmidos em filtros de linhas e nas conexões de fonte de energia.

Limpando o monitor

Agora, é hora de limpar o monitor. Antes de iniciar, desligue o aparelho para poder enxergar as manchas e sujeiras da tela. O processo abaixo serve para telas LCD e CRT.

Usando um pano seco, remova o máximo de sujeira da tela. Se o seu equipamento é de LCD, não aplique muita força, pois você pode danificar a tela;

Caso algumas manchas não tenham sido removidas, umedeça um pano com água destilada e passe-o sobre as marcas de gordura e sujeira. Caso você tenha adquirido algum produto especial para limpeza de telas, pode utilizá-lo, desde que ele não contenha álcool;


Como limpar seu computador de uma forma segura e fácil [vídeo]

(Fonte da imagem: Baixaki/Tecmundo)

Para limpar a carcaça do monitor, use um pano umedecido com água e detergente. Não recomendamos o uso de álcool para limpar nenhuma parte do dispositivo;

Para acabar, passe um pano seco em toda a carcaça e nos cabos.

A limpeza final: o gabinete

Por fim, sobrou a parte mais difícil. A limpeza do gabinete deve ser realizada com muito cuidado, pois todos os componentes que dão vida à máquina estão dentro desta enorme caixa. Siga atentamente os passos abaixo e nem pense em usar álcool.

Primeiramente, desencaixe todos os cabos;

Use um aspirador de pó para sugar a sujeira das entradas de ar das partes traseira, frontal e laterais;

Agora, com um pano umedecido com detergente, remova as manchas do exterior. Não use um pano encharcado, pois qualquer gota de água que cair dentro do gabinete pode afetar algum componente fundamental;


Como limpar seu computador de uma forma segura e fácil [vídeo] 

(Fonte da imagem: Baixaki/Tecmundo)

Depois, passe um pano umedecido somente com água. Por fim, um pano seco para deixar o gabinete seco.

Limpando o interior

Realizar uma faxina interna no gabinete é importante, ainda mais se considerarmos que o excesso de poeira pode afetar o desempenho da máquina — tanta sujeira pode fazer a ventoinha da CPU parar e causar sérios danos ao chip.

Como limpar seu computador de uma forma segura e fácil [vídeo]

(Fonte da imagem: Baixaki/Tecmundo)

Para realizar este procedimento, recomendamos que você descarregue a energia estática do seu corpo. Basta tocar no chão para se livrar da energia excessiva. Bom, vamos à limpeza:

Remova os parafusos na parte de trás do gabinete com uma chave philips;

Retire a tampa lateral;

Mais uma vez, lembramos para descarregar a energia estática;

Agora, use um pincel para varrer toda a sujeira acumulada nos componentes. Se você souber como remontar a máquina, vale desencaixar as placas, os módulos de memória e os demais itens para limpar os slots;

Depois, use o pincel para retirar a poeira presente na ventoinha do processador;

Por fim, use um pano seco para tirar o pó dos cabos.

Fonte: Tecmundo

UEFI, a substituta da BIOS

Para o seu computador ser inicializado corretamente, é necessário saber se todo o conjunto de hardware está em bom estado de modo que não aconteça nada fatal. Para isso, existe a BIOS (Basic Input/Output System), um pequeno conjunto de instruções em um chip, diretamente responsável com o hardware e, consequentemente, com o boot. Antes de dar início ao carregamento do sistema operacional, ele verifica se processador, cooler, memória e disco rígido estão em condições ideais de funcionamento.

Chip BIOS.

Um chip de BIOS

As placas-mãe são constantemente atualizadas, isso é  impossível de ser notado. Suporte a novos componentes, como HDDs com altas capacidades, SSDs, CPUs com vários núcleos, memórias cada vez maiores e mais rápidas. Porém, a legada BIOS continua sendo praticamente a mesma coisa de 30 anos atrás, com seu espaço de endereçamento de 1 MB, 16 bits e dependência de PC-AT (nomenclatura dada na época para computadores pessoais de “tecnologia avançada”, Personal Computer – Advanced Technology) e finalmente sua sucessora já está sendo testada em diversas placas-mãe e se chama UEFI, Unified Extensible Firmware Interface.

Extensible Firmware Interface, a predecessora

A Extensible Firmware Interface (EFI) foi desenvolvida pela Intel em meados de 1990, durante o desenvolvimento do Intel-HP Itanium. Como essa linha era pensada para os altos recursos necessitados pela plataforma de servidores, a BIOS claramente não se mostrava suficiente para manter tudo em cima. Por isso, um projeto chamado de Intel Boot Initiative começou a ser desenvolvido, o qual foi renomeado posteriormente para Extensible Firmware Interface. Ele foi atualizado durante o tempo; no final de 2000 a especificação 1.02, já era usada nos primeiros servidores e workstations da Intel. Em 2002 os primeiros Itanium II da HP podiam rodar a especificação 1.10 e inicializar o Linux, Windows, BSD e HP-UX.

Atualmente o EFI é usado, e uma das empresas que estão ligadas a ele é a Apple, que começou a utilizar a EFI no início de 2006 nos Macs, quando surgiram os primeiros baseados na arquitetura Intel e os PowerPCs começaram a cair em desuso. Sistemas IA-64 (Itanium) também usam, e é por isso que existem versões específicas de sistemas operacionais para eles. O Linux permite o carregamento por EFI desde 2000 através de um adicional, e o Windows possui versões especiais, como o Windows Server 2003/2008 IA-64.

Ao acessar uma interface EFI, é notável a diferença e o avanço óbvio em relação à BIOS, uma interface mais amigável flexível, que pode ser usada com dispositivo apontador. Além disso, ela ainda permite o boot em HDs com mais de 2,2 TB e arquitetura independente de drivers e processador. Mais futuramente, em 2005, a EFI deu lugar para a…

Unified Extensible Firmware Interface, a atual

A Unified Extensible Firmware Interface (UEFI) chegou para ser a “segunda iteração” da especificação EFI. Ela é gerenciada pelo UEFI Forum, que é uma aliança entre várias fabricantes em prol da modernização do processo de boot. Entre elas, fazem parte: AMD, American Megatrends, Apple, Dell, HP, IBM, Insyde Software, Intel, Lenovo, Microsoft, e Phoenix Technologies.

A primeira especificação da UEFI veio após a EFI 1.10, que era a versão final pronta da Intel. Após isso, a empresa resolveu contribuir para a Unified EFI Forum, onde foi feita a evolução para a UEFI; porém, a EFI original continua pertencentente toda e completamente à Intel e ainda licenciada para fabricantes por ela.

A EFI, ou UEFI, veio para repor a legada BIOS em sistemas Itanium, mas também x86 e x86-64. Atualmente ela já está disponível no mercado em algumas placas mais recentes. A ASUS, por exemplo, chama a tecnologia de “ASUS UEFI BIOS”, e a MSI de “Click BIOS”. Apesar de terem o nome “BIOS”, tecnicamente não são uma BIOS, porém, eles resolveram manter essa nomenclatura pelo legado deixado pela marca e pela funcionalidade similar.

A mais recente especificação UEFI é a 2.3.1, lançada em 2011. Com o tempo, a UEFI foi ganhando novos recursos, como login através de rede, criptografia e suporte a processadores ARM.

Para esquematizar partições, em vez de usar a antiga MBR (Master Boot Record) a EFI/UEFI usa GPT (GUID Partition Table), que praticamente desaparece com todas as limitações da primeira. A MBR limita os HDs a terem no máximo quatro partições e 2 TiB (Tebibytes) de espaço, o que dá aproximadamente 2,2 TB. Já a GPT permite um disco único com tamanho de 8 ZiB (Zebibytes), aproximadamente 8,4 ZB, 9444732965 TB.

O processo de boot pela UEFI

A UEFI define um gerenciador de boot, uma definição que envolve carregar o loader do sistema operacional e seus drivers. A configuração é gerenciada por um set de informações NVRAM variáveis, incluindo variáveis de boot e locais dos loaders do sistema operacional. Esses carregadores (loaders) de sistema operacional ficam localizados em um determinado caminho que pode ser acessado pelo firmware. Esse tipo de informação pode estar localizada em sistemas de arquivos FAT32, FAT16 ou FAT12, suportados pelo firmware. Bootloaders presentes no sistema e em dispositivos removíveis bootáveis podem ser detectados normalmente pelo firmware.

Observando o processo de defasagem da BIOS, é notável o esforço usado no desenvolvimento da EFI/UEFI para resolver os problemas deixados pela antecessora nestes últimos 30 anos. O Windows 8 já está preparado para suportar UEFI e graças as tecnologias atuais presentes nela, é possível iniciar o sistema em menos de 15 segundos.

Vitória da Apple contra a Samsung vai impactar consumidores, dizem analistas

Entre as vítimas da guerra de patentes travada entre Apple e Samsung no tribunal americano, cujo veredicto saiu na sexta-feira, é possível que surjam no campo de batalha alguns consumidores atingidos, que poderão ter que pagar mais caro por produtos e ter menos opções no mercado, de acordo com especialistas.

Há também quem acredite no contrário: o consumidor sairá como maior vencedor, já que empresas de tecnologia vão passar a investir em inovação e aparelhos singulares no lugar de copiar sucessos de vendas.

Fotomontagem: Tony Avelar/Associated Press e Peter da Silva/Reuters

Kevin Johnson, advogado da Samsung (esq.), e Jason Bartlett, conselheiro da Apple (dir.), após decisão

Kevin Johnson, advogado da Samsung (esq.), e Jason Bartlett, conselheiro da Apple (dir.), após decisão

Na sexta-feira, um júri popular de uma corte federal na Califórnia decidiu que a Samsung terá que pagar US$ 1 bilhão à Apple por ter violado seis das sete patentes em disputa referentes a design e funcionamento de smartphones e tablets.

Cinco destas foram intencionais, segundo o júri, o que pode fazer com que a juíza responsável pelo caso aumente em até três vezes o valor da indenização. Nos próximos dias, a Apple afirmou que pedirá bloqueio da venda nos EUA de aparelhos da Samsung citados no julgamento. A sul-coreana ainda pode entrar com recurso.

ALTERNATIVAS
"No longo prazo, acredito que fornecedores vão olhar para o que estão levando ao mercado e vão tentar se diferenciar ou pagar, se for opção", disse Carolina Milanesi, analista da agência de pesquisas Gartner.

A busca por inovação e o cuidado redobrado para contornar patentes garantidas pela Apple podem fazer com que o mercado seja inundado de novidades num ritmo bem mais lento do que o atual.

O consumidor poderá ter menos opções nas prateleiras e talvez tenha que encarar preços mais altos em celulares e tablets, já que as fabricantes terão que pagar pelas licenças de patentes da Apple agora garantidas no tribunal.

Uma delas, por exemplo, na qual o usuário belisca a tela para dar zoom, é usada em inúmeros smartphones e tablets de várias fabricantes, que agora terão quer criar alternativas ou pagar por elas.

"Haverá uma grande taxa Apple. Celulares ficarão mais caros", disse o analista Al Hilwa, da agência IDC, ao "Wall Street Journal".

A história dos processadores Pentium Saiba como foi desenvolvido o microsprocessador da Intel que se tornou um marco na história da informática

Essa história pode até parecer “do arco da velha” para os mais jovens; principalmente para aqueles que nunca tiveram sequer contato com uma máquina de escrever. O genial equipamento criado em 1873 começou a ser definitivamente substituído pelos computadores no final do século vinte – mais precisamente nos final dos anos 80.

Essa troca começou com o surgimento da terceira geração de microprocessadores da Intel, em 1985. O 38, como ficou conhecido, foi um verdadeiro marco na história da informática; este foi o primeiro processador com capacidade de executar mais de uma aplicação ao mesmo tempo e também o primeiro de 32 bits. Mais do que isso, o “386” foi um grande passo para o desenvolvimento de processadores e deixou muitos padrões que são usados até hoje. A partir do 386, a velocidade só aumentou.

Logo em seguida, em 1989, surgiu a quarta geração de processadores, o “486”. O novo chip trazia o mesmo cérebro do “386” e mais um processador matemático integrado, o que o tornava muito mais rápido do que seus antecessores. A arquitetura do “486” também representou um grande avanço. O desempenho praticamente dobrou em relação aos “386”.

Dois anos mais tarde, em março de 1993, chegou a vez de um novo processador que todos nós que gostamos de tecnologia devemos nos lembrar. A princípio a ideia era que a quinta geração dos microprocessadores fosse batizada de “586”. Mas como números não podem ser registrados, o nome foi alterado. Há várias versões para o nome. Uma diz que a inspiração veio do nome de um dos cavalos vencedores de Craig Barrett, na época um alto executivo da Intel. Outra diz que o nome veio do grego e tem a ver com 5. Seja qual for a origem, o Pentium chegou e começou a transformar primeiros computadores, e depois o mundo.

O interessante dessa história é que o processador Intel Pentium existe até hoje e não parou de evoluir todo esse tempo. Uma informação que talvez passe batida é que o processador Intel Pentium de hoje em dia tem a mesma tecnologia de 32 nanômetros dos processadores mais sofisticados. As máquinas turbinadas pelo Intel Pentium atendem bastante bem funções do dia-a-dia, como assistir a seus vídeos favoritos em HD, gerenciar músicas e fotos, acessar a internet e conectar-se com amigos pelas redes socias. São um ótima opção se você está de olho numa boa performance mas não quer gastar muito.

Na próxima semana, vocês verão como os processadores atingiram um novo patamar de performance quando ganharam mais de um núcleo de processamento. Quer saber que diferença isso fez na história da computação? Fique ligado e confira.

Na próxima semana, como os processadores atingiram um novo patamar de performance quando ganharam mais de um núcleo de processamento. Quer saber que diferença isso fez na história da computação? Fique ligado e confira.

Instalando e usando o Hyper-V no Windows 8

Crie e execute máquinas virtuais sem precisar de programas de terceiros

Uma das principais novidades do Windows 8 em relação ao Windows 7 é o Hyper-V, seu cliente de virtualização disponível para as versões 32 e 64 bits do sistema operacional.

Antes disponível apenas para o Windows Server 2008/2008 R2, ele permite que o usuário crie e execute máquinas virtuais no novo sistema operacional da Microsoft sem que seja necessário utilizar aplicativos de terceiros como o VMware e o VirtualBox.
IMPORTANTE: Para usar o Hyper-V no Windows 8, o computador deve ter um processador com suporte paravirtualização assistida por hardware e para SLAT (Second Level Address Translation). A maioria dos processadores disponíveis atualmente inclui suporte para ambos.
Para usar o Hyper-V na versão final do Windows 8, siga os passos abaixo:
Ativando o Hyper-V
- A partir do desktop clássico, clique com o botão direito do mouse no canto inferior esquerdo da tela e selecioneProgramas e Recursos:

- Em seguida clique em Ativar ou desativar recursos do Windows:

- Na janela que aparece, selecione o Hyper-V e clique em OK:

- Aguarde até que os componentes necessários sejam instalados e reinicie o computador:

Executando o Hyper-V
- Depois que o sistema for reinicializado, você verá o Gerenciador do Hyper-V na tela Iniciar da versão final do Windows 8. Clique nele para executá-lo:


Clique para ampliar


- Com o Gerenciador do Hyper-V aberto, selecione seu computador no painel do lado esquerdo e no painel do lado direito clique em Novo > Máquina Virtual para começar a criar uma nova máquina virtual:

- Na tela seguinte, defina um nome para sua máquina virtual e o local onde ela será salva. No exemplo eu usei o nome Fabio-VMTESTE e o local padrão definido pelo Windows 8:

- O próximo passo é definir a quantidade de memória RAM da máquina virtual. No exemplo eu usei 2 GB, mas você selecionar a opção para que o Windows aloque mais memória RAM para a máquina virtual de forma dinâmica:

- Não faça nada na parte de configuração de rede. Vamos deixar esta etapa para o final:

- Aqui nós definimos o nome do disco rígido virtual, seu tamanho e o local onde ele será salvo. Você também tem a opção de usar um disco rígido virtual existente ou pode criá-lo depois:

- Nesta tela, opte por instalar o sistema operacional mais tarde, já que ainda precisamos configurar o acesso à rede:

- E pronto, a máquina virtual foi criada com sucesso:

- Com a máquina virtual criada, o próximo passo é habilitar o acesso à rede e à internet. Para isso selecione sua máquina virtual e clique em Gerenciador de Comutador Virtual no painel do lado direito:

- Na tela seguinte, selecione Externo na lista e clique no botão Criar Comutador Virtual:

- Nesta tela, defina um nome para seu comutador virtual e clique em Aplicar. Neste exemplo usei o nome Fabio-SwitchTeste:

- Com o comutador virtual criado, clique em OK.
Instalando o sistema operacional
Agora que o Hyper-V está ativado e instalado no Windows 8, vamos instalar o sistema operacional.
- Com o Gerenciador do Hyper-V aberto e sua máquina virtual selecionada, clique em Conectar no painel do lado direito:

- Com a máquina virtual aberta, insira a mídia de instalação do sistema operacional ou monte uma imagem ISO (que foi o que eu fiz neste exemplo com a ISO da versão de avaliação do Windows 8 Enterprise) e selecione a opção Capturar X: em Unidade de DVD no menu Mídia, onde X é o drive onde está a mídia de instalação:

Com a mídia de instalação devidamente "capturada" pelo Hyper-V, clique no botão Iniciar na barra de ferramentas para inicializar a máquina virtual e iniciar o processo de instalação do sistema operacional:

- Siga os passos para a instalação do sistema operacional como se você estivesse instalando em seu PC:

- Quando a instalação do sistema operacional for concluída, clique no menu Mídia > Unidade de DVD e

selecioneLiberar X: para remover a mídia de instalação. X é o drive onde está a mídia de instalação:

- Clique no menu Ação e selecione a opção Inserir Disco de Instalação dos Serviços de Integração para instalar os drivers e outros componentes para sua máquina virtual:

- Agora vamos habilitar o acesso à rede e internet. No Gerenciador do Hyper-V, clique em Configurações, depois em Adaptador de Rede. Selecione o comutador virtual criado anteriormente por você e clique emAplicar.

Agora você pode acessar a internet sem problemas. :)
Com o sistema operacional instalado e configurado, agora você pode executar sua máquina virtual a partir do Gerenciador do Hyper-V sempre que quiser.


Clique para ampliar


NOTA: Para quem está curioso, o Hyper-V está sendo executado na versão final do Windows 8 Enterprise instalada em uma máquina virtual do VMware Workstation v9.0. Sim, uma máquina virtual dentro de outra máquina virtual. :)


Clique para ampliar