sexta-feira, 8 de junho de 2012

PMEs adotam serviços de nuvem para proteger dados em casos de incidentes

 

Com orçamento apertado e sem departamento de TI, pequenas e médias empresas (PMEs) estão recorrendo mais o modelo de cloud computing para melhorar a gestão de seus processos e e também recuperar informações em caso de incidente. Uma pequisa sobre "Preparo para Casos de Desastres nas PMEs", realizada pela Symantec com 2.053 organizações em 30 países, revelou 34% adotam nuvens públicas.

A pesquisa engloba 250 empresas da América Latina localizadas na Argentina, Brasil Colômbia e México. Participaram da enquete 75 PMEs brasileiras. Entre essas, 59% contratam serviços de nuvem.

O estudo mostrou também que as PMEs estão interessadas em outras tecnologias de ponta como virtualização e mobilidade para melhorar o seu preparo para situações de desastres.

Entre as PMEs entrevistas, um terço delas (36%) já está explorando dispositivos móveis para uso profissional e 34% estão implementando ou já se beneficiando da virtualização de servidores. No Brasil, 47% estão discutindo adoção dessa tecnologia.

O estudo apontou que 42% das empresas da América Latina e 56% das brasileiras informaram que o plano contra desastres influenciou na decisão de adquirir essas tecnologias.

A pesquisa dá algumas dicas para melhor preparo das PMEs em planos de desastres. Veja a seguir:

1- Começe a planejar agora. Desenvolva um plano de preparo para casos de desastres hoje. Avalie como tecnologias estratégicas, tais como mobilidade, virtualização e computação em nuvem, podem ajudar nesses esforços.

2-Implemente tecnologias estratégicas. Adote uma nuvem integrada para armazenamento remoto e conversão virtual automatizada de modo que tenha máquinas em espera e listas para serem utilizadas em caso de falhas.

3- Proteja totalmente suas informações. Use soluções abrangentes de segurança e backup adequadas. Também é possível optar pelo backup na nuvem.

4- Revise e teste seu preparo para casos de desastres. Isso deve ser realizado pelo menos uma vez a cada três meses para garantir que as atuais demandas de segurança e backup estão sendo atendidas.

quarta-feira, 6 de junho de 2012

10 novidades do Windows 8

 

Mais que um simples upgrade, o Windows 8 muda a maneira de interagir com o computador. Veja as principais novidades

São Paulo — A Microsoft liberou, nesta semana, a última versão preliminar do Windows 8 antes do lançamento final, previsto para outubro. O novo sistema operacional traz a reforma mais radical na maneira de interagir com os PCs desde a chegada do Windows 95, 17 anos atrás.

O novo sistema usa uma interface gráfica inteiramente nova, que privilegia as telas sensíveis ao toque. Ao criá-lo, a Microsoft se arrisca deixando de lado coisas que são familiares aos usuários, como o menu Iniciar, e substituindo-as por padrões novos e de sucesso ainda incerto. Mas talvez ela não tenha escolha, já que os tablets começam a roubar espaço dos PCs. E o Windows 7 já é visto como antiquado por muita gente.

Além disso, a Microsoft está praticamente ausente do mercado de tablets, no qual ela foi pioneira uma década atrás. Para tentar conquistar um espaço nesse mercado dominado pelo iPad, o novo Windows também tem uma edição específica para tablets, o Windows RT. Veja dez das novidades mais importantes do novo sistema operacional.

1 Edições distintas

O Windows 8 será específico para PCs de mesa e portáteis. São computadores que usam os processadores conhecidos como x86/x64, produzidos pela Intel e pela AMD. Outra edição do sistema, chamada Windows RT, vai rodar em tablets com processador do tipo ARM. São chips fabricados por empresas como Qualcomm, Samsung e Texas Instruments e usados em tablets e smartphones. Aplicativos criados para o Windows 7 devem rodar no Windows 8, mas não no Windows RT. 

2 Adeus, menu Iniciar

Na nova interface gráfica Metro, do Windows 8, o menu Iniciar, que está no Windows desde 1995, deixa de existir. No lugar dele, quando o usuário clica no canto inferior direito da tela, surge uma página inicial quadriculada com os aplicativos dispostos em retângulos. Seu aspecto é similar ao do Windows Phone.

3 Os retângulos são vivos

Os retângulos que representam os apps na tela do Wndows 8 não são ícones passivos. Eles também podem exibir informações. Um app de e-mail pode mostrar quantas mensagens não lidas existem na caixa postal, por exemplo.

4 Loja de apps

Seguindo o exemplo da Apple e de outras empresas, a Microsoft só vai permitir a instalação de apps na nova interface Metro por meio da sua loja online. Esses apps rodam na tela inteira do computador, como os dos tablets e smartphones. Mas há também um modo (chamado, em inglês, de “snap”) em que a tela é dividida verticalmente, exibindo dois apps lado a lado.

5 Múltiplos toques no touch pad

Laptops com Windows 8 terão um touch pad capaz de reconhecer múltiplos toques simultâneos. Esse dispositivo será usado para controlar o zoom e para abrir e fechar o menu lateral do Windows 8, entre outras coisas. Alguns fabricantes, como a Asus, adicionaram esse recurso a seus laptops com Windows 7. Mas agora ele passará a fazer parte do sistema.

6 Uma conta para todos

O usuário poderá usar uma conta criada no site da Microsoft para se autenticar no Windows ou vice-versa. O mesmo nome de usuário e a mesma senha poderão ser empregados em vários dispositivos com Windows 8, Windows RT e Windows Phone, e também nos serviços online da empresa, como o SkyDrive. Isso deve facilitar a sincronização de dados entre os dispositivos e os serviços online.

7 Identificação por gestos

O Windows 8 traz duas novas maneiras de o usuário se identificar no sistema. A primeira é a senha fotográfica. Quando ela é usada, o sistema exibe uma foto e a pessoa realiza gestos deslizando o dedo sobre a imagem (num tablet) ou deslocando o cursor do mouse (num PC). O outro método é digitar uma senha numérica de quatro dígitos (PIN) como se faz em muitos smartphones.

8 Volta ao passado

Opcionalmente, será possível trazer de volta a interface tradicional do Windows. Isso será necessário para rodar aplicativos que não são compatíveis com a nova interface Metro.

9 Plug-ins são banidos do IE

O Windows 8 vem com o Internet Explorer 10 em duas versões distintas: uma para a nova interface gráfica Metro e outra para a tradicional. A versão Metro não vai aceitar extensões, que continuarão sendo bem vindas na versão tradicional.

10 Upgrade por 29 reais

A data de lançamento do Windows 8 não foi divulgada, mas espera-se que os PCs com o novo sistema comecem a chegar às lojas em outubro. Quem comprar um computador com Windows 7 nos próximos meses vai poder, depois do lançamento, atualizá-lo com o Windows 8 pagando 29 reais.

Fonte: Exame Info

domingo, 3 de junho de 2012

Internet avança, mas ainda atinge minoria

 

AFP - Agence France-Presse

Brasília – Seja para comprar, se comunicar e se informar, ou mesmo para lazer, é difícil imaginar o mundo hoje sem a rede mundial de computadores. Contudo, o acesso à internet ainda não está disponível para grande parte dos brasileiros. A “Pesquisa sobre o uso das tecnologias da informação e da comunicação no Brasil” (TIC – Domicílios), divulgada ontem pelo Comitê Gestor da Internet no Brasil (CGI.br), mostra que, embora o acesso ao mundo digital venha se democratizando no país, a maioria das casas continua desconectada.
De forma geral, os dados apresentam melhora significativa. O índice de domicílios com computador passou de 35% para 45% entre 2010 e 2011, enquanto as casas com internet passaram de 27% para 38%. No entanto, o crescimento ainda é desigual: brasileiros do Norte e do Nordeste e moradores da zona rural ainda estão na lanterna da inclusão digital. Culpa da falta de infraestrutura e dos altos preços, que tornam a conexão lenta e cara.


Assim, o levantamento aponta que o acesso à tecnologia, em especial à web, reflete as desigualdades e os problemas sociais do Brasil. “Na classe A, vivemos uma realidade em que a internet é praticamente universalizada. Enquanto isso, nas classes D e E, é quase inexistente”, aponta Marcelo Barbosa, gerente de pesquisas do Centro de Estudos sobre as Tecnologias da Informação e da Comunicação (Cetic.br), entidade responsável pela pesquisa divulgada pelo CGI.br. Enquanto no grupo mais rico o acesso está presente em 96% dos domicílios, entre os mais pobres esse percentual despenca para 5%. A velocidade da conexão de ricos e pobres também é profundamente desigual: 25% dos usuários da classe A mantêm uma conexão de mais de 8Mbps, velocidade disponível para apenas 3% dos cidadãos das classes D e E.


O estudo revela ainda que, aos poucos, os tradicionais computadores de mesa estão sendo deixados de lado, dando lugar às máquinas portáteis. Enquanto 5% dos lares ganharam desktops em 2011, em 10% a escolha foi pelos notebooks. “Outro crescimento marcante foi o das conexões 3G, que nos últimos três anos têm se mostrado ferramenta importante para levar a internet a mais pessoas”, comenta Barbosa. Mais prático e simples, o modelo no qual um modem móvel é ligado ao computador ultrapassou, pela primeira vez, as conexões discadas, mais simples, com tráfego lento. O 3G pulou de 10% em 2010 para 18% no último ano, ao passo que as conexões discadas caíram de 13% para os 10% de 2011. “Embora lento, há também aumento das conexões mais rápidas, que usam mais de 5Mbps”, completa.

Problema social

O pesquisador da Universidade de Brasília (UnB) Marcello Barra explica que as distorções do mundo off-line são as mesmas do ambiente virtual. “O grande problema da internet no Brasil é o preço. Os computadores custam muito e a conexão está entre as mais caras do mundo. É considerada classe média uma família cuja renda per capta varia de R$ 291 a R$ 1.019, o que torna inviável para grande parte das pessoas (adquirir um computador com acesso à rede)”, afirma o especialista em sociologia da internet.

segunda-feira, 28 de maio de 2012

Continuar com XP é má ideia para empresas, diz IDC

 

Qual é o melhor sistema operacional para os negócios? Se você perguntasse à Microsoft, provavelmente esperaria que eles pregassem as virtudes do Windows 8, que chega no fim do ano para PCs e tablets.

Mas para as empresas que ainda rodam o antiquado Windows XP, o Windows 7 é a atualização lógica, pelo menos de acordo com comunicado institucional escrito pela empresa de análise IDC e patrocinado pela Microsoft.

O documento, chamado “Atenuando riscos: por que continuar com o Windows XP é uma má idéia”, é o mais recente passo da cruzada contínua da Microsoft em enfiar uma estaca no coração eternamente batendo do XP.

Então, o que o relato diz? Basicamente o que você esperaria. "A IDC constatou que a base de TI e os custos para o usuário final que continuam usando o Windows XP estão agora cerca de cinco vezes maior do que o custo para a execução do Windows 7", escreveu Erwin Visser em 24 de maio em um post no blog do Windows.

Sim, mas como o Windows 8, que é radicalmente redesenhado para a interface Metro, se ajusta ao ciclo de atualização dos negócios?

Visser escreve que "migrar agora para o Windows 7 irá fazer com que as empresas abracem bem o Windows 8 no futuro, já que o IDC descobriu que tudo indica neste momento que a migração do Windows 7 para o 8 será transparente para os aplicativos e não impactante para o hardware existente”.

Outro possível cenário: As empresas ignorarem completamente o Windows 8 e esperarem o Windows 9 por alguns anos, principalmente se os benefícios da mudança do 7 para o 8 não valerem a pena pela despesa e pelo trabalho de atualização.

O Windows XP está lentamente sendo substituído pelo Windows 7, mas não rapidamente como a Microsoft gostaria. De acordo com a empresa de análise Net Applications, o Windows XP possuía percentual de uso de 46% de todos os sistemas operacionais rodando em desktops em abril deste ano, enquanto o Windows 7 possuía pouco menos de 39%.

A Microsoft irá acabar com seu apoio ao XP em abril de 2014, prazo em que a empresa espera fazer com que os consumidores finalmente larguem o antigo sistema operacional. Por enquanto, o Windows 7 é a melhor escolha, e pode muito bem continuar sendo mesmo depois do lançamento do Windows 8.

sexta-feira, 25 de maio de 2012

PUC do Rio lança ferramenta livre para conteúdos de TV digital

 

A NCL Composer pode ser baixada gratuitamente e permite desenvolver aplicações para emissoras de TV sem exigir conhecimento especializado em computação.

O Laboratório TeleMídia do Departamento de Informática da Pontifícia Universidade Católica do Rio de Janeiro publicou este mês uma nova ferramenta para facilitar a criação de conteúdos interativos para a TV digital. A ferramenta de autoria NCL Composer, que pode ser baixada gratuitamente (http://www.ncl.org.br/pt-br/autoria ), permite desenvolver aplicações para emissoras de TV sem exigir conhecimento especializado em computação.

A linguagem NCL é o padrão ABNT e ITU-T para a criação de conteúdos declarativos interativos para o Ginga, nome do middleware aberto do Sistema Nipo-Brasileiro de TV Digital (ISDB-TB). Além de ter seu interpretador em código aberto, o uso de NCL não implica o pagamento de qualquer royalty, seja pelos produtores de aplicações (desenvolvedores), pelas emissoras de TV, ou pelos desenvolvedores de máquinas de interpretação da linguagem.

Embora a linguagem NCL já esteja disponível como padrão desde 2007, agora os desenvolvedores podem contar com uma ferramenta que facilita a criação dos conteúdos interativos – que podem ser diretamente relacionados ao programa em exibição, como uma novela ou uma partida de futebol, ou podem ser independentes dos programas, como um portal de notícias ou uma plataforma de serviços interativos através do televisor.

'A partir da disponibilização dessa ferramenta facilitadora, espera-se um aumento significativo na quantidade de aplicações criadas pelos produtores de aplicações DTV e uma maior complexidade dessas aplicações', afirma Luiz Fernando Gomes Soares, coordenador do Laboratório TeleMídia do Departamento de Informática da PUC-Rio e membro do Fórum do Sistema Brasileiro de TV Digital (Fórum SBTVD).

Ainda este mês, foi lançada a segunda edição do livro “Programando em NCL”, que agora pode ser obtida gratuitamente na forma eletrônica (www.ncl.org.br/pt-br/livrosecapitulosdelivros). Além disso, acaba de ser lançado o “Online NCL Handbook”, um Guia de referência Rápida que pode ser consultado a partir do site oficial da linguagem NCL (www.ncl.org.br/pt-br/handbooks). (Do Forum SBTD)

sexta-feira, 27 de abril de 2012

terça-feira, 14 de fevereiro de 2012

Antena Wi-Fi em spray pode ser usada em qualquer superfície

A dificuldade de encontrar um sinal Wi-Fi, ou uma fonte de recepção/transmissão de sinais para dispositivos sem fio pode estar chegando ao fim, com a solução da empresa Chamatech: um spray que pode pintar antenas de transmissão de dados em qualquer tipo de superfície ou objeto.

Spray-on-AntennaAntena spray Wi-Fi pode ser usada em qualquer superfície (Foto: Divulgação)

O conceito foi apresentado durante o evento “Solve for X”, um fórum patrocinado pelo Google, que tem como objetivo encorajar e ampliar iniciativas que visam encontrar soluções para grandes problemas do planeta. O fator “X” proposto no evento é resultado da somatória de um grande problema, uma solução radical e uma tecnologia inovadora.

A ideia do spray da Chamatech é simples, inovadora, e bem funcional. Através de um spray que libera um material especial, toda e qualquer superfície pode se transformar em uma “antena Wi-Fi virtual”, que é capaz de transmitir e receber sinais de de dados, além de melhorar a recepção de outros dispositivos presentes no ambiente.

Na prática, com o spray, qualquer parede, mesa, cadeira ou objeto pode se transformar em uma antena Wi-Fi. Além de ampliar a capacidade de transmissão do sinal sem fio em uma residência, é uma forma barata de oferecer essa conectividade para locais de baixa renda. Com um produto que custa bem menos do que um roteador sem fio, residências e estabelecimentos comerciais e de ensino podem, por exemplo, reforçar a potência do sinal WiMax de uma cidade, ou até mesmo do roteador doméstico.

Outra vantagem prometida pelo kit desenvolvido pela Chamatech é que o usuário poderá utilizar a antena em spray para ampliar a capacidade de recepção de sinais sem fio de smartphones, tablets e computadores. E a melhor parte: tudo isso, com um menor consumo de bateria desses equipamentos, e com um alcance maior do sinal.

Para se ter uma ideia da eficiência do projeto, eles transformaram uma árvore comum em uma antena, que é capaz de transmitir o sinal VHF a uma distância superior a 22 km. Ou seja, o dobro do que uma antena comum é capaz de transmitir. Sobretudo, quando utilizado em smartphones, o spray é capaz de aumentar o nível de sinal em, pelo menos, 10%.

Governos de diversos países já demonstraram interesse na antena em spray, para utilização em seus departamentos de defesa. Abaixo, vídeo que explica o projeto.

Fonte: TecTudo

segunda-feira, 30 de janeiro de 2012

Entenda o projeto de lei SOPA. CORRA QUE A POLICIA VEM AI.


Vídeo com informações detalhadas:

http://youtu.be/K3ORTCseHD8



Gigantes do webmail se unem para acabar com golpes de phishing

Algumas das maiores empresas mundiais de Internet e de finanças desenvolveram uma nova abordagem para combater o spam, com a esperança de reduzir as trapaças online e via e-mail. Facebook, Google e Microsoft se aliaram aos grupos financeiros Bank of America, Fidelity Investments e à divisão PayPal do eBay a fim de criar padrões setoriais que impeçam criminosos de enviar mensagens de spam que parecem ter por origem endereços de e-mail de empresas.

Google

Trapaceiros muitas vezes assumem a identidade de bancos e outras empresas de confiança em seus esforços para persuadir destinatários de e-mail a revelar números de cartões de crédito, informações sobre contas bancárias e outros dados pessoais, ou clicar em links que infectariam seus computadores com software nocivo. A nova abordagem prevê que os serviços de e-mail e empresas ataquem os praticantes de spam por meio da coordenação do uso de duas tecnologias existentes de autenticação de e-mail, conhecidas pelas siglas SPF e DKIM, que ainda não foram adotadas em larga escala.

O PayPal é uma das empresas que já utilizam as tecnologias SPF (Sender Policy Framework) e DKIM (DomainKeys Identified Mail) para combater trapaças via e-mail. Porém, elas funcionam apenas por meio de parcerias com o Yahoo e Google, disse Brett McDowell, gerente de segurança do PayPal e presidente do grupo de trabalho que desenvolveu o novo padrão.

O grupo é conhecido como DMARC.org, ou Domain-based Message Authentication, Reporting and Conformance. Se o Yahoo ou o Google recebem um e-mail que alega o PayPal como origem mas não conta com a devida autenticação via SPF ou DKIM, a mensagem não é entregue. Mas, caso a mensagem tenha sido encaminhada a outros serviços de e-mail, pode ser aceita.

"O que precisamos é de um padrão para toda a Internet que permita esse nível de proteção em larga escala, sem necessidade de quaisquer discussões ou acordos de parceria", disse McDowell. "Essa é a proposta de trabalho da DMARC", resumiu.

Outras empresas envolvidas no projeto são American Greetings, LinkedIn e Yahoo, além de Agari, Cloudmark, eCert, Return Path e Trusted Domain Project. Michael Versace, analista de segurança da IDC, disse que a abordagem recomendada pelo grupo parece efetiva e de baixo custo. Mas ponderou que o setor precisa continuar desenvolvendo tecnologias de combate a spam, prevendo que os cibercriminosos desenvolvam formas de contornar as proteções da DMARC.

terça-feira, 24 de janeiro de 2012

O sinistro efeito Palo Alto e as ditaduras

 

Será que o Google enfim amadureceu? O cuidado com que a empresa vem tratando a tecnologia de reconhecimento facial parece confirmar essa tese. Basta compará-lo ao Facebook que, tendo apresentado sua tecnologia de reconhecimento facial em junho, se viu apanhado em uma onda mundial de rejeição às suas propostas devido a preocupações com privacidade. No entanto, o Google foi mais afortunado: algumas semanas atrás, a companhia revelou tecnologia para identificar amigos em fotos postadas na sua rede social Google + --e quase ninguém reparou.

As reações diferentes são fáceis de explicar: o Facebook instalou esse recurso para todos os usuários sem pedir sua permissão, enquanto o Google tornou sua ferramenta opcional. O Facebook agora talvez esteja adotando essa abordagem mais polida: o recente acordo entre a empresa e a Comissão Federal do Comércio norte-americana estipula que todas as futuras mudanças nos controles de privacidade existentes requererão autorização dos usuários.

A web parece estar abandonando a mentalidade da opção compulsória, característica dos brutamontes mandões --ou seja, "sabemos que vocês vão adorar esse recurso, e por isso ele será habilitado automaticamente-- em troca da mentalidade de adesão voluntária que caracteriza os diplomatas mais habilidosos --"ei, veja só como é bacana esse novo recurso-- mas só se você estiver interessado". Como demonstra a adesão do Facebook ao "compartilhamento sem fricção", uma coisa é nos forçar a compartilhar aquilo que estamos ouvindo alterando sem nossa permissão os controles de privacidade em nossas páginas; já convencer os usuários de que essa é a coisa certa --e bacana-- a fazer é questão bem diferente. A primeira atitude é uma ofensa. A segunda, uma causa de celebração.

E no entanto, o triunfo da adesão voluntária não é bem o que parece. Embora seja certamente menos coerciva, a adesão voluntária ainda faz com que a tecnologia subjacente --no caso, a de reconhecimento facial-- pareça normal e aceitável. Mas as companhias de tecnologia não reconhecem o fato. "A decisão cabe totalmente aos usuários. O que importa é dar mais controle aos usuários. Não os estamos forçando a nada --as pessoas podem optar por ficar de fora". Essa retórica morna de "dar poder ao usuário" vem sendo a base do evangelho do Vale do Silício há décadas. Tem por base uma crença ingênua em que tecnologias são apenas ferramentas e que seu impacto é instrumental. Assim, se os usuários desejam usar a ferramenta X para executar a tarefa Y, a única coisa que precisa ser debatida é a desejabilidade da tarefa Y. Que a adoção ampla da ferramenta X possa deflagrar um inesperado efeito Z é algo que jamais incomoda aos instrumentalistas, ou se o faz, eles simplesmente descartam o fator como algo de incalculável.

No entanto, esse tipo de raciocínio desconsidera o fato de que as tecnologias, além de servirem a suas funções imediatas, também causam efeitos ecológicos --na verdade, transformam ambientes, ideologias, usuários, relações de poder e outras tecnologias. Assim, embora carros possam ser uma maneira de chegar do Ponto A ao Ponto B, ninguém deveria se concentrar apenas nesse aspecto e desconsiderar o que a cultura do automóvel mais ampla pode estar causando em termos de qualidade e até mesmo modos de vida nas cidades, índices de poluição ou estatísticas de mortalidade. O foco nos usos imediatos de um artefato --quer seja de adesão compulsória ou voluntária- parece ser uma má maneira de resolver o "problema do carro".

Da mesma forma, presumir que uma dada tecnologia não é problemática porque seus usuários podem desativá-la parece pouco sensato. Por que deveríamos descartar a possibilidade de que, assim que número suficiente de pessoas opte por usá-la, a adoção coletiva dessa tecnologia possa transformar dramaticamente o ambiente social, fazendo da opção de não usá-la algo pouco desejável, ou até impossível? Considere os espaços públicos na Califórnia: assim que número suficiente de californianos optaram por usar o carro, algo mudou --tanto em termos de infraestrutura pública quanto de normas- e isso fez da Califórnia um ambiente nada propício a viver sem carro. O carro continua a nos levar do Ponto A ao Ponto B, mas será que nossa qualidade de vida não seria muito melhor se tivéssemos tentado antecipar seus efeitos colaterais e desenvolver uma visão mais multifacetada da tecnologia automobilística?

Agora, voltando ao tema das tecnologias automatizadas de reconhecimento facial, eis o que sabemos: é fácil usá-las para fins abusivos. Um serviço de busca que identifique nomes de pessoas com base em suas fotos seria muito popular junto aos ditadores, sempre ávidos por reprimir os protestos populares. Também sabemos que a tecnologia de reconhecimento facial já conquistou espaço em muitas áreas. É uma maneira popular de proteger celulares e laptops e evitar uso não autorizado. É usada em muitos consoles de videogame para criar uma experiência de jogo mais personalizada. Também é utilizada para identificar --em tempo real!-- o número de frequentadores de cada sexo em um bar. E a lista é muito mais longa.

Usos aparentente inócuos como esses estimularam o surgimento de uma nova geração de empresas que buscam usos novos para essa tecnologia --nem todos inócuos, e muitos dos quais antevistos por seus críticos. Quando o público geral acordar, a tecnologia terá, é claro, se incorporado de tal forma à nossa cultura que será tarde demais para fazer alguma coisa.
Em certo sentido, estamos lidando com um processo mais sinistro que a noção popular de um "efeito borboleta" --a ideia de que uma borboleta batendo as asas no Brasil pode deflagrar um tornado no Texas. Talvez o melhor nome seja "efeito Palo Alto": um usuário despreocupado em Palo Alto que decida optar pelo uso da tecnologia de reconhecimento facial do Google termina fortalecendo um ditador em Damasco. Por que "sinistro"? Porque o usuário de Palo Alto, ao contrário da borboleta, pode antecipar o que virá --mas prefere não fazê-lo.

O que se pode fazer? Bem, podemos impor essa carga ética aos usuários de Internet e sensibilizá-los quanto às consequências posteriores (ainda que indiretas) de suas escolhas. Existem muitos precedentes quanto a isso. As crescentes preocupações quanto à desigualdade econômica, mudança do clima e mão-de-obra infantil resultaram no movimento de "consumo ético", que tenta levar o consumidor a considerar as ramificações éticas de seu comportamento no mercado.

Da mesma forma, por que não pensar em aplicar conceitos semelhantes ao nosso envolvimento com a Internet? O que seria necessário para uma "navegação ética" ou "rede social ética"? Jamais usar sites que empreguem técnicas de reconhecimento facial? Recusar fazer negócios com empresas de Internet que cooperem com a Agência Nacional de Segurança (NSA), [a organização que cuida da espionagem eletrônica norte-americana]? São escolhas que teremos de fazer se não desejamos que a Internet seja uma área isenta de ética. Afinal, o uso irrefletido da tecnologia, assim como o consumo irrefletido, não cria bons cidadãos.

Mas as companhias de Internet também precisam fazer sua parte. É claro que o Google e o Facebook são diferentes das grandes empresas rapaces que exploram trabalhadores rurais e crianças. Nenhuma delas está criando ferramentas de vigilância que poderiam ser usadas por ditadores. O que elas fazem, porém, é ajudar a criar uma infraestrutura técnica e ideológica para que essa cultura surja de maneira aparentemente natural. Isso não oferece argumentos fortes em favor da regulamentação --mas abre as portas a ativismo cidadão, boicotes e, se tudo mais falhar, desobediência civil.

As companhias de Internet sabem perfeitamente que têm responsabilidades. No começo do ano, Eric Schmidt, presidente do conselho do Google, classificou a tecnologia de reconhecimento facial como "sinistra" e expressou preocupação quanto a ela. Mas sua companhia acaba de endossar essa tecnologia --ainda que com a cláusula de adesão voluntária. O Google imagina que isso o proteja de acusações de comportamento antiético; afinal, a decisão cabe ao usuário. Mas será que nos deixaríamos persuadir se as companhias petroleiras alegassem que, se você se preocupa com a mudança do clima, não deveria dirigir um Humvee? Talvez não. É por fingirem não saber como esse triste filme acaba que as companhias de tecnologia cometem seu maior deslize ético.

 

Evgeny Morozov é pesquisador-visitante da Universidade Stanford e analista da New America Foundation. É autor de "The Net Delusion: The Dark Side of Internet Freedom" (a ilusão da rede: o lado sombrio da liberdade na internet). Tem artigos publicados em jornais e revistas como "The New York Times", "The Wall Street Journal", " Financial Times" e "The Economist". Lançará em 2012 o livro "Silicon Democracy" (a democracia do silício). Escreve às segundas-feiras, a cada quatro semanas.

sexta-feira, 13 de janeiro de 2012

O Sonho da Inteligencia Artificial

robo

Cérebro de siri

Em 1984, o cineasta James Cameron imaginou um mundo no qual computadores adquiriam inteligência artificial, passando a destruir sistematicamente a humanidade.

O sistema Skynet, de "O Exterminador do Futuro", iria destruir o mundo em 2011.

Sobrevivemos sem nenhum cataclisma a 2011 e o mais próximo que chegamos dos computadores com inteligência artificial foi com o Siri, da Apple.

O Siri não se promove como sendo inteligente, embora prometa ouvir e aprender e, tomara, resolva não nos destruir.

Parece que em 2012 um computador irá passar pelo Teste de Turing, o exame que detecta sistemas inteligentes, deixando-nos mais próximos da inteligência artificial plena.

Ironicamente, a maioria das pessoas não irá se importar com isso.

Máquinas que cuidam

Impressiona a forma como o debate em torno dos objetivos do "computador-humano" se descolou do Teste de Turing e da noção de que uma máquina pareça humana ao estimular o pensamento e a interpretação.

Por ora, queremos mais. Queremos máquinas que cuidem das pessoas e não apenas que pensem como nós. Máquinas que cuidem de nossos interesses.

Há sinais de que tais máquinas já estão no horizonte, o que é bom.

Os equipamentos digitais que nos rodeiam ainda são muito inseguros e requerem garantias constantes. Os atuais sistemas ainda dependem de muita coisa: energia, conectividade, senhas, conteúdos, etc.

Às vezes penso que se nossos equipamentos fossem pessoas, seriam de difícil manutenção. Nos perguntaríamos se não valeria a pena romper com eles.

O problema se torna mais agudo se continuarmos a adquirir mais aparelhos no ritmo atual - e nós continuaremos. Se há um limite para quantos dispositivos e serviços queremos em nossas vidas, não parece que já o tenhamos descoberto.

Máquinas conscientes?

Acho, no entanto, que em 2012 começaremos a ver sinais de mudança em nossa relação com esses equipamentos.

Não falo apenas de novas formas de interface e interação. Há menos sobre reconhecimento de voz e gesto e mais sobre máquinas que são contextualmente conscientes.

E há muita tecnologia séria no trabalho para fazer com que isso aconteça - câmeras que sabem como fazer você aparecer no seu melhor estado, serviços inteligentes que sabem suas preferências e fazem as melhores escolhas para lhe agradar e surpreender.

Creio que estamos vendo nossa interação com os serviços digitais amadurecendo para algo mais próximo a uma relação e menos a algo de trabalho árduo.

Mais do mesmo

Claro, muito disso ainda está um pouco distante. Enquanto não chega, podemos nos concentrar em outras coisas.

Nos últimos anos, vimos surgir equipamentos que nos ajudam a fazer download e consumir conteúdo. Eles são ótimos e já acharam seu espaço em nossas casas e mochilas.

E há mais por vir, já que todos gostamos de uma boa história. Mas acho que 2012 será um ano no qual nosso desejo para fazer coisas, e não apenas consumir, realmente florescerá.

Seja por meio da cultura dominante do faça você mesmo, com eventos do tipo Make Faire nos Estados Unidos (festival de projetos científicos) ou o aparecimento do steampunk, gênero de ficção científica que reimagina a era vitoriana. Seja [pelas comunidades virtuais] ou com a criação de conteúdo gerado pelos usuários, creio que a possibilidade de se expressar nunca foi tão relevante.

Queremos ser criadores, não consumidores.

O número crescente de laptops, que são mais leves e funcionais, oferecendo a oportunidade para novas experiências e significados, ou o aparecimento de câmeras digitais menores e mais ágeis, com recursos que nos ajudam a tirar a foto que realmente queremos mostram que as tecnologias para criar, compartilhar e aprimorar parecem promissoras em 2012

quinta-feira, 12 de janeiro de 2012

Dicas - As 28 melhores ferramentas gratuitas para seu PC

Tudo fica melhor com um upgrade, mas programas que deixam seu computador mais versátil podem custar dezenas ou centenas de reais. Felizmente os programas que listamos aqui não custam nada: são “freeware” (software grátis) no mais puro sentido da palavra. Alguns deles podem ter alguns recursos limitados em relação a uma versão “completa” (e paga), mas incluímos apenas programas com recursos suficientes na versão grátis para serem úteis.

Antes de baixar qualquer programa, certifique-se de que ele é compatível com sua máquina. Todos os programas que listamos funcionam no Windows 7, e a maioria deles também funciona com versões mais antigas do Windows como o Vista ou XP, mas verifique os requisitos de sistema de cada um deles no site do fabricante antes de instalar.

Também é recomendado criar um ponto de restauração do sistema  antes de instalar qualquer programa que tenha acesso aos seus arquivos ou configurações do sistema operacional, como anti-vírus, aplicativos de desktop remoto, utilitários para remoção segura de arquivos, etc. A regra é simples: é melhor prevenir do que remediar. Se algum programa causar problemas, basta “voltar” o sistema para o ponto de restauração feito antes de sua instalação e pronto!

Com tudo pronto, é hora de “incrementar” seu PC. Preparado? Clique em cada uma das categorias abaixo para conhecer nossas sugestões.

Utilitários: cinco programas para recuperar um PC que não “dá boot”, livra-se do lixo acumulado, desfragmentar o HD, lidar com arquivos compactados e fazer um inventário do hardware.

Segurança: veja como manter seu PC a salvo de hackers e malware, e evitar que empresas criem um “perfil” seu com base em seus hábitos de navegação.

Produtividade: encontre alternativas ao Microsoft Office, economize papel “imprimindo” em arquivos PDF, organize seus lembretes e diagrame o jornal da escola sem complicação.

Fotos, Vídeo e Música: veja como é fácil converter vídeos, visualizar fotos, organizar suas músicas e brincar com sons com estes cinco programas.

Redes sociais: filtre usuários indesejados no Twitter, consolide várias redes em uma timeline e compartilhe fotos e vídeos com facilidade.

Conectividade: conheça cinco programas para mapear o alcance de sua rede Wi-Fi, acesse um PC remotamente, bloqueie anúncios em páginas web e muito mais.

Dicas - Como fazer a bateria de sua câmera durar mais

Se você já perdeu alguma foto porque a bateria de sua câmera “morreu” sem aviso, sabe como isso é frustrante. Mas não se preocupe: siga as dicas a seguir para fazer ela durar mais e continuar fotografando por mais tempo.

pilha

Use o viewfinder: se sua câmera tem um LCD e um viewfinder (visor óptico), você pode economizar energia desligando o LCD e usando o viewfinder para compor as cenas. O LCD consome muita energia, especialmente os novos modelos de três polegadas.

Reveja as imagens depois: tente resistir à tentação de rever todas as fotos que tirou antes de chegar em casa. Novamente, usar o LCD por muito tempo aumenta o consumo de energia. Também recomendamos esperar até chegar em casa para apagar as fotos indesejadas, a não ser que o cartão de memória esteja quase sem espaço, porque o acesso a ele também consome bastante energia.

Diminua o tempo de exibição no LCD: outra forma de reduzir o consumo de energia é reduzir o tempo durante o qual a câmera mostra uma imagem recém-capturada. A maioria das câmeras exibe cada nova imagem por cerca de 5 segundos, mas muitas delas permitem reduzir o tempo, ou desligar completamente esta função. Você já entendeu o tema? Quanto menos você usar o LCD, mais tempo a bateria irá durar.

Use a economia de energia: se sua câmera tem um modo de economia de energia, ative-o. Assim, a câmera irá se desligar sozinha após um certo período de tempo se você se esquecer de fazer isso.

Desligue o autofoco contínuo: se você não está fotografando objetos em movimento, desligue o autofoco contínuo para economizar energia: neste modo a câmera usa constantemente um motor para mover a lente e manter a cena em foco. Use o foco manual se possível. 

Evite o flash automático: este sistema geralmente prevê direitinho quando a cena precisa de luz extra, mas não é perfeito. Se você está fotografando uma paisagem à noite, ou se está longe da cena, o flash terá efeito quase nenhum sobre a imagem final. Desligue-o. Um bônus: com isso, e com o passar do tempo, você irá aprender quando uma cena precisa ou não de flash, o que vai acabar levando a fotos melhores. Acredite.

Não deixe as baterias no frio: se você está fotografando em clima frio, irá descobrir que a bateria da câmera não dura tanto quando em climas mais amenos. Isso acontece porque a baixa temperatura deixa as reações químicas na bateria, que produzem a energia, mais lentas. Para evitar o problema, quando você não estiver fotografando mantenha a câmera “quentinha” no bolso do casaco ou junto ao seu corpo.

Cuide da bateria: se você vai guardar sua câmera por um longo período de tempo, remova a bateria. Se puder descarregá-la completamente antes disso, melhor ainda. Mas não a mantenha vaiza por muito tempo: tente carregá-la completamente e usá-la pelo menos uma vez por ano. Caso contrário ela pode “morrer” de vez.

Tenha extras: isso é para quando tudo o mais falhar: sempre carregue uma bateria de backup, carregada, para o caso da bateria principal se esgotar antes do tempo. Você pode encontrar pilhas e baterias extras para a sua câmera online, ou na mesma loja onde a adquiriu.

quarta-feira, 11 de janeiro de 2012

Tecnologia 4G pede investimentos para chegar ao Brasil em 2014

 

Tecnologia 4G pede investimentos para chegar ao Brasil em 2014
Conexão 3G chega a uma velocidade de 1 megabit por segundo, enquanto que a 4G passa de 10 megabits. Acesso mais rápido à internet melhora a qualidade dos vídeos vistos em tempo real, sem necessidade de download.

Renata Ribeiro, Jorge Pontual e Roberto Kovalick São Paulo, SP/ Nova York, EUA/ Tóquio, Japão

Não é tão antigo quanto a central telefônica da década de 1920, mas sim, o celular já virou peça de museu. Tão obsoleta quanto a pesada bateria dos primeiros “tijolões” é a ideia de um aparelho feito só para falar. A nova geração de celulares promete uma internet dez vezes mais rápida. O 3G, que ainda ontem trouxe o mundo para a palma da mão, já foi superado.

A tecnologia 4G chegou aos Estados Unidos há dois anos. A primeira empresa a oferecer o serviço no país abriu as portas para a equipe do Jornal da Globo fazer testes. Para comparar a velocidade das duas redes, a 3G e a nova a 4G, usamos dois tabletes da mesma operadora, um ligado em cada rede.

A conexão 3G chega a uma velocidade de 1 megabit por segundo, enquanto que a 4G passa de 10 megabits. O acesso mais rápido à internet melhora a qualidade dos vídeos vistos em tempo real, sem necessidade de download.

A diferença realmente é impressionante. A qualidade do vídeo em 4G é muito superior à qualidade do mesmo vídeo em 3G.

Levamos um aparelho 4G para fazer outro teste: o de download de arquivos. Oferecemos a pessoas que usam o 3G a chance de se conectarem ao wi-fi 4G, para avaliarem a tecnologia mais moderna.

Jacqueline baixou uma foto no celular. Em geral, levava 45 segundos, e levou 20. Michael testou baixar um podcast que costuma levar de cinco a dez minutos. Com o 4G, baixou em apenas um minuto. Ele se diz impressionado, “foi muito rápido”.

Japão

No Japão, os celulares são mais usados como computador de bolso ou TV portátil. Com velocidades de download que chegam até 42 Mbps no meio da rua, Mayumi assiste a um vídeo de um grupo famoso lá, enquanto aguarda uma amiga. Qualidade perfeita.

Com a conexão japonesa, já é possível fazer uma teleconferência por telefone. Quando se captam imagens neste celular e se transmite para o computador, ficam granuladas, ficam congeladas de vez em quando. Quando o 4G chegar, não tenha dúvida. A imagem será perfeita: transmissão ao vivo usando apenas um celular.

Embora as empresas americanas usem comercialmente o termo 4G, os japoneses não consideram que a tecnologia atual, a LTE, usada tanto no Japão como nos Estados Unidos, mereça esse nome. É rápida, mas não o suficiente. Por isso, é chamada ainda de 3G pelos japoneses.

Os japoneses seguem o que sugere a União Internacional de Telecomunicações, órgão da ONU, que considera 4G a conexão com velocidade de download de pelo menos 100 Mbps.
A tecnologia funciona perfeitamente em laboratório, mas ainda faltam alguns anos para chegar às ruas. Um dos principais desafios é reduzir o tamanho do aparelho receptor.

Brasil

Estádio do Morumbi, quarta-feira. Faltam poucos minutos para o clássico São Paulo e Corinthians pelo campeonato brasileiro. O estádio não lotou, mas está cheio. Os jornalistas já estão posicionados, e não conseguimos fazer o teste de velocidade de um celular 3G.

A internet ficou instável, lenta. A velocidade, que gira em torno de 1 Mbps, ficou bem menor, porque dividimos o sinal com todo mundo que está acessando a rede. Para a Copa do Mundo, é preciso mais.

O desafio do Brasil é maior do que o da África do Sul, porque, em 2014, os estádios estarão ainda mais cheios de smartphones e tablets. Atualmente, a telefonia móvel no Brasil funciona assim: o sinal do 3G passa por frequências de ondas entre os aparelhos e as antenas, como em uma estrada.

Quando muita gente usa o celular ao mesmo tempo, os dados emitidos e recebidos são como vários carros que congestionam a via aérea. Os sinais de alguns aparelhos são passados para estradas piores, mais lentas, as frequências do 2G. Quando isso acontece aparece aquela letra "e", de edge (limite) no aparelho. Quando o tráfico de dados é grande demais, tanto o 3G quanto o 2G ficam congestionados e o celular fica sem sinal mesmo.

Para começar a resolver isso, no ano que vem, as operadores vão abrir os sinais 3,5G. Até a copa, deve chegar o sinal do LTE, que no Brasil também chamaremos de 4G. Todos os sistemas vão funcionar ao mesmo tempo. Se o 4G ficar congestionado, o sinal vai para o 3,5G e assim por diante.

O governo promete o 4G operando em todas as cidades-sede até a Copa do Mundo. A largada será dada em abril deste ano, com a licitação da concessão do 4G. “Na hora em que assumimos o compromisso com relação à Copa, nós assumimos o compromisso com todos os eventos intermediários. Copa das Confederações, por exemplo, é a mesma coisa”, explica Ronaldo Sardenberg, ex-presidente da Anatel.

O governo deve liberar para o 4G uma frequência de menor alcance. Com isso, as empresas, além de adaptar a rede 3G, terão que montar novas antenas e investir em fibra ótica e microondas para o escoamento de dados. As operadoras vão gastar juntas, esse ano, cerca de US$ 18 bilhões na expansão da rede.

Professor de engenharia elétrica do Instituto Mauá, Marcelo Motta explica que o Brasil está atrasado, mas que há tempo para instalar o 4G nas cidades-sede até a Copa do Mundo. “A implantação das redes 3G no país chegou defasada em relação ao mundo por três anos. O mesmo deve acontecer com o 4G. Muitas vezes se chega a essa situação de ter que investir em uma tecnologia sem ter o retorno da tecnologia predecessora”, diz.

Seja para ver vídeo, ver e-mail ou até mesmo para falar com alguém, o rápido crescimento do 3G no Brasil e o péssimo desempenho do sistema em grandes eventos mostram que o 4G será bem-vindo