quarta-feira, 19 de setembro de 2007

Cinema em Casa


O Projetor Grand Cinema C3X 1080 tem como objetivo ser conhecido como o menor e o mais brilhante projetor de alta definição 3-chip DLP do mundo. Ele é composto internamente pelo menor 0.95" 1080 DLP chipsets da Texas Instrument que permite uma resolução de video progressivo de 1920x1080 (wow!).

Entre outros aspectos positivos está o full depth 10-bit processado com alta definição para uma reprodução de 24 quadros por segundo de grande qualidade. Disponível nas cores: vermelho ferrari, preto ou dourado. Preço previsto de $36,000.


sábado, 15 de setembro de 2007

A Revolução Linux em Cuba


Cuba defende Linux e critica dependência do Windows

Cuba capacitou quatro mil pessoas para operar o sistema operacional de código aberto Linux. A iniciativa é parte de batalha do país para dar fim à dependência digital com relação ao sistema Windows, da Microsoft, informou na terça-feira a imprensa oficial cubana.

O governo comunista de Cuba decidiu pela adoção do Linux em 2005 e está pregando as vantagens ideológicas do software livre em 600 centros de informática montados pela União de Jovens Comunista em toda a ilha. "Com a expansão no uso do software livre, Cuba deixaria para trás sua dependência do sistema Windows e as possíveis exigências judiciais de seu proprietário, a gigante norte-americana Microsoft", afirmou o Juventud Rebelde, diário da União de Jovens Comunistas.

Ainda que a maioria dos computadores em operação no país empregue o sistema operacional da Microsoft, o governo pretende que metade das máquinas nos escritórios e ministérios migre para o Linux nos próximos três anos.

Mais de 3,88 mil cubanos passaram por cursos de Linux, de acordo com o Juventud Rebelde. "Diferentemente do programa criado pela empresa de Bill Gates, o Linux oferece, aos usuários que desejem estudá-lo, livre acesso ao seu código-fonte e a possibilidade de modificá-lo e assim reforçar a privacidade das informações", acrescentou o diário.

O Linux é um sistema operacional de fonte aberta, que pode ser acessada e modificada por programadores e foi desenvolvido pelo finlandês Linus Torvalds. O sistema se transformou em bandeira daqueles que se opõem ao predomínio da Microsoft no mercado.

Cuba dispõe de cerca de 380 mil computadores ou 3,4 máquinas por 100 habitantes. O governo do país acusa os Estados Unidos de prejudicar seu desenvolvimento tecnológico por meio de um embargo comercial que já dura 45 anos e limita a aquisição de equipamentos e o acesso à Internet.

De acordo com as autoridades cubanas, o Linux está sendo usado na alfândega do país e em breve começará também a ser utilizado nos centros de educação superior. Para as autoridades do país, envolvidas em uma guerra ideológica que já dura quase meio século contra os Estados Unidos, a migração para o Linux é assunto sério. "É um problema de soberania tecnológica, um problema de ideologia", disse Héctor Rodríguez, chefe de uma equipe de mil pessoas que desenvolve programas Linux na Universidade de Havana.

Fonte: http://tecnologia.terra.com.br/

Conheça os Formatos JPG, GIF e PNG

Utilizar imagens em computador é algo rotineiro e comum a várias atividades. Na internet, figuras são encontradas aos montes e são essenciais para a transmissão de idéias, para o design de sites, para exemplos, para uma série praticamente infinita de aplicações. Como não poderia deixar de ser, existem várias tecnologias que tratam desse assunto e conseqüentemente, temos formatos diferentes de imagens. Quando falamos de formatos, estamos nos referindo aos tipos de arquivos próprios para o trabalho com imagens. Na internet, são comuns os formatos JPEG, GIF e PNG.

Formato JPEG

O formato JPEG (Joint Pictures Expert Group) é um tipo de arquivo para armazenamento de imagens que pode trabalhar com esquema de cores em 24 bits. Isso significa que este formato aceita 16,8 milhões de cores. O JPEG é um dos formatos de imagens mais populares e isso se deve à capacidade de formar imagens fiéis à original. Além disso, os arquivos em JPEG costumam não serem grandes.

O JPEG utiliza um algoritmo de compactação que se baseia na capacidade do olho humano. No entanto, mesmo sabendo-se que arquivos em JPEG podem trabalhar com até 16,8 milhões de cores, o olho humano não é capaz de enxergar todas elas de uma vez. Assim, é possível tirar uma série de informações que representam cores em imagens e manter apenas aquelas visíveis ao olho humano. Em outras palavras, o formato JPEG "tira" da imagem aquilo que os humanos não conseguem ver. Esse processo é conhecido como compressão. Isso faz com que imagens bastante realistas sejam criadas, ao mesmo tempo em que esses arquivos não ficam pesados.

Algo interessante no JPEG, é que os arquivos podem ter diferentes níveis de compressão. Quanto mais existir compressão, ou seja, retirada de informação, menor será o tamanho do arquivo, porém pior será sua qualidade. Assim, se você for disponibilizar imagens na internet, é interessante mantê-lo em um tamanho pequeno. No entanto, se a imagem for utilizada em um documento, muitas vezes é melhor mantê-la com o máximo de qualidade possível, para que a impressão seja satisfatória.

Uma desvantagem do JPEG é que a imagem normalmente perde qualidade a cada vez que o arquivo é salvo.

Formato GIF

O formato GIF (Graphics Interchange Format) é um tipo de arquivo para imagens que trabalha com uma paleta de 256 cores e foi criado pela empresa CompuServe, em 1987. Isso faz com que o GIF não seja recomendável para figuras que precisam de aproximação da realidade, a não ser que a imagem em questão seja em preto e branco (escala de cinza). Devido a essa característica, o uso do formato GIF é voltado para ícones ou imagens que não precisam de muitas cores (ilustrações, por exemplo).

Apesar deste formato parecer limitado devido ao número baixo de cores com que trabalha, o GIF é muito utilizado por alguns recursos que oferece. Um deles é a capacidade de utilizar fundo transparente. Com isso, é possível, por exemplo, que um site publique uma imagem em GIF e esta terá como fundo a cor da página. Além disso, o GIF permite que uma seqüência de imagens sejam salvas em um único arquivo, onde cada imagem surge no lugar da anterior após um tempo pré-determinado. Isso dá a sensação de animação, como mostra a imagem abaixo.

O GIF utiliza um formato de compressão que não altera a qualidade da imagem a cada salvamento, como ocorre com o JPEG. Considerando esta forma de compressão juntamente com a capacidade de trabalhar apenas com 256 cores, o GIF consegue criar imagens com tamanho bastante reduzido. Isso foi essencial para o início da internet, onde a velocidade era bem mais baixa que a dos modems de 56 K.

Formato PNG

O formato GIF utiliza uma forma de compressão conhecida como LZW (Lempel-Ziv-Welch), que consiste em um algoritmo para o tratamento de imagens criado pela empresa Sperry Corporation, que tempos depois foi comprada pela empresa Unisys. Esta, em 1994, anunciou que cobraria royalties (uma espécie de taxa para poder utilizar a tecnologia) dos desenvolvedores de softwares para trabalhos gráficos que suportam o formato GIF. Devido a isso, em 1996 foi lançado um formato criado para concorrer com o GIF e que era melhor que esse: o PNG (Portable Network Graphics).

O PNG é interessante porque consegue trabalhar com esquema de 24 bits de cores, ou seja, 16,8 milhões de cores. No entanto, em comparação com o JPEG, a compressão obtida é mais eficiente e não proporciona perda de qualidade a cada salvamento, o que permite maior fidelidade à imagem original. Além disso, as imagens em PNG não requerem muito espaço, podendo-se ter figuras de alta definição e tamanho em bytes pequeno. Ainda assim, o JPEG costuma ter imagens de tamanho ainda menor em alguns casos.

O PNG também possui o recurso de transparência, o que o faz uma excelente alternativa ao GIF neste caso, pois é possível ter imagens com fundo transparente, mas com o objeto utilizando um número muito maior de cores.

Fonte: http://www.infowester.com/imagensnet.php

O Que é Certificação Digital?

Em nosso dia-a-dia é comum necessitarmos comprovar a autenticidade de um documento e atribuí-lo um valor, seja através de uma assinatura à caneta, seja através de um carimbo, seja através de um selo de autenticação, enfim. No "mundo eletrônico", cuja principal influência é a internet, também precisamos de meios de autenticação e comprovação. É aí que "entra em cena" dois conceitos muito importantes: o de assinatura digital e o de certificação digital.

Assinatura digital

Assinar documentos faz parte da rotina de qualquer pessoa, até daquelas consideradas analfabetas que, nesse caso, fazem uso da impressão digital de um de seus dedos.

Agora, imagine-se na seguinte situação: suponha que você esteja viajando a negócios e que tenha que enviar à matriz da empresa documentos oriundos das reuniões que participou. Obviamente, o jeito mais rápido de fazer isso é enviar os documentos pela internet. Se esses documentos fossem entregues em papel, você certamente assinaria para comprovar sua autenticidade e sua responsabilidade sobre eles. Porém, em se tratando de arquivos digitais, como é que você fará a assinatura? Escreverá seu nome em um pedaço de papel, o passará por um scanner e o adicionará ao arquivo? Com certeza, não! O que você deve fazer é usar um assinatura digital.

A assinatura digital faz uso dos conceitos de chave pública e privada. O funcionamento da assinatura digital ocorre da seguinte forma: é necessário que o usuário tenha um documento eletrônico e a chave pública do destinatário (um usuário pode ser tanto uma pessoa quanto uma instituição qualquer). Através de programas apropriados, o documento é então criptografado de acordo com a chave pública. O receptor usará então sua chave privada correspondente (que é exclusiva dele) para decriptografar o arquivo. Se qualquer bit do documento for alterado a assinatura será deformada, invalidando o arquivo.

Na verdade, o processo de assinatura digital de documentos eletrônicos usa um conceito conhecido como função hashing. Como o uso de um sistema de criptografia assimétrico (mais detalhes aqui) nas assinaturas digitais pode causar muita demora numa decifragem, a função hashing se mostrou como a solução ideial. Seu funcionamento ocorre da seguinte forma: a função hashing analisa todo o documento e com base num complexo algoritmo matemático gera um valor de tamanho fixo para o arquivo. Esse valor, conhecido como "valor hash", é calculado com base nos caracteres do documento. Isso deixa claro que o arquivo em si não precisa, pelo menos teoricamente, ser criptografado (caso não seja algo secreto), mas sim acompanhado do valor hash. Com isso, qualquer mudança no arquivo original, mesmo que seja de apenas um único bit, fará com que o valor hash seja diferente e o documento se torne inválido.

É interessar notar que é praticamente impossível descobrir a chave privada através da chave pública. Isso se deve ao algoritmo aplicado. Se usado o método RSA (Rivest, Shamir and Adleman) - saiba mais no artigo sobre criptografia - dois números primos muito grandes (mas muito grandes mesmo!) são multiplicados. O resultado é a chave pública. Para descobrir os dois números que a geraram é necessário fazer uma fatoração, mas isso é impraticável.

Certificado digital


Obter uma assinatura digital não é algo tão simples. Primeiro é necessário procurar uma entidade que faça esse serviço, isto é, deve-se procurar uma Autoridade Certificadora (AC). Uma AC tem a função de verificar a identidade de um usuário e associar a ele uma chave. Essas informações são então inseridas em um documento conhecido como certificado digital.

Um certificado digital contém a chave pública do usuário e os dados necessários para informar sua identidade. Esse certificado pode ser distribuído na internet. Com isso, uma pessoa ou instituição que queira comprovar a assinatura digital de um documento pode obter o certificado digital correspondente. É válido saber que certificados digitais não são usados apenas em conjuntos com assinaturas digitais.

É importante frisar que a transmissão de certificados digitais deve ser feita através de uma conexão segura, como as que usam o protocolo SSL (Secure Socket Layer), que é próprio para o envio de informações criptografadas.

Obtendo uma assinatura e um certificado digital

Como dito anteriormente, um certificado digital é um documento eletrônico que contém as informações da identificação de uma pessoa ou de uma instituição. Esse documento deve ser solicitado a uma AC ou ainda a uma AR (Autoridade de Registro). Uma AR tem a função de solicitar certificados a uma AC.

Para que um certificado seja válido, é necessário que o interessado tenha a chave pública da AC para comprovar que aquele certificado foi, de fato, emitido por ela. A questão é que existem inúmeras ACs espalhadas pelo mundo e fica, portanto, inviável ter a chave pública de cada uma.

A solução encontrada para esse problema foi a criação de "ACs supremas" (ou "ACs-Raiz"), ou seja, instituições que autorizam as operações das ACs que emitem certificados a pessoas e empresas. Esse esquema é conhecido como ICP (Infra-estrutura de Chaves Públicas) ou, em inglês, PKI (Public Key Infrastructure).

Esquema de ICP


No Brasil, a ICP-Brasil controla seis ACs (pelo menos até o fechamento deste artigo): a Presidência da República, a Receita Federal, o SERPRO, a Caixa Econômica Federal, a Serasa e a CertiSign. Isso significa que, para que tenha valor legal diante do governo brasileiro, uma dessas instituições deve prover o certificado. Porém, para que isso seja feito, cada instituição pode ter requisitos e custos diferentes para a emissão, uma vez que cada entidade pode emitir certificados para finalidades distintas. E isso se aplica a qualquer AC no mundo.

Agora, uma coisa que você deve saber é que qualquer instituição pode criar uma ICP, independente de seu porte. Por exemplo, se uma empresa criou uma política de uso de certificados digitais para a troca de informações entre a matriz e sua filiais, não vai ser necessário pedir tais certificados a uma AC controlada pela ICP-Brasil. A própria empresa pode criar sua ICP e fazer com que um departamento das filiais atue como AC ou AR, solicitando ou emitindo certificados para seus funcionários.

Ainda demorará para que o uso do papel na emissão de documentos seja uma segunda opção. Talvez, isso nem venha acontecer. No entanto, o uso de assinaturas e certificados digitais é extremamente importante, principalmente pela velocidade com que as coisas acontecem na internet. Além disso, determinadas aplicações, como as bancárias, são consideradas cruciais para a manutenção de um negócio. Logo, o uso de certificados digitais pode chegar ao ponto de ser imprescindível. Há muito ainda a ser discutido sobre o assunto, mas entre as divergências existentes, é unâmine a importância dessa tecnologia para a era da informação eletrônica na qual adentramos.

Fonte: http://www.infowester.com/assincertdigital.php

terça-feira, 11 de setembro de 2007

O poder da Internet para reinventar a democracia


Por Georgina Prodhan

BERLIM (Reuters) - Ninguém acusaria Don Tapscott, guru da administração de empresas, de falta de ambição. O co-autor do best seller "Wikinomics" deseja ensinar aos governos como aproveitar o poder da Internet para reinventar a democracia.

Tapscott é um defensor do conceito de Web 2.0, a Internet de segunda geração baseada na participação em comunidades sociais como o Facebook e o MySpace, sites produzidos coletivamente como a enciclopédia Wikipedia, e em blogs.

Em "Wikinomics: How Mass Collaboration Changes Everything," publicado este ano, ele e seu co-autor Anthony Williams desafiam as empresas a revelar segredos comerciais na Web, a fim de obter as idéias de que precisam junto a pessoas que não trabalham para elas (interessante!).

Eles mencionam histórias improváveis de sucesso como a da Goldcorp, uma empresa de mineração de ouro que vinha enfrentando dificuldades até divulgar na Web os seus dados geológicos secretos, convidando pessoas de todo o mundo a ajudá-la a encontrar novos depósitos de ouro --uma iniciativa que resultou em transformação da empresa.

Agora, a New Paradigm, organização de pesquisa criada por eles, está iniciando um projeto que envolveria governos, organizações não governamentais e cidadãos de todo o mundo em um esforço de revitalização do setor público.

"Quero mudar o mundo", disse Tapscott, sorrindo, quando perguntado sobre o que ele acredita possa ser obtido com sua iniciativa.

Tapscott, que está em meio a um projeto multimilionário de pesquisa das atitudes e hábitos de pessoas com entre 13 e 29 anos de idade, calcula que as pessoas mais jovens desejam participar da vida política, mas que não gostam de ouvir sermões de políticos.

"Minha geração cresceu assistindo TV, de modo que um modelo de mídia eletrônica de massa era aceitável", diz. Mas ouvir coisas como "sou político; assistam a este comercial em que passo 30 segundos detonando meu adversário", é irrelevante para o que ele chama de "geração N", a geração da Internet.

As idéias dele se baseiam na premissa de que a nova geração de pessoas que cresceram com a mídia digital difere fundamentalmente de gerações anteriores. "Esta é a primeira vez na história em que os jovens são as autoridades em algo importante," ele afirma.

Fonte: http://br.tecnologia.yahoo.com/

GCM PAD - Um novo conceito de Transporte ?


O concept GMC PAD foi concebido pelo West Coast Advanced Design Studio da General Motors com o intuito de funcionar, simultaneamente, como transporte e alojamento. Destina-se, por definição, a trabalhadores com grande mobilidade, uma situação cada vez mais comum nos dias que correm. De design agradável e original e concebido de modo a ser o mais possível auto-suficiente, parece ser uma proposta com boas probabilidades de vir a ser produzida e comercializada.


O comportamento do veículo é gerido por um processador central que controla todos os sistemas e recursos, quer esteja parado ou em movimento. Graças à combinação de um motor híbrido diesel/elétrico com outras fontes de energia, como as células fotovoltaicas situadas no teto solar, a sua autonomia pode atingir semanas ou mesmo meses, afirmam os projetistas. No interior o GMC PAD é como um moderno apartamento e possui tudo o que é necessário para um vida confortável e até luxuosa: cozinha ultramoderna, Spa e uma panóplia de gadgets tecnológicos - TV, internet Wi-Fi, Displays, LCD, etc.




Mas a grande vantagens deste espantoso veículo reside na sua versatilidade. Com as adaptações necessárias pode servir para alojamento em situações de emergência, para eventos temporários, escritórios, e tudo o mais que a imaginação ousar.


Preço ? Para que pensar nisso....

Meu Pintinho Amarelo

Keepon é um robô que foi desenvolvido pelo investigador Hideki Kozima e foi feito para se interagir com as crianças e expressar emoções.

Esse projeto faz parte da BeatBots. Esse projeto visa a criação de robôs que se movimentem e falem igual ao ser humano e que transmitam emoções. Além de criar um sistema interativo, os investigadores querem também que os robôs se pareçam o mais possível com os humanos, mas neste caso, eles se parecem mais é com um teletubbie ou quem sabe com o Piu-Piu. Coisas de Japa...

sábado, 8 de setembro de 2007

O que é ODF ?


O OpenDocument Format (ODF) é um conjunto de formatos de arquivos para aplicações de escritório (edição de texto, planilhas, apresentações de slides, banco de dados, manipulação de imagem, etc) desenvolvido para estabelecer um padrão de mercado. Dessa forma, a distribuição desses documentos se torna muito mais prática, já que basta a utilização de programas compatíveis, independente de sistema operacional. Assim sendo, este artigo apresentará as características mais importantes do OpenDocument Format e mostrará quais suas vantagens.


O padrão OpenDocument Format

Ao ouvir a pergunta "o que é OpenDocument Format?" ou simplesmente "o que é ODF?", não é difícil alguém responder "é o formato dos arquivos do OpenOffice.org”. A resposta não está errada, mas incompleta: a idéia é que o ODF seja suportado pelos mais diversos aplicativos de escritório, não se limitando a um ou a outro.

Tendo como nome original OASIS Open Document Format for Office Applications, o ODF surgiu por iniciativa da OASIS (Organization for the Advancement of Strutured Information Standarts), um consórcio internacional criado com o intuito de desenvolver e promover padrões para formatos digitais, especialmente para utilização na Web. A base do ODF é um esquema XML inicialmente criado por desenvolvedores do OpenOffice.org.

O ODF 1.0 foi aprovado em 1° de maio de 2005, recebendo a homologação ISO 26300, atestando sua qualidade. Por se tratar de um padrão livre, qualquer software pode implementá-lo. Para incentivar esse prática e para aperfeiçoar o padrão, em março de 2006 foi criado a ODF Alliance, tendo como membros diversas companhias e entidades, dentre as quais: Corel, BrOffice.org, EDS, IBM, KDE, Mandriva, Novell, Oracle, Exército Brasileiro, Red Hat, phpMyAdmin, GNOME, Bull, entre outras.

Tipos de arquivos em ODF

Como já dito, o ODF tem como foco aplicações para escritório, isto é, editores de texto, planilhas de cálculo, apresentações de slides, bancos de dados, manipuladores de imagens, enfim. Assim, é conveniente conhecer os tipos de arquivos que formam o ODF. Para isso, a relação abaixo associa o tipo de aplicação à extensão usada:

  • .odt Texto
  • .ods Planilha de cálculo
  • .odp Apresentação de slides
  • .odb Banco de dados
  • .odf Fórmula matemática
  • .odg Gráfico
  • .odi Imagem

Há também extensões específicas para templates, isto é, documentos que servem como modelos:

  • .ott Texto
  • .ots Planilha de cálculo
  • .otp Apresentação de slides
  • .otg Gráfico

Vale frisar que os tipos de arquivos ODF não se limitam a estes.


Estrutura de um arquivo ODF

Quando um documento em ODF é criado, na verdade, um conjunto de arquivos e pastas o constitui. Eis os principais:

  • content.xml - arquivo que armazena o conteúdo do documento criado pelo usuário;
  • meta.xml - armazena os meta-dados do documento, ou seja, informações como autor, data de modificação, quantidade de palavras, etc;
  • styles.xml - contém estilos para o documento, por exemplo, formatações específicas para parágrafos e listas;
  • Pictures (pasta) - diretório que armazena as imagens do documento.

Esses e outros arquivos/diretórios são “juntados” para formar um documento único no final. É óbvio que os arquivos e pastas aplicados variam conforme a extensão trabalhada, mas o princípio vale a praticamente todos os formatos do ODF.


Razões para usar o ODF

OpenOffice.org: gratuito e disponível para diversos sistemas operacionais, já suporta ODF

A adoção de padrões abertos tem muitas vantagens, do contrário, organizações como a OASIS não existiriam. Imagine, por exemplo, que autoridades de um país têm dificuldades em transmitir documentos ao governo de outra nação porque este utiliza formatos diferentes. Oras, basta que ambos os lados utilize o Microsoft Office, não? Mas não é bem assim.

O Microsoft Office (MS-Office) é um produto de qualidade, mas não é do interesse da empresa de Bill Gates ver aplicativos concorrentes trabalhando com seus formatos, pois assim os usuários teriam mais opções de pacotes de escritório. Embora muitas das ferramentas alternativas trabalhem com os arquivos do MS-Office, nem sempre isso ocorre de maneira eficiente.

Por outro lado, com a utilização de um formato aberto, os desenvolvedores sabem exatamente o que fazer para que seus softwares sejam compatíveis com o padrão. Com isso, os documentos sempre se comportarão da mesma forma, independente do aplicativo (compatível) usado para manipulá-lo.

Além disso, o padrão aberto possibilita resultados de maior qualidade, já que um número maior de entidades participa de seu desenvolvimento, aumentando os critérios de avaliação e segurança. Isso ocorre porque as instituições envolvidas querem melhor desempenho, comunicação mais eficiente, maior proteção e uso inteligente de recursos computacionais. É difícil assegurar isso quando apenas uma empresa cuida de tudo.

Além disso, há outros aspectos a se considerar: cada empresa utiliza plataformas que atendem as necessidades de seus negócios, mas o mercado exige comunicação e interoperabilidade. É trabalhoso preparar versões específicas de um documento para que Fulano, Beltrano e Cicrano possam abrir sem problemas.

Vamos a um exemplo mais próximo da realidade: imagine que um redator que utiliza apenas Linux. Certo dia, ele recebeu uma planilha de cálculo complexa feita em MS-Excel, mas o documento não abriu corretamente no OpenOffice.org devido a quantidade de recursos usados no arquivo. Como ele não quer gastar uma fortuna comprando uma licença de Windows e depois uma licença do MS-Office, o redator é obrigado a incomodar um vizinho que use esse sistema. Culpa do OpenOffice.org, que não consegue abrir um documento mais complexo do Excel? Não, pois os formatos da Microsoft são fechados, ou seja, só a empresa sabe ao certo como são constituídos. Por causa dessa limitação, os desenvolvedores do OpenOffice.org (e de outras suítes de escritório) não conseguem garantir 100% de compatibilidade, por mais que se esforcem.

Imagine então o que aconteceria se uma empresa que sempre trabalhou com um padrão pouco conhecido se visse forçada a usar outra solução porque a fornecedora da primeira faliu? O que fazer para acessar os documentos criados até então, visto que o novo conjunto de software é incompatível com o padrão anterior?

Daí já é possível ver as vantagens dos formatos abertos, como o OpenDocument Format. Em resumo, padrões abertos se preocupam com interesses globais. Padrões fechados se preocupam apenas com os interesses de quem o desenvolve.

Softwares compatíveis com ODF

O número de softwares compatíveis com OpenDocument é cada vez maior. Isso é muito positivo, pois quanto mais um padrão for conhecido, mais compatibilidade ele encontrará no mercado. A lista a seguir mostra os principais softwares que trabalham com ODF, mesmo que parcialmente. Uma lista completa e atualizada:

Programas de escritório:

  • OpenOffice.org;
  • Abiword;
  • StarOffice;
  • KOffice;
  • IBM Workplace;
  • 602Office.

Aplicativos on-line:

  • Writely;
  • AjaxWrite;
  • Google Spreadsheets.

Outros:

  • phpMyAdmin (exporta em formato .odt);
  • Copernic (capaz de indexar arquivos ODF nas pesquisas).

Padrão ODF será Oficial no Brasil ?

O padrão Open Document Format (ODF), já formalizado internacionalmente pela ISO para planilhas e documentos no final do ano passado, também será oficializado como norma brasileira (NBR).

Segundo Eugenio Guilherme Tolstoy De Simone, diretor de Normalização da Associação Brasileira de Normas Técnicas (ABNT), o trabalho de preparação está em andamento e a previsão é que dentro de três meses já esteja pronto para o lançamento no País.

A norma brasileira para ODF será inspirada na ISO/IEC 26.300. O padrão internacional propôs que, para abrir e usar arquivos de computador, os usuários não ficarão dependentes de um único produto.

O ODF atualmente é defendido por empresas e organizações como Red Hat, Novell, 4Linux, ODF Alliance, IBM, Sun Microsystems, Corel, entre outras. Apoiadores do padrão têm travado uma verdadeira batalha contra o OpenXML, idealizado pela Microsoft. Isso porque, alegam, quanto mais padrões existirem para um determinado tema, maior é a complexidade e o investimento desnecessário. “A Microsoft tem defendido o lema do: ‘quanto mais padrão melhor’, mas a história não tem mostrado que isso é bom. Quem tem dois padrões, na verdade não tem padrão nenhum”, comenta Jomar Silva, diretor do capítulo nacional da ODF Alliance.

“Costumo comparar com o padrão de energia elétrica no Brasil, o 110V e o 220V. Imagine que você more em um lugar onde só utilize o 110V e sempre que comprar eletrodoméstico vai pagar também por um conversor de voltagem. Na prática isso mostra que não são poucos os casos de consumidores que compraram um equipamento junto com seu eletrodoméstico e não usaram. É o mesmo caso de ter vários padrões nos documentos”, ressalta.

Na primeira etapa do processo da ISO, entretanto, não houve aprovação do OpenXML. O padrão não atingiu os 66,6% de votos favoráveis e menos de 25% de rejeição, conforme era necessário. A Microsoft, porém, não considera o resultado uma derrota, porque esta “não é uma etapa decisiva”, em sua avaliação.

Fonte: http://www.infowester.com/odf.php

http://computerworld.uol.com.br/

6 Dicas de Firewalls Gratuitos


Em dezembro de 2006, pesquisadores da David Matousec simularam 77 ataques a diversos firewalls. Nas primeiras posições, ficaram as soluções gratuitas Comodo, Jetico e ZoneAlarm. Além destas, listamos as principais características de outras soluções - todas sem custo algum.

1. Comodo

Antes de permitir o acesso de uma aplicação à internet, o Comodo Personal Firewall valida todos os seus componentes. Este software reconhece em torno de 10 mil aplicações.

Além disso, o Comodo analisa o comportamento das aplicações e detecta atividades suspeitas antes de permitir acesso à rede.

O usuário conta também com proteção avançada de protocolos e prevenção contra o término crítico de processos devido a ação de malwares.

O monitoramento contra as ameaças é em tempo real, e ao apresentar os alertas, o Comodo oferece uma seção com dicas de segurança aos usuários.

2.Jetico

O Jetico Personal Firewall começa a rodar no sistema operacional antes que o usuário faça o login. Ele é compatível com o Windows Vista, Windows Server 2003, Windows XP e Windows 2000.

O Jetico Personal Firewall interage o tempo inteiro com o usuário. “Ele pergunta a todo momento se é permitido ou não enviar um e-mail ou acessar uma página. Isso é muito bom porque o usuário sabe exatamente o que está acontecendo”, afirma o analista de segurança de redes Denny Roger.

Contudo, “ele é feito para um usuário mais avançado”, de acordo com o analista.

3.ZoneAlarm

Este firewall não é visível aos crackers, e promete camadas múltiplas de proteção, que interrompe ataques e protege o PC de ameaças interna e externas.

Além de remover malwares tradicionais, o ZoneAlarm alcança ameaças que vão para o kernel do computador, como rootkits.

O novo recurso de Proteção a Ladrões de Identidade previne o roubo de dados sensíveis, interrompendo ofertas de cartões de crédito pré-aprovadas, por exemplo.

O firewall identifica e filtra mais de 100 mil aplicações para manter a segurança do usuário, além de monitorar a instalação dos softwares, registrar mudanças e acesso a arquivos no núcleo do PC.

Cookies, pop-ups e scripts são administrados e bloqueados pelo ZoneAlarm para garantir a privacidade. Também são checados arquivos anexos em e-mails e o software oferece ainda proteção para redes wireless.

4.PC Tools Firewall Plus

Este software garante ter um design voltado a leigos, e não especialistas. Ele permite que o usuário crie suas regras de filtros de conteúdo, que vão dos mais simples aos mais complexos.

Além de determinar suas conexões, “o legal neste firewall é que ele também protege de ataques realizados nas aplicações web, como por exemplo, em cross site scripting”, explica Roger.

O PC Tools Firewall Plus é compatível com Windows Vista 32-bit, XP, 2000 e Server 2003.

5.Filseclab Personal Firewall

Este software bloqueia a maioria dos ataques de worms e cavalos-de-tróia, além dos adwares e spywares mais conhecidos.

O sistema de filtros é duplo, o que garante dupla proteção das camadas. A verificação de assinatura digital pode ser configurada para confiar automaticamente em determinados softwares.

O Filseclab também oferece senha para proteger as configurações desta ferramenta. O controle de acesso a sites e outras características básicas também estão inclusas.

6.Ashampoo

Compacto e com interface amigável com assistente de configuração, o Ashampoo FireWall Free facilita a identificação dos recursos e possui opções avançadas de monitoramento para especialistas.

É possível criar regras individuais para cada aplicativo, especificando as portas e tipos de conexão que determinado programa pode usar.

Quem possui conhecimento mais avançado pode monitorar as conexões de rede internas e externas, além de estatísticas atualizadas em intervalos determinados pelo usuário.

Um botão de “pânico” permite também que com um clique todo o tráfego em andamento seja bloqueado.


Fonte: http://idgnow.uol.com.br/seguranca/

9 Dicas para Melhorar o seu Firefox



1. Mais espaço na tela - Torne seus ícones menores.


Vá em ‘Exibir’ > ‘Barra de ferramentas’ > ‘Personalizar’ e marque a caixa ‘Ícones pequenos’. E se você não usa a barra de ‘Favoritos’ (aquela onde originalmente aparece ‘Últimas notícias’ e ‘Traduza essa página’, simplesmente vá em ‘Exibir’ > ‘Barra de ferramentas’ e desmarque o item ‘Favoritos’).

2. Palavras-chave em pesquisas

Se há uma pesquisa que você use com freqüência (o sistema de busca da Wikipédia, por exemplo), existe uma ferramenta que poucas pessoas usam. Clique com o botão direito na caixa de busca, dê à palavra-chave um nome fácil de escrever e de guardar (por exemplo… “cão”) e salve.

3. Deletar itens da barra de endereços

A função de exibir os endereços visitados na barra de endereços é útil, mas algumas vezes você não quer determinado endereço aparecendo lá. Quando a caixa com os endereços aparecer, apenas selecione o endereço com a seta para baixo e aperte ‘Delete’.

4. Crie um arquivo user.js

Outra maneira de personalizar seu Firefox basta criar um arquivo ‘user.js’ na pasta onde está seu navegador e alterar opções que podem até mesmo deixar o navegador mais rápido.

5. about:config

Digite “about:config” na barra de endereços e altere centenas de configurações de seu Firefox. Claro, não vá sair clicando por aí sem saber o que fazer. Veja aqui uma lista de dicas (e uma em meu post seguinte).

6. Aumente a velocidade do Firefox

Instale o Fasterfox e pronto! Você não vai se arrepender.

7. Limite o uso da RAM

Se o Firefox usa muito da memória RAM em seu PC, você pode limitar seu uso.

Novamente, digite “about:config” busque a entrada “browser.cache” e selecione “browser.cache.disk.capacity”. Está ajustado com 50000, mas você pode reduzir este número, conforme quanta memória que você tenha. Tente 15000 se você tem entre 512MB e 1GB de RAM.

8. Reduza o uso da RAM quando o Firefox estiver minimizado

Este recurso vai mover para o disco rígido a memória utilizada pelo Firefox quando ele estiver minimizado, usando muita menos memória RAM (sem afetar visivelmente o desempenho depois que você o maximiza novamente). Novamente, vá ao “about-config” e clicando com o botão direito, escolha ‘Nova opção’ > ‘Boolean’. Dê o nome de “config.trim_on_minimize” e ajuste o valor para TRUE. Reinicie o Firefox, então.

9. Ver foto

Fonte: http://brinformatica.alojagratis.org/

CWAB - Novo Sistema Anti-colisão da Volvo


A Volvo anunciou o lançamento de seu novo sistema que ajudará os motoristas a evitar colisões durante as viagens. O novo sistema é conhecido como CWAB: Collision Warning with Auto Brake, que pode-se dizer que é um verdadeiro update em seu atual dispositivo baseado em radar, que foi lançado em 2006 no modelo S80.

A novidade do CWAB é que ele combina a tecnologia radar, que tem um alcance de 150 metros, juntamente com uma câmera de 55 metros de alcance. Neste sistema, ao ser detectado uma possível colisão pelo radar, uma luz vermelha se acende como alerta e os breques são preparados para serem acionados, e após o sistema radar e a câmera registrarem a probabilidade de colisão, os breques são automaticamente acionados, caso o motorista não tome uma atitude.

É claro que para isso exista um sistema para nivelar a atuação do dispositivo no carro, e baseado em 3 níveis, o motorista pode escolher a melhor forma para sair de casa prevenido de acidentes.

quarta-feira, 5 de setembro de 2007

M.I.T. Digital Drawing Board

Minhas aulas de Física eram bem diferentes desta aqui.

Lembro que o professor passava um tempão no quadro-negro desenhando rampas, bloquinhos, bolinhas de gude. Dava pena...

Considerando a aparente dificuldade do Digital Board, resta a indagação se as telas multitouch não são mais apropriadas para esta finalidade.



Outsourcing - Algumas vantagens da terceirização


Outsourcing de serviços de TI é uma opção de gestão para empresas de vários portes. Funciona quando apoiada em contratos muito bem delimitados e maduros.

A área de tecnologia vive em constantes mudanças devido ao grande volume de informações e tecnologias diferentes no mercado. Nenhum profissional de informática consegue ser especialista em todas as áreas de TI. Por isso, apesar de conhecer um pouco de várias tecnologias, a maioria dos profissionais conseguiria se especializar em poucas ou somente uma destas tecnologias.

Quando uma empresa contrata ou monta uma equipe de tecnologia ou um centro de processamento de dados (CPD), como são normalmente chamados os setores de informática na maioria das empresas, principalmente as que não são da área de TI, normalmente precisa ter em sua equipe mais de um profissional, devido as diversas tecnologias que geralmente usa.

Muitas vezes a empresa contrata um profissional com visão holística de várias tecnologias, mas este nem sempre consegue atingir o esperado.

O profissional não atinge o esperado pela empresa, por mais empenhado que seja, e em algumas ocasiões vai ter que buscar ajuda de outros profissionais para resolver alguma situação específica ocorrida em alguma área de TI que não domina. Isto gera um custo extra.

Uma das vantagens de terceirizar o setor de informática de sua empresa está em dispor de vários profissionais multidisciplinares para resolver seu problema. Geralmente existe um contrato para garantir a qualidade e pronto atendimento dos serviços.

"Eu perco o controle sobre a operação?” Não necessariamente; basta ter um contrato muito bem preparado sobre suas garantias e direitos e o controle pode ser inteiramente seu.

Alguns fornecedores, além de oferecer suporte aos computadores, alugam equipamentos ou passam a garantir os componentes de seu computador. Ou seja, se algo queimar ou apresentar defeito, será substituído pela prestadora de serviços sem custo nenhum para sua empresa além do contratado.

Essas são algumas vantagens de terceirizar os serviços de TI. Comumente as empresas reclamam que são mal atendidas na área de suporte, seja por equipe interna ou externa. A maior parte das pessoas cancela serviços por mal atendimento, isto é muito recorrente no mercado.

Mas a vantagem da terceirização é que, com um bom contrato, sua empresa pode até mesmo prever essas situações, como algumas empresas de terceirização de TI, fazem. Por exemplo: se o técnico não chegar no cliente em duas horas após o chamado, a empresa dá ao cliente desconto de 20% do valor do contrato. Práticas como esta geram empenho da equipe e confiabilidade junto ao cliente.

Lista de vantagens no emprego da terceirização:

  • Sem encargos trabalhistas. Você não paga salário, convênios, vale transporte ou qualquer outra despesa que você teria com um funcionário interno.
  • Sem intervalos remunerados. Sua empresa não terá nunca que oferecer férias, licenças por motivos de saúde ou outros e sempre terá sempre um profissional, adequado a sua necessidade a sua disposição, conforme as opções de cada tipo de contrato de terceirização.
  • Garantias adicionais. Você pode ter em alguns casos garantia sobre os equipamentos, além de garantia sobre os trabalhos executados. Se algo acontecer de errado a responsabilidade pelo trabalho é da empresa e não sua como acontece quando seu funcionário faz algo errado.
  • Múltiplas especialidades. Você terá além de um profissional responsável pelo seu atendimento, com quem vai lidar, conta com toda a equipe da empresa para lhe atender em suas necessidades. Profissionais com experiência em várias empresas e ramos de negócios diferentes.
Fonte: http://webinsider.uol.com.br/

Cuidados necessários ao acessar os Hotspots


A queda do dólar e os novos modelos de notebooks estão tornando o sonho de consumo de muitas pessoas uma realidade. Os preços estão caindo a cada dia, é possível achar modelos a preços atraentes e, em algumas lojas, condições de pagamento que cabem em qualquer bolso. Além da vantagem da mobilidade (o usuário pode levar seu computador para onde for), os notebooks também permitem a utilização das redes sem fios, desde que tenham a interface Wi-Fi embutida.

Assim, eles podem acessar a internet em lugares que ofereçam a conexão sem fio à rede mundial de computadores. Tais lugares são chamados de hotspots e estão aumentando a cada dia. Variam desde bares e restaurantes até shopping centers e universidades. Alguns estabelecimentos oferecem o acesso gratuito à internet, enquanto outros cobram pelo serviço.

Para se ter acesso ao serviço nos hotspots pagos é preciso contratar um provedor de Wi-Fi. Geralmente, os planos são comercializados das seguintes formas: mensal (funciona como uma assinatura, é cobrado por mês) e minutos corridos (funciona como um cartão telefônico, em que o usuário compra os créditos).

Depois de adquirir um dos planos das provedoras de Wi-Fi, é preciso configurar o notebook para usar nos hotspots:

  • Ative a interface Wi-Fi. Geralmente é um botão ou uma combinação de teclas.
  • Configure a interface para obter o endereço automaticamente.
  • Selecione a rede Wi-Fi do hotspot.
  • Normalmente irá aparecer uma página inicial do hotspot. Siga as instruções para autenticar-se e acessar a rede.
  • Se a autenticação for via provedor de Wi-Fi, digite o login e senha.

É importante redobrar os cuidados com a segurança no hotspot:

  • Certifique-se de que a rede Wi-Fi que está sendo acessada pelo seu notebook é a mesma que o hotspot oferece. Existem vários golpes em que redes paralelas são montadas para obter informações dos usuários.
  • Desative todos os compartilhamentos permitidos pelo seu notebook.
  • Mantenha um firewall pessoal instalado no seu notebook.
  • Não execute transações financeiras como acessos a bancos, cartão de crédito etc.
  • Tenha um antivírus instalado e atualizado.
Fonte: http://webinsider.uol.com.br/

Brasileiro paga caro pela Banda Larga


A TelComp (Associação Brasileira de Prestadoras de Serviços de Telecomunicações Competitivas) divulga levantamento de preços de banda larga – um Megabyte por segundo (Mbps) – comparando operadoras brasileiras e empresas que atuam em países da Europa, no Japão e nos Estados Unidos.

Os valores do levantamento foram pesquisados pela TelComp, nos próprios sites das operadoras em 10 de julho de 2007.

Para se ter uma idéia da diferença, o Mbps oferecido em Manaus é 395 vezes mais caro que a mesma velocidade disponibilizada no Japão.

O Mbps comercializado pela Tiscali italiana, por exemplo, custa o equivalente a R$ 4,32 ao mês; na França, a Orange cobra R$ 5,02 pela mesma velocidade; na Time Warner, nos Estados Unidos, o preço é o equivalente a R$ 12,75; e os internautas japoneses podem adquirir internet banda larga de um Mbps do Yahoo! por R$ 1,81.

A União Internacional de Telecomunicações, estabelece banda larga como igual ou acima de 2Mbps.

No Brasil, a TelComp levantou os preços da Telefônica, NET, Brasil Telecom e Oi, em diferentes capitais. Em São Paulo, a NET cobra R$ 39,95 por um Mbps e, pela Telefônica, a oferta da mesma velocidade custa R$ 159,80. Em Brasília, a Brasil Telecom oferece um Mbps por R$ 239,90. Manaus registrou o valor mais alto pelo Mbps: R$ 716,50.

O alto custo, segundo a entidade, é conseqüência da falta de concorrência na oferta de banda larga. Outro fator apontado pela pesquisa como determinante para os brasileiros pagarem uma das maiores taxas para a banda larga em todo mundo é a pouca competitividade no mercado.

Como resultado dos valores praticados pelas operadoras nacionais, apenas uma pequena parcela da população, 0,7%, possui acesso à internet de mais de um Mbps.

Para Luis Cuza, presidente executivo da TelComp, o principal problema é a inoperância do setor público em não cumprir o que está previsto na Lei Geral de Telecomunicações (Lei n° 9.472/97). “O governo federal, por meio das agências reguladoras, deve implementar as ferramentas de competição já previstas em Lei e Decreto e atuar de forma mais firme nas questões de fusões e aquisições dos players do mercado. A concorrência propicia melhores preços e serviços. É necessário criar mecanismos que promovam esse movimento e, desta forma, o Brasil contará com serviços de qualidade e com custos mais acessíveis”, aponta.

Segundo Cuza, a concorrência só será possível se houver uma significativa otimização da rede pública e diversificação do controle das plataformas para, assim, aumentar a quantidade de soluções disponíveis aos consumidores, o que teria efeito direto nos custos do Mbps.

Fonte: http://www.outrolado.com.br/

Autentificação Facial no seu Laptop


As novas séries da linha de laptops LaVie, da NEC, chegam ao mercado com um recurso de segurança exclusivo chamado face pass, que permite que apenas o dono da máquina possa acessá-la. Isso é possível com o uso do NeoFace, um sistema biométrico que utiliza a combinação da leitura de algumas áreas do olho com reconhecimento facial para identificar o usuário.

Para que o sistema entre em ação, o dono do micro deve tirar três fotos do seu rosto que serão então escaneadas e analisadas nas próximas tentativas de acesso pela câmera de 2.0 megapixels que vem integrada ao notebook.

De acordo com a NEC, a precisão do sistema é garantida mesmo que a pessoa esteja usando óculos e chapéu, tenha mudado o corte de cabelo ou mostre diferentes expressões faciais. Apesar disso, ainda não há comprovação sobre a eficiência do sistema ao analisar imagens de gêmeos idênticos.

"A principal vantagem da autenticação facial é a conveniência", disse o executivo Kazuyori Miyaoka. "Atualmente, outros métodos de autenticação estão em fase de pesquisa, como, por exemplo, usar o formato das orelhas ou padrões dos vasos sangüíneos existentes na palma da mão, assim como a forma da pessoa andar, cheiro, DNA e hábitos de digitação ao usar o teclado", enumerou em entrevista publicada no site PhysOrg.com.

Os laptops das séries LaVie C e LaVie L chegam ao mercado japonês no fim de setembro, com tela de 15,4 polegadas, processador Core 2 Duo ou Celeron e Blu-ray no modelo topo-de-linha, com preços que variam de 150 mil ienes a 310 mil ienes (cerca de US$ 1,3 mil a US$ 2,7 mil).

Fonte: http://tecnologia.terra.com.br/

terça-feira, 4 de setembro de 2007

O que é Holografia ?

Tal como a fotografia, a holografia é uma técnica para registrar em filme a informação relativa a um objeto ou cena. Entretanto, os mecanismos básicos utilizados, bem como a natureza das imagens produzidas, diferem bastante de uma para outra. A fotografia comum produz uma representação bidimensional do objeto, na qual a profundidade da cena termina no plano de impressão. A holografia, ao contrário, capta a informação em três dimensões: inclui a profundidade.

Para compreender a diferença entre a fotografia comum e este processo, é importante considerar primeiramente a natureza da luz. A luz visível é um tipo de radiação e, como tal, atravessa o espaço na forma de ondas eletromagnéticas. A distância entre as sucessivas cristas dessas ondas é denominada comprimento de onda, e o número de cristas por segundo que passam por um ponto chama-se freqüência. Como a velocidade de propagação da luz é constante, freqüências mais altas eqüivalem a comprimentos de onda mais curtos.

As fontes de luz usadas nas fotografias convencionais (a luz do sol e a iluminação artificial, por exemplo) emitem radiação com uma ampla gama de freqüências, visto que a luz branca abrange as freqüências do ultravioleta até o infravermelho. Para se registrar a informação acerca da profundidade da cena é necessário que a fonte de luz seja monocromática (tenha freqüência única) e coerente, isto é, que as cristas de todas as ondas caminhem juntas (em fase). Por isso, embora a holografia tenha sido idealizada em 1947, a demonstração prática de seus efeitos só se tornou possível a partir da década de 60, com o desenvolvimento da tecnologia do laser, que emite raios luminosos coerentes e monocromáticos.

Quando duas ondas chegam a um determinado ponto em fase, isto é, quando as cristas de ambas coincidem, suas energias atuam em conjunto, reforçando a intensidade ou amplitude da luz. Este processo é chamado interferência construtiva. Por outro lado, se a crista de uma onda coincide com a posição mínima - ou ventre do ciclo - de outra, ou seja, se as cristas de ambas chegam fora de fase, obtém-se uma redução de intensidade: ocorre uma interferência destrutiva.

Como o raio laser é monocromático e coerente, os detalhes relativos à profundidade de uma cena iluminada por um feixe deste tipo estão contidos nos relacionamentos das fases das ondas que chegam à chapa de registro holográfico. Uma onda vinda de uma parte mais distante da cena chega "retardada" com relação às ondas provenientes dos pontos mais próximos. É o registro desta informação que permite a reconstrução óptica do objeto em três dimensões. Para registrar esta informação é necessário um feixe de referência, com o qual se possam comparar os relacionamentos fásicos do feixe luminoso refletido pelo objeto. Para tanto separa-se o feixe de laser em dois: um dirigido para a cena, a partir do qual se forma o feixe refletido (feixe objeto); o outro (feixe de referência) é apontado diretamente para a placa de registro. No ponto em que os dois se encontram, a chapa, ocorre o fenômeno da interferência.

O holograma é usualmente revelado numa chapa transparente. Para reconstruir a imagem da cena original, esta transparência precisa ser iluminada com um feixe de luz coerente, semelhante ao utilizado como feixe de referência no registro. À medida que passa através da chapa transparente do holograma, o feixe de laser de reconstrução é modulado (modificado), de acordo com a amplitude e fase, assemelhando-se desta forma ao feixe objeto original. Forma-se então uma imagem virtual do objeto que, para o observador, parece estar situada atrás do holograma. Existe também uma imagem real, formada do mesmo lado em que se coloca o observador, e que não pode ser vista por tratar-se de uma imagem focalizada. Contudo, ela poderá ser observada se uma tela for colocada na área focal.

Como a cor depende da freqüência da luz, qualquer holograma produzido com um único laser dará na reconstrução imagens de uma única cor. Entretanto, com a utilização de três raios laser de freqüências diferentes (correspondentes às três cores primárias - vermelho, verde e azul), é possível registrar e reconstruir uma cena com todas as cores.

Aplicações da holografia

A holografia é muito usada na pesquisa científica e nos testes. Os selos holográficos são uma medida de segurança, porque é muito difícil falsificá-los. Outras aplicações testes de aviação, que projetam instrumentos no campo de visão do piloto, e leitores de barra, em lojas.
A holografia também foi desenvolvida como forma de arte. Os hologramas são encontrados em galerias e museus de todo o mundo. Sua produção em grande quantidade é de baixo custo, o que os viabiliza como itens promocionais ou de presentes.

360º Light Field Display

No vídeo acima, é apresentado o 360º Light Field Display. Seu conceito se baseia em um projetor de vídeo combinado com difusores holográficos e um espelho que gira constantemente em alta velocidade para formar a imagem em 360 graus. Além disso, são necessários também a utilização de circuitos FPGA para a decodificação dos sinais do vídeo.

Sua infraestrutura conta ainda com uma placa gráfica capaz de renderizar até 5.000 imagens por segundo em 360 graus, suportando até 20 updates por segundo. Isso torna possível a inclusão de recursos interativos e até mesmo imagens animadas durante a reprodução holográfica.

Este sistema foi desenvolvido pelo Instituto USC e ganhou o premio: Best Emergin Technology Award na SIGGRAPH 2007, e após conferir o vídeo, você irá perceber que foi merecido.


Fonte: http://www.herbario.com.br/
http://www.antenando.com.br/

domingo, 2 de setembro de 2007

O que é VoIp ?

Voip é a abreviação de voz sobre o protocolo da Internet (protocolo Ip). O conceito é bem simples. A voz, através de equipamentos e softwares específicos, é transformada em pacotes de dados e, em vez de seguir por ramais telefônicos, se vale das infra-estruturas existentes de banda larga, antes usadas apenas para finalidades como e-mail ou acesso à internet. Transmitidas por esses canais, essas ligações são reconvertidas em voz quando chegam ao seu destino, ou seja, as empresas podem usar a web como um substituto das ligações de longa distância – interurbanas e até mesmo internacionais – aumentando o aproveitamento da infra-estrutura de acesso rápido que já têm.

É claro que esse tipo de tecnologia não substitui a telefonia convencional, pois as ligaçõeas locais ainda dependem de telefones e centrais PABX comuns. Mas, se o caso é interligar diversas filiais de uma empresa com escritórios espalhados pelo Brasil ou em outros países, a coisa muda de figura. Não é por acaso que sua adoção está em franco crescimento no Brasil.

Cortar despesas com telefonia é uma opção atraente para qualquer empresa, mas a tecnologia de voip ainda abre outras possibilidades. Uma delas é o gerenciamento: transformados em dados, é muito mais fácil dispor de relatórios informando a duração e o tipo de ligações, permitindo um controle mais eficiente por parte dos administradores. Há também a integração de voz e dados em um único canal, que pode fazer com que cada telefonema carregue uma série de informações. Em uma central de atendimento ou call-center com telefonia convencional, os atendentes precisam dispor de um computador e um telefone integrado à central, devendo haver um casamento muito eficiente entre os dois sistemas. Com a Voip, essa integração é natural e as empresas podem ganhar mais agilidade.

Outra vantagem das soluções de Voip é que o ramal pode seguir o usuário. Como cada telefone tem um endereço específico, da mesma forma que um PC numa rede de computadores, a pessoa pode receber suas chamadas em qualquer escritório da empresa ou em qualquer lugar do mundo. Existem companhias que adotam os softphones, programas de computador que são instalados em laptops e que, através de conexão banda larga, ligam o profissional aos ramais da empresa a partir de qualquer lugar do Brasil ou do mundo.

Como Funciona ?

Na figura a seguir temos um exemplo básico de conexão de um telefone IP a um Provedor de Serviços de Telefonia IP (ITSP) que permite fazer ligações de Telefone IP para Telefone IP ou para qualquer telefone fixo ou celular no mundo.




Cada unidade da sua empresa é identificada com um ramal de longa distância que integra as centrais telefônicas. De qualquer telefone convencional, é possível digitar esse ramal seguido do ramal da unidade de destino. A ligação é então criptografada e completada, pela internet, sem utilizar o serviço público de telefonia.

A larga implantação desses serviços, claro, é uma dor de cabeça para as operadoras de telefonia, que vêem suas redes de dados de alta velocidade sendo usadas para canibalizar as receitas de longa distância. O irônico é que as próprias operadoras se valem de canais de Voip para baratear seus custos internos em ligações internacionais, ou seja, aquela sua chamada para a Europa ou EUA pode transitar como pacotes em redes IP sem que você saiba disso.

Fonte: http://www.voipbra.com.br/voip.htm

DVD com capacidade de 1Terabyte


A empresa israelense Mempile, com sede em Jerusalém, anunciou que desenvolveu um protótipo de disco ótico tão fino quanto um DVD capaz de armazenar 1 terabyte de dados. Isso foi possível, porque o disco semitransparente conta com 200 camadas de 5GB cada. Com essa capacidade a mídia é capaz de guardar mais de 250 mil MP3s, 115 filmes em alta qualidade de DVD ou 40 de HD, comparou o TG Daily.

De acordo com a companhia, o valor é conseguido usando lasers vermelhos, podendo ser ampliado para 5TB caso haja uma transição para os lasers azuis (usados nos discos de alta definição, como o Blu-ray e o HD DVD).

Ao contrário dos DVDs normais, as camadas não estão agrupadas de forma física, mas virtualmente. A tecnologia utiliza moléculas sensíveis à luz denominadas cromóforos para criar matrizes semelhantes a hologramas e, assim, atingir a capacidade de 1TB.

"De iPods ao Tivo, a quantidade de conteúdo digital gravado e guardado pelos consumidores em suas casas cresce como nunca. O problema é que a informação acaba armazenada em várias ilhas em vários equipamentos assim como também nos PCs, que geralmente funcionam como um repositório central de todos esses conteúdos espalhados, com o risco inerente de o HD sofrer algum dano", disse o CEO da Mempile, Avi Huppert.

"O TeraDisc, pela primeira vez, permite que os usuários armazenem um terabyte de dados em um único disco, do tamanho de um DVD, por uma fração do preço das soluções alternativas no mercado", completou.

A empresa planeja apresentar um protótipo funcional em 18 meses. Um ano depois disso, o TeraDisc deverá chegar ao mercado consumidor, por cerca de US$ 3 mil. Já os discos de 600GB devem variar entre US$ 30 e US$ 50.

Fonte: http://tecnologia.terra.com.br/

Pirataria na Tropa de Elite - Marketing Acidental ?

Filme brasileiro que foi copiado e distribuído antes do lançamento poderá indicar se o boca-a-boca nesse caso é bom, prejudicial ou indiferente nos resultados de bilheteria e venda de DVDs.

Teremos um ótimo teste nos próximos meses. Será o lançamento do filme Tropa de Elite, de José Padilha. Acontece que o filme - dois ou três meses antes do lançamento - já está sendo comercializado por míseros reais em qualquer banquinha de esquina. Isso, sem contar a versão de ótima qualidade que muita gente já baixou nos Torrents e ed2K da vida.

É inegável que a pirataria causa prejuízo de bilheteria e nas vendas de DVD. O que ninguém sabe quantificar é a força inversa: o impulso que a pirataria pode trazer à bilheteria e à venda de DVDs.

No caso da Tropa de Elite, o filme é realmente muito bom e o boca-a-boca da pirataria pode ser a melhor divulgação que um filme brasileiro poderia ter. Se isso acontecer, o prejuízo da pirataria seria - na verdade - o melhor investimento em marketing. Por isso digo que teremos um bom teste nos próximos meses.

O que também não dá pra estimar, porque não existe nenhuma pesquisa séria a respeito, é saber o quanto deste público que está vendo a versão pirata já seriam “não consumidores”, ou seja, pessoas que não consumiriam o produto do jeito tradicional independente do filme ter vazado ou não.

A falta de opções legais tornou muitos consumidores em consumidores alternativos. Para estes, o prejuízo para o filme Tropa de Elite foi causado não pela pirataria de sua cópia, mas por pertencer a uma indústria que “forçou” consumidores a buscar alternativas ilegais para ter praticidade, conforto e custo que eles acham que merecem.

Fonte: http://webinsider.uol.com.br/

Brasil já é o 4ª no ranking mundial de vendas de computadores


A Alta nas vendas de notebooks neste segundo trimestre faz Brasil pular do 7º para o 4º lugar no ranking, surpreendendo o mercado global.

São Paulo, 31 de agosto de 2007 – O crescimento excepcional no consumo de computadores neste segundo trimestre, principalmente de notebooks, elevaram o Brasil da 7ª posição no ranking mundial de vendas destes equipamentos para a 4ª colocação, segundo constatação da IDC Brasil. O crescimento de quase 20%, graças às vendas de 2,1 milhões de desktops e notebooks no País entre abril e junho, surpreendeu o mercado global.

Reinaldo Sakis, analista sênior da consultoria, explica que, em volume e alta concentração de vendas de desktops no 1º trimestre deste ano (1.721.586 unidades), o Brasil já ocupou um honroso 3º lugar no ranking, mas na soma com as vendas de notebooks (227.599 unidades) o País foi para a 7º posição. “O que já indicou um avanço significativo, uma vez que de 2004 a 2006 permanecemos em 8º lugar no ranking mundial”.

Já neste segundo trimestre, as vendas de notebooks superaram as expectativas. Foram vendidas no total 300.481 unidades destes equipamentos no período. O interessante é que os preços analisados entre abril e junho, e que vinham caíndo muito desde 2006, se mantiveram quase no mesmo patamar verificado nos três primeiros meses de 2007. “O que mudou e impulsionou o consumo de notebooks no mercado brasileiro”, elucida Sakis, “foi a redução nos juros das parcelas e o aumento nos prazos de pagamento que fortaleceram as vendas de produtos, tecnicamente mais completos e conseqüentemente mais caros”. Vale destacar que o varejo ainda é o principal canal de comercialização de notebooks.

Não tão surpreendentes, mas ainda dominantes foram as vendas de desktops no segundo trimestre: 1.864.920 unidades. A IDC esclarece que esta concentração não é uma questão de preferência, mas apenas um claro reflexo da condição econômica dos consumidores, que pelo mesmo valor podem comprar um desktop mais ‘poderoso’. Para Sakis, “O que estamos vendo hoje é resultado de uma maior consciência das vantagens que o equipamento portátil pode trazer quanto a espaço e a possibilidade de transporte, entre outros valores, além do custo de aquisição”.

De acordo com o histórico dos estudos das IDC, enquanto em 2004 estávamos em 8º lugar no ranking mundial com a vendas de desktops, em notebooks ficamos em 33º lugar; em 2005 pulamos para 5º lugar em desktops, porém em notebooks a posição do Brasil caiu para a 34º; em 2006 o Brasil já pulou para o 3º lugar nas vendas de desktops, e no quesito notebooks, que já apresentou um expressivo aumento nas vendas, subiu para o 25º posto; no 1º trimestre de 2007 a aquisição de desktops caiu e o País baixou para a 4º posição, mas e explosão nas vendas de notebooks alçou para a 17º colocação; e, finalmente, no 2º trimestre deste ano as vendas excepcionais dos equipamentos nos rendeu o 3º lugar na comercialização mundial de desktops e o 15º em notebooks.

As estimativas da IDC apontam para vendas de aproximadamente 9 milhões de computadores no Brasil em 2007. “Este crescimento de 25% em relação às vendas do ano passado não deverá alterar a nossa posição no ranking mundial, uma vez que os mercados nas primeiras posições são Japão, China e EUA, muito maiores que o nosso. Mesmo nas previsões mais otimistas é muito difícil pensar em igualar ou até passar os outros países, pois enquanto o Brasil vende 2,1 milhões, o Japão vendeu 3,1 milhões num trimestre considerado fraco, e os resultados da China e dos Estados Unidos foram, respectivamente, de quase de 7 milhões e 16 milhões no mesmo período”, conclui o analista.

Fonte: http://www.forumdohardware.com.br/

by TemplatesForYou
SoSuechtig,Burajiru