quarta-feira, 29 de agosto de 2007

30 Days Of Night - Trailer Legendado

Imagine um lugar no mundo onde o Sol não nasce por 30 dias. Um lugar distante, quase esquecido, e, ainda assim, habitado. Bem... Este lugar existe e se chama Barrow, uma cidadezinha perdida no Alaska, cujos moradores já se habituaram às condições inóspitas do local e nem imaginam que algo de muito ruim está para acontecer. Mal sabem eles que a longa e gelada escuridão de Barrow servirá de cenário para o banquete sangrento de um grupo de vampiros famintos.

A única esperança de sobrevivência dos moradores da cidade está nas mãos de Stella e Eben, marido e mulher que atuam como os xerifes locais. Conseguirão eles salvar a cidade que amam, ou o manto da escuridão cairá sobre todos para sempre?

O que é Aerogel ?


O aerogel ficou famoso ao ser utilizado na espaçonave Stardust, lançada pela NASA para recolher partículas interestelares. Trata-se do sólido mais leve que existe.

O aerogel foi originalmente desenvolvido em 1930, mas permaneceu como mera curiosidade científica até 1960, quando os cientistas começaram a considerá-lo como um meio de armazenamento de combustível de foguetes. Os primeiros aerogel eram feitos de sílica, com uma composição química semelhante ao vidro. Embora leves, mesmo os aerogel fabricados atualmente são extremamente frágeis e quebradiços, o que limita sua aplicabilidade prática.

Mas pesquisadores da Universidade Missouri-Rolla (Estados Unidos), chefiados pelo professor Nicholas Leventis, encontraram uma forma de tornar o aerogel 100 vezes mais resistente. Em um estudo publicado no número de Setembro da revista Nano Letters, os pesquisadores afirmam ter construído o sólido mais leve e mais forte do mundo.

A descoberta abre um mundo novo de aplicações para o material, indo desde vestimentas leves segurança e blindagens para veículos, até materiais de construção mais leves e fortes, isolamentos para janelas, pneus mais duráveis e aviões e naves espaciais mais leves e com menor consumo de combustível.

Em um esforço para melhorar a resistência do aerogel, os pesquisadores decidiram entrelaçar partículas de sílica, basicamente vidro, com poliuretano, um plástico. O material resultante, no entanto, ainda se mostrou muito quebradiço.

Os pesquisadores decidiram então ligar quimicamente seqüências de vidro nanoparticulado com poli-isocianato, um dos dois componentes do poliuretano. Tal como o aerogel tradicional, o material resultante ficou quase tão leve quanto o ar. Mas a nova estrutura química resultou em um aerogel 100 vezes mais resistente à quebra, além de ser praticamente insensível à umidade.

O aerogel é também altamente resistente à condução de calor, tornando-o adequado para utilização como isolante térmico. Outras possibilidades de uso incluem parachoques de automóveis e armazenamento de combustível, tornando tanques de aviões e de veículos de transporte de materiais inflamáveis mais seguros e resistentes a impactos.

Fonte: http://www.inovacaotecnologica.com.br/

O Novo Uniforme do Homem-Aranha

Cientistas italianos estão realizando pesquisas para chegar a uma roupa de Homem-Aranha, que possibilite àqueles que a usam escalar paredes como o super-herói do cinema.

Os estudiosos estão analisando o funcionamento da "tecnologia natural" existente em aranhas e lagartixas, que possuem minúsculas estruturas semelhantes a pêlos que as permitem se aderir a vários tipos de superfície.Algumas pesquisas sugerem que as lagartixas podem suportar centenas de vezes o seu próprio peso. Se for reproduzida numa roupa para humanos, essa tecnologia permitiria aos usuários não apenas escalar prédios, mas também se pendurar no teto de cabeça para baixo.

Uma pesquisa americana realizada em 2002 revelou que a capacidade de aderência das lagartixas se deve a forças intermoleculares produzidas por bilhões de pêlos encontrados nas patas do réptil. As forças intermoleculares aumentam quando descargas elétricas em volta das moléculas provocam sua atração.

A força de atração acumulada entre bilhões de pêlos permite às lagartixas subir pelas paredes e ficar de cabeça para baixo mesmo em superfícies polidas, como o vidro. O professor Nicola Pugno, do Instituto Politécnico de Turim, na Itália, calculou a aderência necessária para suportar o peso do corpo humano.

"As pesquisas foram capazes de medir, em teoria, uma força de aderência 200 vezes maior do que a encontrada na lagartixa", ele afirmou. Mas admitiu: "Há uma grande diferença entre teoria e prática". Em uma eventual "roupa de Homem-Aranha", o pesquisador propõe que nanotubos de carbono desempenhem o papel dos pêlos das lagartixas.

Os nanotubos são minúsculos cilindros que medem um bilionésimo de metro. Apesar disso, são muito resistentes e podem ser organizados em grandes filamentos. O cientista apontou três habilidades que devem ser demonstradas por um Homem-Aranha de verdade.


Primeiramente, e mais importante, ele deve ter grande capacidade de aderência. Em segundo lugar, deve poder se "descolar" da superfície quando necessário. Por último, ser capaz de se "auto-limpar". Isto porque, explica o pesquisador, partículas de sujeira podem penetrar na estrutura, prejudicando a aderência. Entretanto, a limpeza não pode ser feita com água.

A solução seria tornar a roupa "super-hidrofóbica", capaz de repelir água e ainda eliminar a sujeira. "Ter todos esses mecanismos funcionando ao mesmo tempo é difícil, porque eles competem entre si. Mas aranhas e lagartixas já demonstraram que é possível", diz o pesquisador.

Pugno acrescentou que a roupa aderente poderia no futuro ser aplicada em missões espaciais e de defesa, e inspirar novos designs de luvas e sapatos para limpadores de janelas que trabalham em arranha-céus.

Fonte: http://noticias.terra.com.br/ciencia/

segunda-feira, 27 de agosto de 2007

ERP e a Conjuntura Atual


As grandes empresas, não apenas por necessidades de agilidade e eficiência, estão adotando os sistemas integrados, conhecidos como ERP. Muitas delas, apesar de ter estrutura operacional grande, ainda operam com vários sistemas separados, sem integração nenhuma entre eles.

O que é ERP?


ERP (Enterprise Resource Planning são sistemas de informações que integram todos os dados e processos de uma organização em um único sistema. A integração pode ser vista sob a perspectiva funcional (sistemas de : finanças, contabilidade, recursos humanos, fabricação, marketing e vendas, etc) e sob a perspectiva sistêmica (sistema de processamento de transações, sistemas de informações gerenciais, sistemas de apoio a decisão, etc).

Os ERPs em termos gerais, são uma plataforma de software desenvolvida para integrar os diversos departamentos de uma empresa, possibilitando a automação e armazenamento de todas as informações de negócios. Alguns ERPs conhecidos são:Corpore RM da RM Sistemas; o EMAX da Emsoft Brasil; o R/3 da SAP; o Volpe da PWI; o Protheus da Microsiga; o EMS da Datasul; o SAIB2000 da SAIB; o Prilp 6.20 da Primaverabss; o ERPPLUS da CONSIST, o GEM da CONSIST, o Multix da Multicomp Informática; o Mult-Gestor da Multilogica Sistemas; o PeopleSoft da Oracle; o Hime da Hime sistemas; o Factory da Núcleo Sistemas; o Sapiens da Senior Sistemas; entre outros.

Uma nova linha de sistemas ERP Opensource (código fonte livre) também estão disponíveis em versões tropicalizadas para o Brasil, como principais sistema podemos destacar o Openbravo que é baseado em Web, o Compiere e o Adempiere.

ERP em Contexto Histórico

No final da década de 50, quando os conceitos modernos de controle tecnológico e gestão corporativa tiveram seu início, a tecnologia vigente na época era baseada nos gigantescos mainframes que rodavam os primeiros sistemas de controle de estoques – actividade pioneira da interseção entre gestão e tecnologia. A automatização era cara, lenta – mas já demandava menos tempo que os processos manuais – e para poucos.

No início da década de 70, a expansão econômica e a maior disseminação computacional geraram o avô dos ERPs, os MRPs (Material Requirement Planning ou planejamento das requisições de materiais). Eles surgiram já na forma de conjuntos de sistemas, também chamados de pacotes, que conversavam entre si e que possibilitavam o planejamento do uso dos insumos e a administração das mais diversas etapas dos processos produtivos.

Seguindo a linha evolutiva, a década de 80 marcou o início das redes de computadores ligadas a servidores – mais baratos e fáceis de usar que os mainframes – e a revolução nas atividades de gerenciamento de produção e logística. O MRP se transformou em MRP II (que significava Manufacturing Resource Planning ou planejamento dos recursos de manufatura), que agora também controlava outras atividades como mão-de-obra e maquinário.

Na prática, o MRP II já poderia ser chamado de ERP pela abrangência de controles e gerenciamento. Porém, não se sabe ao certo quando o conjunto de sistemas ganhou essa denominação. Uma datação interessante é 1975, ano no qual surgiu a empresa alemã – um símbolo do setor – SAP (Systemanalyse and Programmentwicklung, na tradução literal Análise de Sistemas e Desenvolvimento de Programas). Com o lançamento do software R/2, ela entrou para a história da área de ERP e ainda hoje é seu maior motor de inovação.

O próximo passo, já na década de 80, serviu tanto para agilizar os processos quanto para estabelecer comunicação entre essas “ilhas” departamentais. Foram então agregados ao ERP novos sistemas, também conhecidos como módulos do pacote de gestão. As áreas contempladas seriam as de finanças, compras e vendas e recursos humanos, entre outras, ou seja, setores com uma conotação administrativa e de apoio à produção ingressaram na era da automação.

A nomenclatura ERP ganharia muita força na década de 90, entre outras razões pela evolução das redes de comunicação entre computadores e a disseminação da arquitetura cliente/servidor – microcomputadores ligados a servidores, com preços mais competitivos – e não mais mainframes. E também por ser uma ferramenta importante na filosofia de controle e gestão dos setores corporativos, que ganhou aspectos mais próximos da que conhecemos atualmente.

As promessas eram tantas e tão abrangentes que a segunda metade daquela década seria caracterizada pelo boom nas vendas dos pacotes de gestão. E, junto com os fabricantes internacionais, surgiram diversos fornecedores brasileiros, empresas que lucraram com a venda do ERP como um substituto dos sistemas que poderiam falhar com o bug do ano 2000 – o problema na data de dois dígitos nos sistemas dos computadores.


ERP e o Modelo de Governança

Houve um crescimento de empresas realizando IPO (oferta pública inicial de ações). Para que obtenham aprovação pela CVM (Comissão de Valores Mobiliários) é necessário que as empresas se adequem a um tipo de gestão baseado em valor e Balanced Scorecard.

A gestão precisa estar alinhada a vários princípios, com boas práticas, ética, sustentabilidade, transparência, confiabilidade, rapidez, eficiência, responsabilidade socioambiental econômica e tributária e — o mais importante do ponto de vista do mercado de tecnologia e gestão de TI — Governança Corporativa.

Para se enquadrar em padrões de gestão que garantam a aprovação de um IPO, é necessário estar ajustado às práticas de Governança Corporativa, através de modelos internacionais com a Lei Sarbanes-Oxley (SOX) e práticas como ITIL e CobiT.

Na maioria das vezes as empresas precisam mapear processos e gerenciar projetos de melhoria para ajustar operações ao nível exigido para a aprovação.

O Sarbanes-Oxley Act (SOA) e os futuros requerimentos dos padrões internacionais de contabilidade (IAS) exigem das companhias um enfoque mais rigoroso em relação ao controle interno nos processos de auditoria.

Sem uma gestão apoiada em uma ferramenta de gestão integrada de sistemas e um sistema de trabalho / produção (processo) muito bem alinhado e enxuto, as empresas raramente conseguem enquadrar-se nos padrões mínimos de exigência.

Qual a melhor solução?

  • Implantar um sistema integrado como o SAP/R3 ou outros e ajustar a empresa ao novo sistema?
  • Desenvolver internamente um sistema ou integrar os sistemas atuais para se enquadrar aos processos da empresa?
Não existem regras. As duas respostas podem estar certas, a junção das duas ou nenhuma das duas, pois sua empresa pode atuar sem sistemas integrados (raramente), desde de que atenda a critérios rigorosos de gestão, que veremos mais à frente.

Para ser aprovado, é necessário demonstrar que o sistema oferece, entre outros requisitos os seguintes:

  • Produzir relatórios financeiros transparentes, informativos, exatos e oportunos;
  • Gerar confiabilidade de controle interno através trilhas de auditoria (controle sistêmico aplicado, auditado e documentado);
  • Informação atualizada até o último minuto para tomada rápida de decisão.

Na implantação acontecem então os atrasos. Rotinas excessivas, repetidas, erradas, ausentes, falta de controle de acesso, dificuldade de informação com rapidez e muito outros entraves atrapalham o andamento dos processos e geram gargalos na produção.

Então posso integrar meus sistemas e não colocar outro sistema em minha empresa? Sim pode, mas devem ser analisados vários fatores, como por exemplo:

  • Estratégia. Quanto é interessante para seu produto ou serviço ou sua imagem manter um sistema próprio?
  • Tempo. Em quanto tempo sua empresa pode implantar o sistema para se enquadrar nos modelos de governança? Implantar um sistema integrado e se ajustar a ele é mais rápido do que desenvolver? É preciso primeiro levantar processos e ajustar, para depois implantar?
  • Custo. Quanto mais dispendioso é comprar um sistema integrado equiparado a ajustar os sistemas atuais da empresa?
  • Operação. Quanto padronizada é sua operação, quanto personalizada é sua operação? Quanto mais padronização, maior a facilidade de implantação de um sistema integrado; quanto mais personalizada a operação, maior a dificuldade.

Diversos fatores cercam a implantação de sistemas integrados. Cada caso é um caso e profissionais especializados podem ajudar a analisar a situação de sua empresa com visão imparcial.

Uma coisa é certa - os sistemas integrados e os processos ajustados são garantia de melhoria, como demonstrado por vários cases de sucesso no Brasil e no mundo.

Fonte: http://webinsider.uol.com.br/
http://pt.wikipedia.org/wiki/ERP

sábado, 25 de agosto de 2007

Biochip - A Genotipagem do Futuro

Num futuro muito próximo o pediatra poderá dizer aos orgulhosos pais se o seu bebê é portador de qualquer deficiência genética, ou se a criança tem propensão para vir a sofrer de problemas tão vulgares como a gripe, o reumatismo ou mesmo o câncer. Os médicos terão igualmente a possibilidade de diagnosticar precocemente patologias do paciente, ou mesmo prevê-las, e aplicar terapias personalizadas que se ajustarão como uma luva ao perfil molecular do doente.

O protagonista desta verdadeira revolução biomédica é o microarray, biochip, ou chip de DNA, que será dentro em breve tão vulgar como uma radiografia, uma análise de urina ou um TAC.

Antes do biochip a medicina genética era quase artesanal e os avanços faziam-se passo a passo, gene a gene. Hoje, graças a este chip de DNA às ferramentas bioinformáticas é possível processar milhares de dados em poucos minutos e a um preço cada vez mais reduzido.


O processo é simples: no microarray são depositadas, de forma ordenada, milhares de sondas genéticas, fragmentos de DNA cuja seqüência é conhecida, e que são comparados de forma automática com as seqüências de fragmentos de DNA do paciente mediante um processo conhecido como genotipagem, e assim estudar a expressão genética (a síntese das proteínas) e os polimorfismos dos nucleótidos (SNPs), que são os elementos isolados de DNA que variam de pessoa para pessoa.

A indústria da biotecnologia está trabalhando em ritmo acelerado e são muitos os microarrays já concebidos. Por exemplo o CNIO lançou o Oncochip concebido para diagnosticar o câncer e que tem registrados 9300 genes presentes nos tumores mais freqüentes, a Lacer SA e a Progrenika-Medplant conceberam o Lipochip que diagnostica mesmo antes do aparecimento dos primeiros sintomas a Hipercolesterolémia Familiar, a Agendia comercializa o MammaPrint que analisa o risco de metástases do cancer da mama, a BioDoor Gene Technology criou o BiodoorHCV para o diagnóstico da Hepatite C, a Xeotron idealizou o XeoEx SARS que diagnostica a pneumonia atípica, a Dr. Chip Biotechnology desenvolveu o microarray Dr. Food Kit que detecta nove dos agentes patogênicos mais habituais na comida, e a Affymetrix, está desenvolvendo testes de toxicidade que possam demonstrar se um determinado medicamento tem ou não mais efeitos prejudiciais do que benéficos.

Graças aos chips genéticos e a incrível tecnologia que os envolve, o caminho rumo a uma medicina personalizada, baseada na informação genética, em que as doenças são substituídas pelos doentes, está se tornando uma realidade: para cada paciente o medicamento adequado e a dose exata.

E o único limite para a aplicação dos biochips é já hoje, claramente, a imaginação.

Fonte: http://wnews.uol.com.br/site/home/index.php

Hitman - Trailer Legendado


Sinopse: A adaptação cinematográfica do jogo “Hitman” é um dos filmes mais esperados do ano. O roteiro escrito por Skip Woods (“Swordfish – A Senha”) revela um pouco mais da história desse famoso herói do game criado pela Eidos. A sinopse oficial revela que o Agent 47 (Timothy Oliphant, do seriado "Deadwood") foi treinado para ser um assassino profissional, cujas mais poderosas armas são seus nervos e o orgulho resoluto de seu trabalho. 47 são os dois últimos dígitos de um código de barras tatuado em seu pescoço, e também seu único nome conhecido. O agente torna-se foragido após um confronto com policiais. Após esse fato, tanto a Interpol, quanto as forças armadas russas passam a caçar Hitman por toda a Europa Ocidental, e ele tentará descobrir quem está armando para ele e o porquê de quererem tirá-lo do jogo. Mas talvez a maior ameaça ao Agente 47 seja as oscilações de sua consciência e também lembranças desconfortáveis de uma misteriosa garota. Lembra algum filme com Matt Damon? Os jogos da saga "Hitman" venderam cerca de seis milhões de unidades em todo o mundo, com o último deles, "Hitman: Blood Money", vendendo mais de 1,4 milhões de cópias, ficando em primeiro lugar de vendas ao redor do mundo. A história do jogo é centrada em um assassino internacional conhecido como Agente 47 (Olyphant) que trabalha para uma misteriosa organização. Além de Olyphant, estão no elenco Dougray Scott ("Missão Impossível 2"), Kurylenko ("Paris Je T´aime"), Robert Kneeper (do seriado "Prison Break"), Ulrich Thomsen ("Festen") e Michael Offei ("007 - Cassino Royale"). O filme está sendo dirigido por Xavier Gens, com produção de Luc Besson ("Artur e Os Minimoys").

Fonte: http://www.cinemacomrapadura.com.br/

quinta-feira, 23 de agosto de 2007

Voce sabe categorizar os Notebooks ?

Antigamente, era comum que os portáteis fossem classificados em três categorias: laptops, notebooks e subnotebooks. Os laptops eram os modelos maiores, basicamente qualquer computador portátil o suficiente para que você pudesse colocá-lo no colo ("laptop" significa, literalmente, "no colo" ou "sobre o colo") e usá-lo com relativo conforto. O notebook seria um aparelho menor, aproximadamente do tamanho de um caderno universitário (os IBM Thinkpad antigos são um bom exemplo), enquanto os subnotebooks eram os portáteis ainda mais compactos, que frequentemente sacrificavam o drive óptico e utilizavam processadores de baixo consumo para atingir o objetivo.

A partir de um certo ponto, entretanto, cada vez mais fabricantes passaram a chamar seus portáteis de "notebooks", independentemente do tamanho. Com isso a designação tradicional deixou de fazer sentido, de forma que hoje em dia podemos dizer que os termos "laptop" e "notebook" tornaram-se sinônimos.

No lugar da classificação tradicional, os fabricantes passaram a usar os termos "Desktop replacement" (substituto para o desktop), "Thin-and-light" (leve e fino) e "Ultraportable" (ultraportátil).

Os desktop replacement são notebooks maiores, com tela de 15" ou mais (alguns chegam a usar telas de 21"!), desenvolvidos com o objetivo de serem confortáveis de usar sobre uma mesa e serem relativamente poderosos, sem tanta preocupação com a portabilidade ou com a autonomia das baterias.

Os thin-and-light já são modelos menores, com telas de 14" ou menos, desenvolvidos com o objetivo de serem mais portáteis. Em geral, os thin-and-light preservam um teclado de dimensões normais e continuam sendo confortáveis de usar, apesar da tela um pouco menor. O menor espaço interno limita um pouco a seleção de processadores, mas isto não chega a ser ruim, pois deixa de fora processadores muito gastadores como os mobile Pentium 4 e mobile Athlon 64.

Finalmente, temos os ultraportáteis, modelos com tela de 12" ou menos, que pesam menos de 1.7 kg. Para atingir esta marca, eles utilizam processadores de baixo consumo (e, consequentemente, de baixa frequência), teclados de dimensões reduzidas, drives ópticos miniaturizados (mais caros e difíceis de substituir em caso de defeito) ou drives externos e, em muitos casos, HDs de 1.8" ou drives de estado sólido, de memória flash.

Outro termo conhecido é o "desknote", que tem duplo sentido. Atualmente, o uso mais comum é em relação aos notebooks maiores, no lugar do termo "desktop replacement". Nesta conotação, um desknote é um notebook grande, pouco portável, feito para ser usado sobre a mesa.

Outra categoria é a dos tablet-PCs, onde o uso de uma tela touch-screen permite que você use o notebook como uma espécie de bloco de anotações, navegando entre as funções usando uma stylus e usando um teclado onscreen ou um sistema de reconhecimento de escrita para a entrada de informações.

A maioria dos modelos atuais são "conversíveis", ou seja, notebooks normais, onde você pode girar a tela touch-screen, fazendo com que ela se feche sobre o teclado. Desta forma, é possível usá-lo tanto como um notebook normal, como um tablet, de acordo com a situação.

Muitos fabricantes ainda usam o termo "subnotebook" para aparelhos ainda menores, com menos de 1.2 kg, mas atualmente a designação está caindo em desuso, cedendo espaço para os termos "UMPC" e "MID", que são as novas categorias de pesos leves.

UMPCs e MIDs

Os UMPCs e MIDs são dispositivos intermediários, que se enquadram entre os notebooks e dispositivos menores, como celulares e palmtops. Eles são mais portáteis que os notebooks, mas são muito mais poderosos que os palmtops e são equipados com processadores x86, o que garante a compatibilidade com os aplicativos destinados a micros PC.

Originalmente, a plataforma UMPC era um projeto desenvolvido por um conjunto de fabricantes, com destaque para a Intel e Microsoft. O interesse de ambos era óbvio: a Intel pretendia vender mais processadores e chipsets e a Microsoft queria vender mais cópias do Vista.

A idéia era boa: criar uma plataforma de PCs ultra-compactos, menores, mais leves e com uma maior autonomia que os notebooks, equipados com processadores dual-core, aceleração 3D, wireless e, opcionalmente, também a opção de se conectar à web via GPRS, EVDO ou outra tecnologia de rede celular. Com um UMPC, você teria um PC que poderia levar com você o tempo todo, carregando seus aplicativos e arquivos, que permitiria que você se conectasse à web ou assistisse vídeos em qualquer lugar. Apesar disso, plano não deu muito certo. Os poucos modelos disponíveis inicialmente eram muito caros e as vendas ínfimas, tornando a plataforma mais um objeto de curiosidade, do que uma alternativa real.

A Intel não desistiu de criar uma nova plataforma que se encaixe entre o notebook e o smartphone e seja capaz de reforçar suas vendas. Surgiu então o "Handtop" (ou MID).

MID é a abreviação de "Mobile Internet Device". A idéia central é oferecer um dispositivo portátil, baseado em um processador x86 que possa rodar um navegador, leitor de e-mail e comunicadores diversos. A principal diferença entre um MID e um UMPC é que o MID é baseado em um processador muito mais simples, possui menos memória e utiliza alguns poucos GB de memória flash no lugar do HD. A configuração mais fraca visa permitir o desenvolvimento de dispositivos mais baratos e ao mesmo tempo mais leves que os UMPCs.

Não existe um formato rígido a seguir. Os fabricantes podem criar produtos seguindo o conceito de "tablet", usado nos UMPCs, com uma tela touch-screen e um teclado retrátil ou onscreen, ou criar "mini-notebooks", com teclados completos e mouses touch-pad, porém mais leves que um notebook tradicional.

O primeiro projeto ambicioso de MID dentro do modelo proposto pela Intel é o Asus Eee, um projeto derivado do Intel ClassMate, porém destinado ao uso geral e não apenas dentro do ramo educacional. Além de ser bastante compacto e portátil, ele chama a atenção pelo preço, com a versão mais simples custando apenas US$ 200 (no EUA).

O Eee é baseado em uma versão de baixo consumo do Pentium-M, baseada no core Dothan (ele ainda não é baseado no Menlow, embora ele possa vir a ser utilizado nas próximas versões do Eee). O processador opera a 900 MHz e faz par com um chipset Intel 910 e 512 MB de RAM (DDR2).

Para cortar custos e reduzir o tamanho do aparelho, optaram por utilizar uma tela de apenas 7", com resolução de 800x480. Assim como no caso dos processadores, o preço das telas de LCD é diretamente relacionado ao tamanho. Isso faz com que a tela de 7 polegadas do Eee custe quase um oitavo do preço de uma tela de 19", como as usadas em monitores para desktops. Se calcularmos que hoje já é possível comprar um LCD de 19" (ou EUA) por menos de US$ 300, vemos que a tela usada no Eee pode ser muito barata se produzida em quantidade.

O Eee inclui também uma placa wireless, placa de rede, modem, som e portas USB como qualquer notebook. Ele usa uma bateria de quatro células (a maioria dos notes usa baterias de 6 células), mas devido ao baixo consumo geral, ela dura cerca de 3 horas.

O HD foi substituído por uma unidade de estado sólido de 4, 8 ou 16 GB (de acordo com o modelo). A memória flash caiu muito de preço nos últimos meses (já temos pendrives de 2 GB por menos de 70 reais, mesmo aqui no Brasil) de forma que, apesar da redução na capacidade, usar 8 ou mesmo 16 GB de memória flash já é mais barato do que usar um HD.

Como era de se esperar, o Eee roda uma distribuição Linux otimizada para o aparelho (baseada no Xandros). A proposta é que ele seja fácil de usar com foco no público geral, que quer um aparelho portátil para acessar a web e rodar aplicativos leves, dai o nome "Eee" (Easy to work, Easy to learn, Easy to play).

Ao contrário de um palmtop, que utiliza um processador ARM e um sistema operacional próprio, o Eee é um PC, de forma que nada impede que a distribuição Linux pré-instalada seja substituída por outra distribuição, ou até mesmo por alguma versão do Windows, desde que você consiga instalar o sistema através de um pendrive ou CD-ROM USB e seja capaz de configurar o sistema e otimizá-lo para rodar dentro das limitações do aparelho.

Fonte: http://www.guiadohardware.net/artigos/categorias-notebooks/

Finíssima e com Excelente Contraste


Foi divulgado no dia 22 no Japão um protótipo de uma TV LCD de 52 polegadas da Sharp. Esta TV de cristal líquido, além de uma excelente qualidade de imagem e um nível de contraste de 100.000 por 1, possui uma espessura de apenas 20 milímetros na região do display, e pesa aproximadamente 25 kg, muito leve para uma TV com tantas polegadas.

Esta TV impresionou muito aos espectadores presentes no evento. O único problema é que, de acordo com o Crunch Gear, esta TV da Sharp não entrará em fase de produção até o ano de 2010.

Fonte: http://www.antenando.com.br/tecnologia/

quarta-feira, 22 de agosto de 2007

O Projeto Manhattan

Os rumores de que a Alemanha estava construindo uma bomba atômica preocupavam o governo norte-americano em 1941. O assessor do presidente Roosevelt para assuntos científicos sugeriu no dia 9 de outubro ao chefe de governo que incentivasse os projetos para a construção de uma bomba nuclear: o secreto Projeto Manhattan.

No final de 1938, o químico Otto Hahn fez uma descoberta curiosa em Berlim: em amostras de urânio que ele tinha bombardeado com nêutrons, surgiram impurezas químicas com bário.

Ele pediu ajuda a uma colega de longa data, Lise Meitner, que havia deixado a Alemanha nazista poucos meses antes. Ela resolveu o quebra-cabeças: os núcleos de urânio foram divididos em duas partes iguais – em núcleos de bário. De acordo com a fórmula E=mc2, tal processo tinha de liberar enorme quantidade de energia.

Quando esse resultado de pesquisa foi divulgado, todos os físicos entenderam imediatamente: a chamada fissão nuclear era a chave para uma produção infinda de energia, mas também para uma arma terrível – a bomba atômica.

Na Alemanha, um dos primeiros a reconhecer o potencial existente na fissão nuclear foi o físico Werner Heisenberg. E ele recebeu de Goebbels o sinal verde para iniciar maiores pesquisas.

Em outras partes do mundo, os políticos não perceberam o perigo que poderia surgir de tal arma, principalmente nas mãos dos nazistas. Houve uma famosa carta de advertência de Einstein ao presidente norte-americano Roosevelt. A carta não suscitou maior interesse, apesar da reação cortês.

No verão europeu de 1941, correu nos EUA o boato de que os alemães estariam fazendo pesquisas intensas para a produção de uma bomba de urânio. Muitos cientistas consideravam o assunto mera ficção, mas o assessor científico do presidente, Vannevar Bush, deu sinal de alarme.

Ele classificou o planejamento e a construção de uma bomba de urânio, apesar de todas as incertezas e de todo o ceticismo, como relevante para a guerra. E recomendou ao presidente, no dia 9 de outubro de 1941, levar o projeto adiante com todos os recursos possíveis.

Os custos foram avaliados em 133 milhões de dólares. O plano recebeu o codinome de Projeto Manhattan, pois importantes trabalhos preliminares haviam sido feitos na Universidade de Columbia, no bairro nova-iorquino Manhattan.

O projeto só foi levado adiante com grande elã depois do bombardeio de Pearl Harbour e da conseqüente entrada dos Estados Unidos na guerra. A chefia do projeto foi entregue então ao general Leslie Groves, um homem capaz de impor-se, um verdadeiro gênio na organização de grandes projetos.

Ele resumiu da seguinte maneira os objetivos do Projeto Manhattan: "Construir uma bomba atômica o mais rápido possível e terminar assim com a guerra". Ele foi o primeiro a compreender que o trabalho dos cientistas era naturalmente decisivo para o projeto, mas que o projeto em seu todo não poderia ser puramente científico: ele exigia um enorme empreendimento industrial.

O projeto era, de fato, muito amplo: no final, existiam diversas instalações para a obtenção de urânio e plutônio. As mais importantes estavam localizadas em Hanford (no Estado de Washington), em Oak Ridge (Tennessee) e em Los Alamos (Novo México). Ao lado de várias centenas de cientistas, mais de meio milhão de pessoas trabalharam de uma ou outra maneira para o projeto, no correr dos anos. No auge dos trabalhos, no verão setentrional de 1944, um total de 160 mil pessoas ocupava-se do empreendimento.

A manutenção do segredo foi perfeita. Ninguém fez uma ligação direta entre as instalações de produção, distantes umas das outras. E até o final da guerra ninguém no Congresso ficou sabendo da existência do projeto.

Através de uma camuflagem bem feita em diversos itens do orçamento público, conseguiu-se obter verbas cada vez maiores, que eram necessárias para a continuação do projeto. Já no final de 1942, haviam sido gastos quase 500 milhões de dólares. Originalmente, os custos haviam sido calculados em um terço disto. Até o final da guerra, os custos totais chegaram a dois bilhões de dólares.

Estas enormes verbas tiveram, na opinião de alguns historiadores, uma conseqüência própria: a liderança política dos EUA não podia mais interromper o projeto. Ele tinha de ser levado até o final, com a obtenção de êxito. E o êxito significava, neste caso, o emprego da bomba.

Existem especulações verossímeis, segundo as quais os norte-americanos teriam até mesmo protelado a capitulação dos japoneses com o intuito de utilizar a bomba. Sendo verdade, o Projeto Manhattan teria então prolongado a guerra, ao invés de encurtá-la.

Fonte: http://www.dw-world.de/

terça-feira, 21 de agosto de 2007

Robôs nos lares em 30 anos


Pesquisadores japoneses trabalham para tornar realidade uma sociedade na qual os robôs convivam com os seres humanos e realizem tarefas simples no lar, como acender a luz, carregar as compras e fazer a limpeza.

O grande desenvolvimento tecnológico e a descoberta de novos materiais de construção permitirão que, dentro de apenas algumas décadas, haja robôs capazes de entender, analisar e realizar tarefas rotineiras, para tornar o dia-a-dia mais fácil. "Em 20 ou 30 anos os andróides estarão preparados para realizar tarefas úteis ao ser humano", afirmou Shu Ishiguro, da empresa japonesa Robot Laboratory.

O Japão conta com cerca de quatro mil pesquisadores no campo da robótica, que trabalham na melhora dos sistemas de produção industrial, embora cada vez haja mais dispositivos voltados para o uso da sociedade.

Em 2005, foram produzidos 108 mil robôs no Japão no valor de US$ 5,5 bilhões, embora os analistas estimem que o volume de negócio interno alcançará US$ 67,8 bilhões em 2025. Ishiguro não hesita em afirmar que "o Japão lidera a pesquisa mundial do setor" mas afirma que, "hoje em dia, os objetivos da robótica passam pela aplicação da tecnologia às máquinas existentes, como carros ou eletrodomésticos".

Uma das áreas da robótica mais avançadas no país é a destinada a máquinas de resgate de pessoas em situações extremas, como um grande terremoto, e existem protótipos em forma de serpente e lagarta que estariam à disposição das equipes de salvamento em apenas dois anos.

Uma das tarefas mais importantes dos cientistas japoneses no momento é aperfeiçoar o processamento de dados obtidos de sensores visuais e sonoros.

"Vão se passar anos até que as máquinas entendam o ser humano em uma conversa normal e reajam em conseqüência", afirma. No entanto, assim que este nível for alcançado, o caminho em direção a um robô de companhia ou doméstico será mais simples.

O andróide poderia se transformar em um computador central do lar, conectado à internet e a dispositivos eletrônicos da casa que funcionariam em rede, e responderia às ordens do dono para colocar uma música ou carregar as compras, por exemplo.

Além do robô doméstico, a tecnologia abriria caminhos para carros com piloto automático, capazes de transportar o passageiro ao destino desejado sem que ninguém conduza o veículo.

"Tecnologicamente, isto seria possível em cinco anos, mas existem inconvenientes legais, como em caso de acidente. Quem seria o responsável? O passageiro ou o fabricante do automóvel?".

Fonte: http://g1.globo.com/Noticias/Tecnologia/

TV de Plasma ou LCD ?

Foto: Editoria de arte G1
Tecnicamente, a diferença fundamental entre os dois tipos de tela é que as de plasma emitem luz individualmente em cada ponto da tela, graças a “células” de gás neon e xenônio, enquanto o brilho de uma TV de LCD depende do famoso “backlight”, uma fonte de iluminação posicionada atrás da tela e que consome mais energia que o próprio painel. Quem tem um Palm ou equivalente sabe o que é isso: sem o backlight, o LCD torna-se bem difícil de enxergar.

Em ambos os casos, cada pontinho da tela, ou pixel (contração de picture element, como nas fotos digitais), é composto por três “subpixels” agrupados: um vermelho, um verde e um azul, as componentes do sistema RGB (red, green, blue). Nos LCDs, o cristal líquido que lhe dá o nome (LCD=Liquid Crystal Display) controla a passagem de luz – ambiente, nos reflexivos, do backlight, nos transmissivos, e ambas, nos transflectivos – em cada um dos subpixels.

No estado atual de desenvolvimento, cada tecnologia tem prós e contras bem definidos. A começar pelo preço, que nas telas maiores está bem mais favorável aos plasmas do que aos LCDs. É só pesquisar nos anúncios: um LCD de 32 polegadas custa mais ou menos o mesmo que um plasma de 42. É que, tradicionalmente, a produção de LCDs grandes provoca muito desperdício – mas a diferença está diminuindo aos poucos. Se você fizer questão de uma tela de mais de 45 polegadas, melhor esquecer o LCD por enquanto.

Por outro lado, se esquecermos o custo inicial, o LCD pode ser mais econômico a longo prazo. Primeiro, porque consome menos energia do que o plasma – a diferença entre um LCD de 40 polegadas e um plasma de 42 pode chegar a 26%, segundo testes realizados pelo site especializado Call for Help. O curioso é que a diferença varia de acordo com a imagem, pois o LCD tem consumo constante enquanto o plasma gasta mais para exibir cenas claras do que para as escuras.

Mas o mais grave nem é isso: o plasma tem manutenção mais cara e está sujeito ao temido efeito “burn-in”, que pode “queimar” na tela imagens estáticas exibidas por muito tempo, como as logomarcas das emissoras de TV ou a interface gráfica dos games, para quem joga na TV. Os plasmas mais novos têm recursos para reduzir o problema, seja deslocando levemente essas imagens de tempos em tempos ou acionando freqüentemente um protetor de tela, seja por meio de um comando que pinta a tela toda de cores sólidas para “limpar” as sujeiras deixadas pela programação normal.

O plasma recupera a vantagem no quesito ângulo de visão. Como sabe qualquer um que já tenha tentado bisbilhotar o trabalho de um companheiro de viagem de avião no notebook dele, olhar para uma tela de LCD em diagonal não dá resultados muito bons. Para um monitor de computador isso não importa tanto, pois costumamos estar diretamente à frente dele. Já numa TV, que deve ser vista por gente nas duas pontas do sofá, isso pode se tornar um problema. Os LCDs modernos melhoraram muito, mas é bom conferir o ângulo de visão nas especificações ou numa loja antes de comprar.

Os plasmas também saem na frente no contraste (apesar de os números divulgados por alguns fabricantes serem altamente questionáveis, às vezes medidos sem a camada frontal de vidro da televisão) e produzem pretos mais pretos que os do LCD, meio acinzentados. Os LCDs costumam ter mais brilho que os plasmas, tornando-se mais adequados para ambientes muito claros, mas de modo geral, a reprodução de cores dos plasmas é mais ampla e precisa.

Já quando o assunto é resolução, a definição das imagens na tela, a vantagem passa para os LCDs. Sua tecnologia, a mesma dos monitores de computador (os fininhos, claro), é capaz de exibir muito mais pontinhos e com maior precisão. Em parte por conta disso, as TVs de LCD atualmente disponíveis são quase todas prontas para a televisão de alta-definição (HDTV), enquanto os plasmas mais baratos, por mais que se digam “preparados para HDTV” não são capazes de atingir a resolução que as transmissões do futuro prevêem. Em muitos casos, “preparados” significa apenas que conseguirão converter os sinais de HDTV para a resolução (inferior) que conseguem exibir.

Fonte: http://wnews.uol.com.br/
http://g1.globo.com/Noticias/Tecnologia/0,,MUL23855-6174-6181,00.html

segunda-feira, 20 de agosto de 2007

Você conhece o Paradoxo do Avô ?


As várias teorias sobre viagens no tempo esbarram numa impossibilidade lógica: o que aconteceria se alguém voltasse ao passado e matasse o próprio avô antes que tivesse filhos? Nesse caso, o viajante não poderia ter nascido nem voltado no tempo para matar o avô. Chama-se a isso o paradoxo do avô. O cientista americano Kip Thorne, do Instituto de Tecnologia da Califórnia, acha que encontrou uma solução lógica para o paradoxo do avô. Segundo ele, os cálculos matemáticos demonstram que alguém que sai do presente e volta para o passado nunca poderia estar em posição de interferir no futuro. Ele jamais encontraria o avô ou, se o encontrasse e o desafiasse para um duelo, erraria o tiro. Avô e neto seriam como ímãs que se repelem.


Há quatro anos, o físico inglês Stephen W. Hawking chegou à conclusão de que a viagem no tempo era possível. Antes, considerava tal idéia uma agressão ao senso lógico e, por isso, impossível. A questão que o atormentava era o que se convencionou chamar de paradoxo do avô. Se alguém conseguisse viajar ao passado e matar o próprio avô antes que ele tivesse filhos, esse viajante não poderia ter nascido – e muito menos ter voltado no tempo para matar o avô. Três cientistas do Instituto de Tecnologia da Califórnia, liderados pelo físico Kip Thorne, acreditam ter resolvido a questão. Eles transportaram o paradoxo para o jogo de bilhar: se uma bola fosse lançada pelo taco numa caçapa que fosse a entrada de uma máquina do tempo e voltasse à mesa segundos antes da jogada, poderia colidir com ela própria e impedir que caísse no buraco. Depois de se debruçarem durante meses em intrincados cálculos matemáticos, os físicos concluíram que, ao voltar à mesa, a bola poderia apenas resvalar em si própria, alterando sua trajetória, mas ainda assim caindo novamente na caçapa. "A experiência sugere que as leis da física favorecem a construção de uma máquina do tempo", escreveu Kip Thorne.

E quanto ao assassinato do avô? No universo bem organizado da física, isso seria um paradoxo e, portanto, não deve ser possível. Como dois ímãs que se repelem, neto e avô jamais se encontrariam. A solução do paradoxo do avô não pode nem precisaria ser demonstrada em termos práticos, pois a principal ferramenta da física teórica é o raciocínio lógico. Foi assim, apenas observando o mundo, que Albert Einstein descobriu que o tempo e o espaço não eram como os cientistas até então pensavam. A viagem no tempo é estudada com persistência por cientistas dos principais centros de pesquisa. Para eles, embora a invenção de um mecanismo que permita a alguém se deslocar no tempo ainda esbarre em problemas logísticos de toda ordem, viajar ao passado ou ao futuro é, em teoria, perfeitamente possível. Há dois meses, alguns desses estudiosos se encontraram para discutir experiências no Instituto de Tecnologia de Massachusetts, uma das catedrais da ciência e da tecnologia nos Estados Unidos. O que move esses cientistas não é exatamente a perspectiva de mandar alguém ao passado como se enviam astronautas ao espaço. Suas pesquisas abrem novos horizontes nos estudos sobre o tempo, que podem elucidar questões fundamentais como a origem do universo ou a composição dos buracos negros do cosmo. "As viagens no tempo são úteis principalmente como experiências de pensamento. São ferramentas para explorar profundamente a relatividade e extrair visões esclarecedoras sobre a natureza do tempo e do espaço", disse a VEJA o físico Francisco Lobo, da Universidade de Lisboa, especialista em relatividade.

A maioria dos cientistas, inclusive Albert Einstein, sempre resistiu à idéia de viagens no tempo. Isso até que, em 1988, o mesmo Kip Thorne, que desvendou o paradoxo do avô, publicou dois estudos concluindo que as leis da física, em teoria, sustentam as viagens no tempo através dos chamados buracos de minhoca, túneis que se supõe existirem no cosmo, gerados pelo Big Bang, e que servem como atalho entre pontos distantes do universo. Curiosamente, Thorne começou a montar a teoria dos buracos de minhoca como máquinas do tempo com base na ficção científica. Quando escrevia o romance Contato, o astrônomo Carl Sagan (1934-1996), da Universidade Cornell, esbarrou num problema: como fazer a heroína Ellie Arroway, vivida no cinema por Jodie Foster, atravessar distâncias imensuráveis na Via Láctea? Sagan consultou Thorne. A resposta: a heroína deveria atravessar um buraco de minhoca.


Ninguém jamais viu um buraco de minhoca, mas a teoria da relatividade de Einstein dá aos físicos a confiança de que, se um dia toparmos com uma dessas bizarras estruturas, poderemos usá-la como máquina do tempo. Antes de Einstein, seguindo as leis de Isaac Newton, os físicos encaravam o tempo como algo absoluto e universal – um segundo é sempre um segundo, tanto para um motorista parado no engarrafamento quanto para um astronauta viajando a 27.000 quilômetros por hora no ônibus espacial. Na teoria da relatividade, Einstein rompeu com esse senso comum e demonstrou que o tempo varia conforme a velocidade em que se encontra o observador. Quanto mais rápido alguém viaja, mais longo fica cada segundo, em comparação a quem ficou parado. Esse seria o fundamento usado na construção de uma máquina do tempo. Em teoria, bastaria encontrar um buraco de minhoca, deixar uma das bocas parada perto da Terra e fazer a outra boca viajar muito rápido, a uma velocidade próxima à da luz, para criar uma defasagem de tempo entre a entrada e a saída do túnel. Não é exatamente fácil montar uma máquina do tempo. Além da dificuldade de achar buracos de minhoca, nossa tecnologia não é capaz de construir uma nave que possa arrastar a boca do túnel cosmo afora – ainda mais a uma velocidade próxima à da luz. Mas isso, para a ciência, é mero detalhe. Como escreveu Stephen Hawking, "ainda que a viagem no tempo se mostre impossível, é importante entendermos por que ela é impossível".

Fonte: http://www.adur-rj.org.br/

sábado, 18 de agosto de 2007

Realidade Virtual ao seu alcance - iPlane




O conceito Realidade Virtual já é uma meta praticamente alcançada pelo pessoal da MetaMersion após o lançamento do seu brilhante Immersive Gaming System (ver video 1). Mas caso você queira se esquivar da probabilidade de dar de cara em uma parede (de verdade), a Virtual Space Devices parece ter encontrado uma solução para o nariz quebrado após a jogatina (ver video 2)!

A ODT ( Omni-Directional Treadmill) nada mais é do que uma grande esteira multi-direcional, que possui um inteligente sistema para deixá-lo correr atrás do inimigo sem sair (fisicamente) do lugar.

Inicialmente, a esteira ODT foi utilizada pelas forças armadas dos Estados unidos, e durante 10 anos, esta tecnologia foi se aprimorando para desenvolver uma alta-sensibilidade capaz de deixá-lo caminhar naturalmente em qualquer direção.

A união do sistema ODT com a tecnologia desenvolvida pela Metamersion, é nitidamente a peça final para tornar nossa tão sonhada realidade virtual ainda mais interativa (e real)! Mas infelizmente, este é um feito que vamos conferir apenas na próxima geração do dispositivo, que levará o nome de iPlane.

Vamos torcer para que seja disponível em breve uma plataforma integrada contando com o melhor do DeathMatch!

Fonte: http://www.antenando.com.br/tecnologia/

sexta-feira, 17 de agosto de 2007

Acessibilidade - Como vencer esta Barreira ?



A expressão “acessibilidade”, presente em diversas áreas de atividade, tem também na informática um importante significado.

Representa para o nosso usuário não só o direito de acessar a rede de informações, mas também o direito de eliminação de barreiras arquitetônicas, de disponibilidade de comunicação, de acesso físico, de equipamentos e programas adequados, de conteúdo e apresentação da informação em formatos alternativos.

Não é fácil, a princípio, avaliar a importância dessa temática associada à concepção de páginas para a web. Mas os dados W3C (Consórcio para a WEB) e WAI (Iniciativa para a Acessibilidade na Rede) apontam situações e características diversas que o usuário pode apresentar:

  1. Incapacidade de ver, ouvir ou deslocar-se, ou grande dificuldade - quando não a impossibilidade - de interpretar certos tipos de informação.
  2. Dificuldade visual para ler ou compreender textos.
  3. Incapacidade para usar o teclado ou o mouse, ou não dispor deles.
  4. Insuficiência de quadros, apresentando apenas texto ou dimensões reduzidas, ou uma ligação muito lenta à Internet.
  5. Dificuldade para falar ou compreender, fluentemente, a língua em que o documento foi escrito.
  6. Ocupação dos olhos, ouvidos ou mãos, por exemplo, ao volante a caminho do emprego, ou no trabalho em ambiente barulhento.
  7. Desatualização, pelo uso de navegador com versão muito antiga, ou navegador completamente diferente dos habituais, ou por voz ou sistema operacional menos difundido.

Essas diferentes situações e características precisam ser levadas em conta pelos criadores de conteúdo durante a concepção de uma página.

Para ser realmente potencializador da acessibilidade, cada projeto de página deve proporcionar respostas simultâneas a vários grupos de incapacidade ou deficiência e, por extensão, ao universo de usuários da web.

Os autores de páginas em HTML obtêm um maior domínio sobre as páginas criadas, por exemplo, com a utilização e divisão de folhas de estilo para controle de tipos de letra, e eliminação do elemento FONT.

Assim, além de torná-las mais acessíveis a pessoas com problemas de visão, reduzem seu tempo de transferência, em benefício da totalidade dos usuários.

Fonte: http://www.acessobrasil.org.br/index.php?itemid=45

quinta-feira, 16 de agosto de 2007

O que é XML ?

XML é a abreviação de EXtensible Markup Language (Linguagem extensível de formatação). Trata-se de uma linguagem que é considerada uma grande evolução na internet. Porém, para quem não é programador ou não trabalha com o uso de linguagens e ferramentas para a Web, é quase imperceptível as vantagens do XML.

O XML é uma especificação técnica desenvolvida pela W3C (World Wide Web Consortium - entidade responsável pela definição da área gráfica da internet), para superar as limitações do HTML, que é o padrão das páginas da Web.

A linguagem XML é definida como o formato universal para dados estruturados na Web. Esses dados consistem em tabelas, desenhos, parâmetros de configuração, etc. A linguagem então trata de definir regras que permitem escrever esses documentos de forma que sejam adequadamente visíveis ao computador.

Diferenças entre o HTML e o XML

O HTML e o XML tem lá suas semelhanças, sendo a principal o fato de utilizar tags (palavras-chaves e parâmetros). Em ambas as linguagens, cada tag consiste em duas partes, uma que inicia e outra que fecha o comando. No entanto, em muitos casos, se uma tag é aberta no HTML e não é fechada, a página é exibida mesmo assim. Já no XML, se houver qualquer erro desse tipo, a aplicação simplesmente pára. Percebe-se com esse exemplo, que o HTML é uma linguagem mais tolerante, enquanto o XML é altamente rígido. Isso pode até parecer uma desvantagem, mas se for, é compensada pela extensibilidade do XML. Para um melhor entendimento, veja o seguinte fato: no HTML, a tag

indica o início e o fim de um parágrafo. No XML, as tags são usadas para definir blocos de dados. O que isso quer dizer? Quer dizer que,

podem significar qualquer coisa que o programador desejar. Por exemplo,

podem significar peso, pessoa, nome, endereço, classe, carro, enfim, o que o usuário quiser que represente. Por essa característica, o XML é até considerado por muitos uma linguagem capaz de gerar outras linguagens, visto que quem define os comandos e suas funções é o programador. A praticidade é tanta que torna-se possível um usuário criar uma coleção própria de tags e aplicá-las nas páginas e documentos que desejar.

DTD

Você pode estar se perguntando: se cada usuário pode criar sua própria linguagem, não seria uma grande confusão usá-la, uma vez que só o criador conhece a linguagem? Não. Quando o programador utiliza suas próprias tags, é adicionado ao arquivo uma espécie de glossário, chamado de DTD (Document Type Definition). No DTD é possível definir, por exemplo, que na tag existam mais 4 tags: <>, <>, <> e <>. Além do DTD, há também o XML Schema, que tem a mesma função, porém conta com mais recursos.

Veja um exemplo de código para que você entender o melhor o XML.

O exemplo acima não mostra nem um décimo da capacidade do XML, mas permite visualizar a sua importância, principalmente porque empresas e instituições poderão usar a linguagem conforme sua necessidade. Entre as funções principais do XML, tem-se:

  • Descrever dados;
  • Apresentar dados em algum formato, como HTML;
  • Transportar dados;
  • Trocar dados de forma transparente entre plataformas diferentes.

A extensibilidade do XML é tanta, que muitas corporações vêm adicionando funções XML em seus produtos, como a Microsoft, Oracle, IBM, Google e Sun. É uma linguagem que tende a alcançar um sucesso cada vez maior, não só no segmento de comércio eletrônico, como vem acontecendo, mas em praticamente todas as áreas da Web.

Fonte: http://www.infowester.com/lingxml.php

O que é DivX ?

A internet deixou de ser apenas um meio que fornece recursos baseados em textos e imagens para também oferecer conteúdo em vídeo e áudio. Uma das tecnologias que participam dessa evolução é o DivX e outros formatos semelhantes, como o XviD e o Matroska.

O DivX é um formato que permite diminuir o espaço em disco de um vídeo sem que este tenha perda significativa de qualidade. Com isso, um vídeo de um DVD (que tem em média 4,6 GB de tamanho) pode ser compactado em DivX para caber em um CD de 650/700 MB. Esse formato também permite que a qualidade do áudio seja mantida ou permaneça em um estado satisfatório.

Basicamente, o DivX é formado por dois softwares: um é o DeCSS, usado na extração de conteúdo, que permite quebrar a encriptação que impede que arquivos em DVD sejam copiados para o computador. O outro é uma versão de um software feito pela Microsoft do MPEG-4 (codec avi), sistema padrão de compressão de vídeo embutido no Windows Media Tools. É por causa disso que os filmes em DivX podem ser encontrados com a extensão .avi

Na verdade, somente as versões iniciais usavam o MPEG-4 da Microsoft. Tempos depois uma versão desse padrão foi desenvolvida de maneira totalmente independente e por essa razão foi incorporada às versões mais recentes do DivX.

Para executar vídeos em DivX em um computador ou em um tocador de vídeo (como aparelhos de DVD) é necessária a instalação de um codec DivX. O que é codec? É a abreviação de "COder/DECoder", um tipo de software responsável por interpretar um formato de vídeo ou áudio e exibí-los em um programa apropriado.

Você deve ter se perguntado como o formato DivX consegue compactar tanto um vídeo mantendo o mínimo de qualidade. Isso é feito graças a um algoritmo que identifica as partes movimentadas da imagem e as partes estáticas. As partes movimentadas recebem maior taxa de atualização do que as partes paradas. Os trechos movimentados são então posicionados de forma que só aquela parte receba atualização alta, enquanto o restante da imagem permanece com essa taxa em baixo valor. No vídeo original, toda a imagem, independente de ser estática ou não, recebe atualização, aumentando consideravelmente seu tamanho.

No caso do áudio, este é tratado separadamente para que também seja compactado e pode ter partes inaudíveis aos ouvidos humanos (como ocorre no formato MP3) retiradas. Além disso, o áudio também pode ser priorizado apenas nas cenas mais movimentadas. O DivX então sincroniza o vídeo e o áudio resultante e, no final, tem-se um vídeo compactado.

Outros formatos semelhantes

XviD: o formato XviD é muito parecido com o DivX (você ter imaginado isso pelo nome), porém se diferencia deste por se tratar de um projeto de software livre (o DivX contém recursos proprietários). Seu algoritmo de compressão é diferente do usado pelo DivX e pode ter qualidade igual ou melhor que este, dependendo do vídeo. Hoje em dia é recomendável ter codecs instalados para os dois formatos. Mais informações sobre o XviD no site oficial: www.xvid.org;

Matroska: o Matroska, na verdade, não é um codec de vídeo, mas sim um contêiner que permite inserir em um único arquivo uma combinação de vídeo, áudio e legendas. Assim, pode-se combinar, por exemplo, um filme em DivX com um pacote de legendas. Com isso, o usuário pode escolher o idioma que quiser para ver o filme. Como o Matroska também pode trabalhar somente com áudio, há duas extensões para seus arquivos: MKV (Matroska Video) e MKA (Matroska Audio), por exemplo, infowester.mkv e infowester.mka, respectivamente. O Matroska também é um projeto de software livre. O endereço de seu site oficial é www.matroska.org.

Como executar vídeos em DivX ?

Para rodar vídeos em DivX (ou em XviD ou, ainda, em Matroska) é necessário instalar os codecs correspondentes para seu sistema operacional e um programa para exibir os filmes.

Para isso, é necessário um computador com, no mínimo, um Pentium II de 350 MHz, 64 MB de memória RAM, placa de som, CD-ROM de pelo menos 32x e placa de vídeo com no mínimo 8 MB de memória. Computadores com placas de vídeo com aceleração gráfica 3D têm resultado simplesmente excelente!

Quanto aos programas para execução dos vídeos nos formatos em questão, opções não faltam. Para o Windows existe o BSPlayer, Winamp, VLC, entre muitos outros. Para Linux está disponível o MPlayer, Xine, XMovie, etc.

Para o desespero dos estúdios de Hollywood, a distribuição de vídeos pela internet se tornou uma febre e o formato DivX tem sua parcela de culpa nisso, afinal facilitou a disseminação de filmes por permitir arquivos menores mantendo uma qualidade satisfatória de imagem. Mas o DivX também permite digitalizar aquelas filmagens de família ou filmes antigos que estavam se perdendo em fitas VHS. Isso indica que esse formato ainda vai durar muito.

Fonte: http://www.infowester.com/divx.php

sábado, 11 de agosto de 2007

O Ultimato Bourne - Legendado

Sinopse: Em "A Identidade Bourne", filme de 2002, ele tentou descobrir quem era. Em "A Supremacia Bourne", de 2004, ele se vingou do que lhe fizeram. Agora, em "O Ultimato Bourne", ele volta para casa e se lembra de tudo. Bourne é um homem que vive sem país e sem passado após ter sido submetido a um treinamento brutal, do qual não lembra, por pessoas que ele não identifica. Ele se transformou numa sofisticada arma humana — e também o alvo mais difícil da CIA até hoje. Desde que foi encontrado boiando no Mediterrâneo, na costa da Itália, há vários anos, Jason Bourne continua sua busca desesperada em saber quem é e descobrir quem o ensinou a matar. Depois que sua mulher, Marie, foi assassinada, ele só pensou em vingança — e, ao realizá-la, decidiu desaparecer para sempre e esquecer a vida que lhe foi roubada. Mas uma matéria de primeira página num jornal londrino que especula sobre sua existência põe fim a esse desejo, e ele se vê novamente como alvo. Treadstone, o programa ultra-secreto que criou esse superassassino, não existe mais, mas foi reinventado pelo Departamento de Defesa sob o nome de Blackbriar, e agora conta com uma nova geração de matadores secretamente treinados à disposição do governo. Para eles, Bourne é uma ameaça descontrolada de US$ 30 milhões que deve ser eliminada de uma vez por todas. Para Bourne, eles são a única ligação com uma vida que ele tentou, em vão, esquecer. Agora é o fim da linha. Dessa vez, ele está decidido que nada o deterá: nem as promessas vazias de seus ex-chefes nem as mortes dos que o perseguem incansavelmente. Com nada mais a perder, Jason Bourne usará toda a habilidade que lhe foi ensinada para ir atrás de seus criadores e acabar com tudo.

Fonte: http://www.cinemacomrapadura.com.br/

O que é Heurística ?


As heurísticas foram consideradas durante muito tempo modelos cognitivos por excelência, elas constituem-se como regras baseadas na experiência e no planejamento substituindo as anteriores baseadas na procura algorítmica que chega às soluções corretas depois de ter combinado o problema com todas as soluções possíveis. Os métodos heurísticos procuram um grau tão grande quanto possível de uma ação a uma situação. Assim ela engloba estratégias, procedimentos, métodos de aproximação tentativa/erro, sempre na procura da melhor forma de chegar a um determinado fim. Os processos heurísticos exigem muitas vezes menos tempo que os processos algorítmicos, aproximam-se mais da forma como o ser humano raciocina e chega às resoluções dos problemas, e garantem soluções eficientes.

As pesquisas por heurísticas é uma pesquisa realizada por meio da quantificação de proximidade a um determinado objetivo. Diz-se que se tem uma boa (ou alta) heurística se o objeto de avaliação está muito próximo do objetivo; diz-se de má (ou baixa) heurística se o objeto avaliado estiver muito longe do objetivo. Etimologicamente a palavra heurística vem da palavra grega Heuriskein, que significa descobrir (e que deu origem também ao termo Eureca).

Um algoritmo aproximativo (ou algoritmo de aproximação) é heurístico, ou seja, utiliza informação e intuição a respeito da instância do problema e da sua estrutura para resolvê-lo de forma rápida.

Entretanto, nem todo algoritmo heurístico é aproximativo, ou seja, nem toda heurística tem uma razão de qualidade comprovada matematicamente ou prova formal de convergência. Por este motivo, em várias referências bibliográficas distingue-se os termos algoritmo aproximativo e heurística:

Aproximativo é a denominação do algoritmo que fornece soluções dentro de um limite de qualidade absoluto ou assintótico, assim como um limite assintótico polinomial de complexidade (pior caso) comprovado matematicamente;

Heurística e método heurístico são denominações para o algoritmo que fornece soluções sem um limite formal de qualidade, tipicamente avaliado empiricamente em termos de complexidade (média) e qualidade das soluções.

A heurística é um conjunto de regras e métodos que conduzem à descoberta, à invenção e à resolução de problemas. Também é uma ciência auxiliar da História que estuda a pesquisa das fontes.

Abordagens Heurísticas

  • Se não puder compreender um problema, monte um esquema;
  • Se não puder encontrar a solução, tente fazer um mecanismo inverso para tentar chegar à solução (engenharia reversa);
  • Se o problema for abstrato, tente propor o mesmo problema num exemplo concreto;
  • Tente abordar primeiro um problema mais geral (o paradoxo do inventor: o propósito mais ambicioso é o que tem mais possibilidade de sucesso).

Técnicas das empresas de antivírus

Nos últimos anos, as empresas de antivírus precisaram se esforçar ao máximo para criar novas tecnologias de detecção de vírus. Os antivírus dos anos 80/90 utilizavam técnicas muito diferentes dos atuais. Um exemplo é o modo como são pesquisados os arquivos. Antes, o espaço em disco era limitado a 32 MB, e isso forçava o usuário a possuir poucos dados. Com isto, os antivírus não tinham tanta preocupação em otimizar suas pesquisas, pois rapidamente faziam uma pesquisa completa no HD. Outra peculiaridade era que a contaminação de arquivos estava limitada a poucos tipos de arquivos, tais como .COM e .EXE, e outros poucos métodos de infecção, como o boot e o MBR.

A evolução foi inevitável. Os discos passaram a suportar dezenas de gigabytes, e diversos outros formatos de arquivos puderam ser vítimas de infecções como, por exemplo, .DOC, .XLS, .VBS, etc. Isto fez com que os antivírus mudassem radicalmente os métodos de pesquisa, já que precisariam melhorar a performance e dar suporte a identificação e remoção de vírus em diversos formatos de arquivos. Um exemplo simples de otimização foi a necessidade de separar os tipos de vírus e os tipos de infecções, pois não existe necessidade, por exemplo, de um vírus que infecta arquivos .EXE ser procurado em arquivos do Word ou Excel, e vice-versa.

Atualmente, a maioria dos vírus ainda é detectada através de assinaturas binárias - pequenos blocos de dados utilizados para identificar um determinado vírus. Entretanto, com a maior abrangência dos vírus, foi necessário o desenvolvimento de novas técnicas para identificação, nos casos em que uma pesquisa por assinaturas não era possível. A pesquisa por assinatura é variável conforme o antivírus mas, em geral, são usados de 2 a 255 bytes para identificar um determinado vírus.

Solução Heurística

A heurística é uma técnica utilizada para estudar o comportamento, a estrutura e as características de um arquivo, para defini-lo como suspeito ou não. Ela pode fazer com que o antivírus emita muitos falsos-positivos, mas é uma técnica que se mostrou bastante útil para evitar vírus desconhecidos. Em geral, um vírus que infecta arquivos .EXE age da seguinte forma:

Um arquivo .EXE possui um pequeno cabeçalho, um Entry Point - o ponto onde começa a execução de um programa, e o programa propriamente dito. Após uma infecção, o Entry Point é alterado, de forma que passe a apontar para o código do vírus. Após a execução do vírus, este pula para o Entry Point original do programa, fazendo-o funcionar normalmente. Como a grande maioria dos vírus que infectam .EXE trabalha desta forma, a pesquisa heurística poderia ajudar, bastaria verificar se o Entry Point está fora da seção do código do programa ou se o Entry Point é um JMP. Mas em alguns casos, falsos-positivos são emitidos, pois existem programas comerciais, protetores e compactadores de executáveis que trabalham da mesma forma. Então a heurística, pode ser definida como um complemento da pesquisa, que ajuda na detecção de vírus desconhecidos, mas que não sabe, com certeza, se um arquivo está contaminado ou não, ou seja, heurística não é uma ciência exata.

A heurística consegue identificar de 70% a 90% dos vírus conhecidos e desconhecidos. Podemos dizer que é uma técnica excelente, considerando a complexidade do problema.

Fonte: http://www.istf.com.br/

O que é Hash ?


Um hash, também chamado de "digesto", é uma espécie de "assinatura" ou "impressão digital" que representa o conteúdo de um fluxo de dados. Com certa frequência os hashes são chamados de checksum, o que provoca alguma confusão com os verdadeiros checksums, os quais têm aplicações e cálculos totalmente diferentes. Um hash pode ser comparado com um selo de embalagem que indica clara e inequivocamente se a embalagem já foi aberta ou violada.

Hashes não são cifragens, são digestos! As cifragens transformam os dados do texto claro num criptograma e vice-versa, ou seja, é uma operação de duas vias. Além disso, o tamanho do criptograma geralmente é igual ao comprimento do texto claro. Hashes, por sua vez, transformam os dados do texto (claro ou cifrado) num pequeno digesto, de tamanho fixo, numa operação de via única. Uma operação de via única não tem volta, ou seja, não é possível obter o texto claro a partir de um resultado hash.

Os hashes produzem "selos de segurança" de comprimento fixo, não importa o comprimento do fluxo de dados ou do arquivo que representem. Qualquer alteração efetuada no arquivo, por mínima que seja, altera substancialmente o resultado hash. Isto ocorre porque, mesmo se apenas um dos bits do arquivo for alterado, muitos bits do resultado serão afetados. Este comportamento é conhecido como efeito avalanche.

O efeito avalanche fica bastante claro quando observamos o impacto da mudança de apenas um bit no resultado hash. Para exemplificar, vamos usar os caracteres ASCII "A" e "a". Note que apenas o sexto bit (contando da direita para a esquerda e iniciando pelo bit zero) é diferente:

 Caracter     ASCII         ASCII
(decimal) (binário)
----------------------------------
A 65 0100 0001
a 97 0110 0001


Usando o algoritmo MD5, o resultado hash obtido para os textos "Aldeia NumaBoa" e "aldeia NumaBoa", cuja diferença reside num único bit, é completamente diferente:

 Aldeia NumaBoa     3cdb658425ee484e4bff3d4583f6f851
aldeia NumaBoa 9c1f41ef263026b0283676d63df21fd1
Transformando o valor hexadecimal do hash dos dois textos nos seus correspondentes binários, o efeito avalanche fica evidente pois a alteração de apenas um bit no texto ocasionou a alteração de 62 bits do resultado hash:

 3cdb6584     0011 1100 1101 1011 0110 0101 1000 0100
9c1f41ef 1001 1100 0001 1111 0100 0001 1110 1111

x.x. .... xx.. .x.. ..x. .x.. .xx. x.xx 12 bits diferentes

25ee484e 0010 0101 1110 1110 0100 1000 0100 1110
263026b0 0010 0110 0011 0000 0010 0110 1011 0000

.... ..xx xx.x xxx. .xx. xxx. xxxx xxx. 20 bits diferentes

4bff3d45 0100 1011 1111 1111 0011 1101 0100 0101
283676d6 0010 1000 0011 0110 0111 0110 1101 0110

.xx. ..xx xx.. x..x .x.. x.xx x..x ..xx 16 bits diferentes

83f6f851 1000 0011 1111 0110 1111 1000 0101 0001
3df21fd1 0011 1101 1111 0010 0001 1111 1101 0001

x.xx xxx. .... .x.. xxx. .xxx x... .... 14 bits diferentes

Aplicações práticas do hash

Se os dados originais não podem ser recuperados a partir do hash gerado pelos mesmos, então para que servem os hashes? Apesar de parecer contraditório, é exatamente esta característica que possibilita o uso de algoritmos hash sempre que uma autenticação ou uma validação seja necessária. Dentre as inúmeras aplicações destacam-se as seguintes:

1 - Integridade de arquivos

Qualquer tipo de arquivo, por exemplo um arquivo de texto ou um programa de computador, é um fluxo de dados que produz um resultado hash único. Quando um arquivo é disponibilizado para download, não existe a garantia de que o arquivo baixado seja idêntico ao original. Basta que ocorra um pequeno problema durante a transmissão que altere os dados recebidos para que a "cópia" não seja perfeita. Uma das maneiras de poder verificar se o arquivo baixado é idêntico ao disponibilizado é conhecer o hash do arquivo original. Após o download é possível calcular o hash do arquivo baixado e, se os dois hashes forem idênticos, a integridade da cópia é comprovada. É importante lembrar que hashes parecidos ou "quase iguais" indicam sempre que os dados que os produziram são diferentes, e nunca parecidos ou quase iguais!

2 - Segurança de senhas

Guardar senhas em texto claro é dar chance para o azar. Se um arquivo de senhas for roubado ou um banco de dados com registros de senhas for hackeado, o estrago pode ser enorme. Como um hash não é reversível e, para serem usadas, as senhas precisam ser conferidas, é muito mais prudente armazenar os resultados hash das senhas do que as próprias senhas. O uso de uma senha pressupõe que um usuário a digite. Tendo a senha como entrada, é fácil e rápido calcular o resultado hash da senha fornecida e compará-lo com o valor arquivado. Se forem idênticos, a senha confere, mostrando que o usuário conhecia uma senha válida. Este procedimento reduz sensivelmente os riscos porque o único momento em que a senha pode ser roubada é enquanto está sendo digitada e antes de ser transformada em hash.

3 - Assinaturas digitais

Para se obter uma assinatura digital válida são necessárias duas etapas. A primeira é criar um hash do documento. Este hash identifica unicamente e inequivocamente o documento do qual ele se originou. A seguir, o assinante submete o hash a um método criptográfico usando sua chave privada. Como o hash criptografado só pode ser recuperado usando a chave pública do assinante, isto comprova a identidade da pessoa que assinou - é a chamada assinatura digital - e como o hash recuperado identifica o documento, a assinatura está associada unicamente a este documento.

Fonte: http://www.numaboa.com/

by TemplatesForYou
SoSuechtig,Burajiru