sábado, 30 de junho de 2007

A "Gravidade" Lunar

O homem que não pisou na lua...


A Fraude do Século

Em setembro, o governo americano anunciou sua disposição de voltar a fazer vôos tripulados à Lua. Mas, mais de 30 anos após a Apolo 11 levar o homem ao satélite pela primeira vez, ainda há quem duvide que isso de fato ocorreu em 20 de julho de 1969. Em livros, filmes e sites, há cada vez mais argumentos "científicos" para defender a idéia de que tudo não passou de uma conspiração americana para cumprir o objetivo proposto, em 1961, pelo presidente John Kennedy, de que os EUA fariam uma viagem tripulada à Lua antes do fim da década de 1960 (tudo para passar à frente dos soviéticos na chamada corrida espacial)

Agora vamos apimentar essa questão e considerar alguns detalhes:

1. Aqueles pulinhos frenéticos do Astronauta na Lua desrespeitam todas as leis da gravidade, ou melhor, da falta dela. O Astronauta pula numa trajetória muito terrestre efetuando parábolas perfeitas. Mesmo com peso nos pés e mesmo com 6x menos gravidade que na Terra, o Astronauta, ao dar impulso em seu corpo, faria uma pequena viagem no ar (flutuaria) por tempo mais prolongado do que o exibido.

2. A União Soviética sempre teve um programa espacial mais avançado que o dos Estados Unidos, pelo menos até a derrocada econômica dos anos 70. Foram os primeiros a por um satélite artificial em órbita, o Sputnik I, em 4 de outubro de 1957; colocaram um astronauta em órbita, Iury Gagarin, também antes dos Estados Unidos, em 12 de abril de 1961; e o primeiro passeio de um astronauta no espaço também foi soviético, realizado por Alexi Leonov, tripulante da nave Voskhod 2, em 18 de março de 1965. Por que, então, nunca realizaram a consagradora viagem à Lua, que coroaria mais de uma década de programa espacial?

3. O suposto modulo lunar foi recolhido no mar, mas não apresentou nenhuma marca da alta temperatura que deveria sofrer na reentrada da Terra. Será que o modulo lunar foi atirado de um avião em elevada altitude?

4.Richard Nixon foi o único presidente dos Estados Unidos que vivenciou, em apenas três anos, todas as seis supostas viagens do homem à Lua, entre 1969 e 1972. Após a saída de Nixon do poder, nunca mais astronauta algum fora enviado à Lua.

5. Veja os filmes que foram transmitidos para todo o planeta, da suposta conquista da Lua. Perceba que os astronautas transmitiam, em tempo real, vídeo e som para a base nos Estados Unidos. Como sabemos há um delay entre a transmissão e a recepção de um sinal (tempo da onda percorrer a distancia entre dois pontos). Isto é muito claro quando assistimos uma transmissão ao vivo por satélite, seja um evento ou mesmo em um programa jornalistico. Mas naquela época, este delay não era muito claro para a maioria dos espectadores, que não conheciam transmissões via satelite.

6. Em decorrência da total inexistência de atmosfera, na superfície lunar não ocorre a formação de penumbras (não há difração da luz).Todo cientista ou astrônomo que já examinou a superfície da Lua por meio de telescópios adequados pôde constatar que apenas a superfície dos objetos (crateras e formações rochosas) banhada diretamente pela luz do Sol é visível. Quaisquer objetos que se situem em regiões de sombra estarão imersos em total escuridão. Isto significa que, se uma nave ou um astronauta na superfície da Lua fossem iluminados pela luz solar em incidência oblíqua (um Sol de início da manhã ou fim de tarde lunar), apenas metade - o lado voltado para o Sol - da nave ou do astronauta seriam visíveis, ficando o lado oposto completamente oculto. Em nenhuma das fotografias e filmes divulgados pela NASA nas 6 missões Apolo este fenômeno é observado. Em todas as imagens onde sombras estão presentes ocorre a formação de penumbras, sendo perfeitamente possível observar detalhes de objetos que se encontram fora da incidência direta da luz solar. Observe, por exemplo, "AS11-40-5850" (NASA), anunciada como sendo a primeira fotografia feita na superfície lunar, registrada por Armstrong pouco depois do pouso da miss‹o Apolo XI. A luz do Sol está incidindo por trás do Módulo, mas detalhes deste na sombra são perfeitamente visíveis. Em "AS11-40-5869" (NASA), o astronauta Edwin Aldrin deveria estar imerso em total escuridão.

7. Na Lua, a única fonte de luz é o Sol. Como em nenhuma das missões Apolo foram levados holofotes, refletores ou qualquer outra fonte de luz artificial, as sombras de todos os objetos fotografados ou filmados na superfície lunar deveriam, necessariamente, ser paralelas. Não é o que observa em muitos dos registros fotográficos divulgados. Um exemplo clássico é a imagem registrada em "AP11-s69-40308" (NASA), que mostra a sombra dos astronautas Armstrgong e Aldrin não paralelas e com comprimentos diferentes. Pela análise das fotografias "AS11-40-5875" (NASA) e "AS11-40-5905" (NASA), que registram o mesmo local por ângulos diferentes, é possível observar que o terreno em volta da bandeira é perfeitamente plano, o que invalida a explicação dada por defensores da versão oficial de que o "fenômeno" foi causado por uma elevação do solo.

8. A atmosfera, responsável pela difusão da luz solar, dá origem a dois fenômenos que ocorrem durante o dia na Terra: a coloração azul do céu e a impossibilidade de se ver as estrelas. Na Lua, que não possui atmosfera, o céu é visto permanentemente escuro e com estrelas (como nas noites terrestres), mesmo durante o dia lunar. Mais que isso: independente de o Sol estar presente, as estrelas devem ser vistas na Lua com uma intensidade jamais observada na Terra, visto que seus raios luminosos não sofrem difusão. Em todas as fotografias e filmes divulgados nas 6 missões Apolo, no entanto, não há uma única estrela presente além do Sol. Um céu estrelado seria uma garantia definitiva de autenticidade das imagens lunares, visto que cada fotografia ou filme deveria mostrar uma configuração de estrelas e constelações passível de verificação por meio dos mapas estelares já bem conhecidos por astrônomos. No entanto, como visto, nem mesmo o Sol ocupava a posição devida nas imagens das missões Apolo. Adicionalmente, seria de se esperar que astronautas na Lua fizessem comentários entusiasmados sobre o esplendor do céu lunar (como fez Iury Gagarin, em 12 de abril de 1961, na mais espontânea das frases célebres, "A Terra é azul"), o que não ocorreu em nenhuma das missões.

9. A principal proteção que os seres vivos na terra possuem contra as radiações nocivas provenientes do espaço não é, ao contrário do senso comum, a camada de ozônio ou a atmosfera terrestre (embora estas também possuam papel fundamental nesta defesa). Os pouco conhecidos Escudos de Van Allen, também referenciados como Cinturões de Radiação de Van Allen ("Van Allen Shields" / "Van Allen Radiation Belts"), filtram uma parcela substancialmente maior de radiações cósmicas que os dois primeiros. Com formatos semelhantes ao de uma casca de maçã - ou, para os mais familiarizados, às linhas de força de um campo magnético , os escudos de Van Allen constituem uma região do espaço com altíssima concentração de partículas radioativas, existentes graças ao campo magnético da Terra. Com altura mínima de 400 Km, sobre os pólos, e 1.200 Km sobre a linha do equador, delimitam a fronteira entre duas regiões de receptividades à existência de vida diametralmente opostas. Ao contrário do espaço interior aos escudos, que hospeda toda a vida na Terra, o espaço exterior - onde se situa a Lua - é de uma inospitalidade e agressividade absurdamente brutal. O espaço, nesta região, é altamente radioativo (intensa concentração de raios Gama e raios X, os mesmos emitidos pelo Urânio, Plutônio, Césio e outros materiais usados em artefatos atômicos). Em épocas de máxima atividade na superfície do Sol (elevado volume de labaredas solares, ou "solar flares"), a radioatividade no espaço exterior aos escudos pode atingir índices de 375 rem por dia (1 rem, ou roentgen equivalent mammal, expressa a quantidade de qualquer radiação ionizante que, absorvida por organismos vivos, equivale ao efeito biológico de 1 roentgen de raios X). A Agência Internacional de Energia Atômica determina, como dosagens seguras para exposição humana, o limite de 0,1 rem por ano, admitindo um máximo de 0,5 rem em um único ano, desde que a dosagem média em 5 anos contíguos não exceda o limite de 0,1 rem. O Sol passa por períodos alternados de máximos e mínimos volumes de atividades com um intervalo de 11,2 anos, e um pico de atividade solar se registrou justamente no ano de 1970. Ou seja, os astronautas das missões Apolo teriam sido submetidos a índices de radiação de 375 rem por dia, quando o limite aceitável para os humanos normais é de 0,5 rem por ano! Sob tais condições, nenhum ser vivo resistiria a algumas poucas horas de viagem além dos escudos de Van Allen, mesmo que protegido no interior de naves espaciais. Os astronautas lunares nem ao menos foram afetados por câncer, leucemia ou queimaduras, nem há registro de ocorrências de náuseas ou vômitos.

Outra constatação interessante: além dos 21 afortunados cidadãos americanos que foram enviados à Lua (em 6 missões divulgadas como bem sucedidas, além da problemática Apolo XIII, cada uma com 3 tripulantes a bordo), nenhum outro ser vivo jamais ultrapassou os limites dos cinturões de radiação de Van Allen até hoje, aí incluídos os heróicos e sempre desbravadores cachorros, macacos e organismos microscópicos. Todas as missões dos ônibus espaciais realizadas até hoje se mantiveram, prudentemente, à altitude segura de cerca de 300 Km, mesma região orbital das estações Skylab, MIR, da Estação Orbital Internacional e até do telescópio Hubble. Ressalte-se que a Lua fica a mais 350.000 Km da Terra!

10. Outra característica do espaço exterior ao escudo de Van Allen extremamente agressiva à presença devida é a impressionante diferença de temperatura entre uma superfície que esteja exposta e outra protegida da incidência de raios solares. Uma nave estática no espaço terá sua superfície exposta ao Sol submetida a temperaturas de 115°C,enquanto o lado que permanecer na sombra enfrentará -160°C. Por este motivo, todas as sondas espaciais não tripuladas já enviadas ao espaço para vôos sem retorno foram projetadas para girarem em torno de seu próprio eixo, de modo a alternarem constantemente as superfícies expostas ao Sol e à sombra.
Para que qualquer veículo espacial venha a permanecer em segurança no solo de um outro planeta, ou mesmo na Lua, é necessário que possua algum mecanismo que lhe permita, mesmo pousado, manter toda a sua estrutura em movimento giratório. Alternativamente, deverá possuir uma fuselagem que resista às estúpidas variações de temperatura ambiente. A mesma exigência de rotação constante ou elevada capacidade de isolamento térmico se aplica aos astronautas e seus trajes. Nas missões Apolo, absolutamente nenhuma proteção contra as violentas variações de temperatura (115°C no peito de um astronauta que estivesse de frente para o sol, contra -160°C em suas costas) são constatadas.

Outra observação importante relativa às variações de temperatura: até os dias atuais, nenhum fabricante de equipamentos fotográficos ou de vídeo anunciou câmeras ou filmes (películas) que tivessem capacidade de operar em condições tão adversas. Nas missões Apolo, as câmeras eram acopladas ao peito dos astronautas, externamente aos trajes espaciais (que, por si só, não dispunham de proteção térmica efetiva conhecida). Todas as fotografias e vídeos divulgados pela NASA, sob esta perspectiva, n‹o poderiam ter sido obtidas na Lua.

11. O Módulo Lunar ocupa um lugar de destaque nas dúvidas quanto à veracidade dos pousos na Lua, e não apenas pela sua incapacidade de proteger seus ocupantes da radioatividade ou de resistir às variações de temperatura na superfície lunar. As operações de pouso e decolagem na Lua merecem ser cuidadosamente analisadas.

Antes que sejam abordadas as incoerências deste componente da Missão, impressione-se com sua "robustez", na fotografia em close disponível em "AS17-134-20463" (NASA). O Módulo dá a impressão de ter sido montado com tubos metálicos, lona plástica e finas camadas de lata.

Ao contrário do que as imagens e animações sempre divulgadas sobre as anunciadas chegadas e partidas da Lua dão a entender, apenas por obra e graça Divina o Módulo Lunar conseguiria flutuar tranqüilamente até quase tocar na superfície, sendo necessários apenas uns poucos e sutis sopros de turbina para que um pouso suave e perfeito ocorresse. Um pouso na Lua é, na realidade, uma completa queda livre. Consideradas a força de gravidade e a altura do campo gravitacional da Lua, o impacto no solo deveria ocorrer com uma velocidade próxima dos 2,38 Km/s (velocidade de escape do campo gravitacional da Lua), aproximadamente 8.500 Km/h! Esta velocidade final de queda teria que ser completamente compensada pelo jato constante e de alta potência gerado pela turbina do Módulo. De forma análoga, o Módulo Lunar deveria decolar do solo e vencer todo o campo gravitacional da Lua graças ao empuxo que fosse gerado por sua turbina. Ressalte-se, ainda, que os Módulos Lunares pesavam (na Terra), segundo a NASA, 14.515 Kg nos três primeiros pousos e 16.330 Kg nos três últimos. Apenas para reforçar o entendimento da dinâmica envolvida na alunissagem: caso não houvesse um constante e poderoso empuxo de turbina para controlar a descida, o Módulo Lunar seria um objeto sólido com peso lunar superior a 2,5 toneladas atingindo a superfície a mais de 8 mil kilômetros por hora!

Dessa constatação, duas observações podem ser feitas: (i) nos filmes que registram, de dentro do Módulo Lunar, os pousos e decolagens na Lua das missões Apolo, não se ouve absolutamente nenhum ruído de fundo e nem se observam trepidações. Os astronautas narram, sob o mais absoluto silêncio e estabilidade da câmara, os procedimentos de descida ou decolagem (confira em apo16_salute.mpg). Dadas as dimensões reduzidas do Módulo, o ensurdecedor rugir de uma turbina deveria impedir qualquer tripulante de ouvir até mesmo sua própria voz; e (ii) tanto um pouso quanto uma decolagem da Lua deveriam causar uma severa perturbação nas rochas e areia situadas nas proximidades do ponto de contato. Uma cratera deveria ser perfeitamente visível sob o centro do Módulo, o que não ocorre em nenhuma das imagens divulgadas. Veja, por exemplo, a fotografia "AS11-40-5872" (NASA), na qual a extremidade da turbina pode ser vista, e o solo imediatamente sob ela demonstra nunca ter sido perturbado. Após o pouso, o Módulo deveria ter areia acumulada sobre os quatro discos de apoio no solo, bem como sobre todas as reentrâncias horizontais existentes em praticamente toda a superfície do Módulo. O que se verifica, no entanto, é um Módulo Lunar absolutamente limpo e reluzente após o pouso. Constate em "AS11-40-5917" (NASA). Por fim, a patética fantasia divulgada pela NASA de que "a primeira pegada do homem na Lua permanecerá lá indefinidamente" é infundada, visto que o robusto empuxo da turbina durante a decolagem certamente causaria a remoção de quaisquer marcas no solo próximo ao ponto de partida.

12. Chega...é muita evidência e confesso já estar convencido desde o quarto "detalhe". Afinal, o Presidente era o Nixon, aquele do Watergate, right?



E no tremular de uma bandeira se constrói um império baseado em mentiras...

Se voce quer ler mais sobre o engôdo do século, acesse estas páginas:

Fontes:

http://www.designthis.hpg.ig.com.br/lua.html

http://www.afraudedoseculo.com.br/

O que são cookies ?


Por Cauã Taborda

Além dos deliciosos biscoitos de trigo, os cookies também são arquivos gerados pelos sites, que monitoram a navegação do internauta, direcionam conteúdos e quantificam visitas a páginas web.

O cookie de internet é um pequeno arquivo gerado por um site e salvo em seu computador, pelo seu browser. Geralmente os cookies são utilizados para medir o acesso aos sites, bem como por qual meio você chegou ali, ou ainda que seções foram visitadas.

As informações ficam armazenadas na máquina do usuário, para que ele não precise repetir alguns dados, ao preencher cadastro, por exemplo, quando voltar a uma determinada página.

Os cookies também servem para mapear suas preferências, possibilitando que o site ofereça conteúdos distintos a cada usuário pelo perfil de navegação. Segundo a Microsoft, os cookies os ajudam a ser mais eficientes, descartando páginas que o internauta não usa, concentrando a navegação nas informações “úteis”. “Podemos aprender o que é importante ou não para nossos visitantes”, diz a empresa em seu site.

Há um folclore em relação aos cookies. Muitas pessoas os confundem com os arquivos temporários de internet, que podem conter vírus e códigos maliciosos. No sistema operacional Windows, os arquivos temporários ficam armazenados na pasta “Temporary Internet Files” e é recomendado que sejam apagados de tempos em tempos.

Os cookies em si não oferecem nenhum risco à segurança do usuário. Entretanto, geram discussões sobre privacidade, já que armazenam dados preciosos sobre seu perfil pessoal, tempo de permanência na internet, sites visitados etc.

Esses peguenos programas, que possuem no máximo 4 kilobytes, gerados automaticamente quando você visita um site, podem ficar em seu computador por até 31 anos - tempo de vida de um cookie do Google, por exemplo.

Apesar de aparentemente não apresentarem nenhum risco direto ao usuário, se acessados por um hacker, podem trazer muita dor de cabeça.

Segundo Wladimir Amarante, engenheiro de sistemas da Symantec, hackers utilizam golpes em XSS (Cross Site Scripting) e até técnicas de Phishing para colher os dados disponíveis nos cookies.

Normalmente os criminosos se colocam entre o site e o usuário. Para o usuário eles mandam um site falso, para o verdadeiro as informações que deveriam ser recebidas. Com essa tática o hacker tem acesso a todos os dados, podendo inclusive acessar o site legítimo como se fosse o usuário. Segundo Amarante, isso ocorre quando o cookie não foi montado corretamente pelo site. Essa modalidade de ataque é conhecida como “Man in the middle”.

Se o usuário for infectado por um Trojan, que abre a máquina ao acesso de criminosos, estes podem acessar todas as informações contidas nos cookies. Além de utilizar um bom antivírus, e um programa anti-phishing, apagar os cookies é uma precaução que os usuários devem adotar, aconselha o engenheiro da Symantec..

Fonte: http://idgnow.uol.com.br/internet/

BBC UNIVERSOS PARALELOS

"BBC Horizon - Parallel Universes" é um documentário que trata da mais nova teoria da física, que uniu a teoria das super cordas com a teoria da super gravidade, a chamada "Teoria M", que tenta explicar o que veio ANTES do Big Bang.

Os físicos chegaram a conclusão que, para o universo ser sustentável matematicamente, ele precisa necessariamente ter 11 dimensões.

E que na verdade o big-bang não foi a explosão de uma singularidade, mas sim o choque entre duas dimensões. Conclui que nosso universo é na verdade um Multiverso, com infinitos universos.

A "BBC" e o site de vídeos YouTube, de propriedade do Google, anunciaram no dia 02 de Março desse ano (2007) uma aliança para oferecer aos internautas do mundo todo conteúdos da rede britânica.

O diretor-geral da "BBC", Mark Thompson, disse que a associação "é uma fantástica notícia para o público", já que o YouTube é uma "entrada-chave" para conseguir novos espectadores tanto no Reino Unido como no resto do mundo.

O Google está interessado em desenvolver projetos semelhantes em outros países europeus, disse o responsável de conteúdos de vídeos da Google na Europa, Oriente Médio e África, Patrick Walker.

Segundo o diretor-geral da "BBC", "é essencial" que a rede britânica adote novas formas de chegar a públicos mais amplos com acordos não exclusivos como estes. Graças às plataformas de publicidade da Google e do YouTube, a "BBC" conseguirá também novas receitas para investir na criação e no desenvolvimento de novos programas.

Fonte: http://misteriosantigos.com/

sexta-feira, 29 de junho de 2007

Instalando o Half-Life 2 e CS Source pelo Wine


Júlio César Bessa Monqueiro

Jogar Counter Strike e Half Life 2 foi ou é rotina de muita gente e o motivo de muitos não largarem o Windows, pessoas essas que inclusive conheço. A alternativa para muito desses usuários era instalar o Cedega trial, que por funcionar 30 dias, acabavam por voltar ao sistema proprietário, e inclusive falar mal do Linux pra muita gente :-). Naquela época, Wine nem pensar, pois oferecia um desempenho muito baixo com relação à solução da Transgaming.

Mas como tudo passa, o tempo trouxe suas recompensas ao software livre. Após muitas versões do Wine, uma grande melhora no sistema OpenGL podia ser observada, bem como uma evolução do kernel do Linux, o coração do sistema. Com esses grandes passos para a humanidade, foi possível fazer o Half Life 2, e inclusive seus mods (CS) rodarem no Linux com um desempenho que não deixa nada a desejar para o Cedega.

Naquelas horas em que está caçando novidades na Internet, achei um tutorial, em inglês, que trazia de maneira muito detalhada como instalar o jogo e fazê-lo funcionar perfeitamente no Linux, através do Wine de versão 0.9.11 ou superior, e kernel 2.6.15 ou superior. Uma dica acabei de dar: procure pegar a última versão do Wine ;-). Conforme veremos mais abaixo, é extremamente recomendável o uso das versões superiores a 0.9.19.

O link do tutorial está aqui e dou créditos ao autor por este texto que vocẽ está lendo agora.

Esta solução é muito útil tanto para gamers que só não largam o Windows por causa disso, quanto para LAN-houses que não queiram pagar a licença do Transgaming Cedega. Com o CD ou os arquivos de instalação do Half-Life 2 ou Counter Strike Source, em mãos, ponha-os na mesa do computador e vamos ocupar as mãos na massa :-P

Se, antes de iniciar a instalação, você quiser saber mais sobre o Wine, confira o guia de instalação e utilização do mesmo, escrito por Carlos E. Morimoto.

Fonte: http://www.guiadohardware.net/tutoriais/instalando-half-life-pelo-wine/

O que é a lei Lei Sarbanes-Oxley ?


por Luciana Costa

A Lei Sarbanes-Oxley, conhecida também como SOX, é uma lei americana promulgada em 30/06/2002 pelos Senadores Paul Sarbanes e Michael Oxley.

Nela estão envolvidas as empresas que possuem capitais abertos e ações na Bolsa de NY e Nasdaq, inclusive várias empresas brasileiras estão se adequando a esta Lei.

O motivo que a fez entrar em vigor foi justamente a onda de escândalos corporativos-financeiros envolvendo a Eron (do setor de energia), Worldcom (telecomunicações), entre outras empresas, que geraram prejuízos financeiros atingindo milhares de investidores.

O objetivo desta lei é justamente aperfeiçoar os controles financeiros das empresas e apresentar eficiência na governança corporativa, a fim de evitar que aconteçam outros escândalos e prejuízos conforme os casos supracitados.

A lei visa garantir a transparência na gestão financeira das organizações, credibilidade na contabilidade, auditoria e a segurança das informações para que sejam realmente confiáveis, evitando assim fraudes, fuga de investidores, etc. Esta lei pode ser deduzida como uma Lei de Responsabilidade Fiscal Sarbanes-Oxley.

Qual é a a ação da TI ?

Diante deste cenário, a ação da TI é de fundamental importância nesse processo. É a área responsável pelo controle, segurança da informação e sistemas. Portanto, deverá estar alinhada na adequação desta Lei para garantir às regras de transparência fiscal e financeira.

A seção 404 da Lei Sarbanes-Oxley aborda os impactos diante da área de tecnologia.

Porém para atender os controles das demandas voltadas a SOX, a TI deverá utilizar frameworks nacionais e internacionais, tais como:

01. DRI – plano de continuidade de negócios (PCN)

02. CobiT - governança em TI

03. ITIL - gestão de serviços de TI

04. CMM - gestão para o desenvolvimento de software

05. ISO 149977 (BS-7799) - gestão de segurança da informação/PSI

É necessário analisar, modificar, implantar e assegurar uma cultura de controles internos (se necessário, redesenhar processos de controles) a fim de assegurar a confiabilidade das informações, realizar diagnósticos de compliance, eliminar processos redundantes, gerar a confiabilidade de sistemas e aplicações, manter a segurança das informações disponíveis (acessos/permissões, compartilhamentos, ...), garantir veracidade de dados de saída (onde, com prazos mais curtos para emissão de diversos relatórios, prevalece mais do que nunca, a importância de uma única base, evitando variadas fontes de informações).

Enfim, estabelecer um monitoramento contínuo e rápido alinhado às regras contidas na SOX.
Uma coisa é certa, desafios não vão faltar – desde, as alterações em processos até as informações (sistemas).

Vale salientar que não basta somente a implantação e o esforço por parte da TI : “A boa governança depende fundamentalmente da conscientização das pessoas sobre práticas corretas de se lidar com a informação.”

Fonte: http://www.imasters.com.br/artigo/5096/direito/o_que_e_lei_sarbanes-oxley_e_quais_os_impactos_na_ti/

O que são os Gadgets?


São uma nova categoria de mini-aplicativos criadas para proporcionar informações e dados úteis, ou para melhorar uma aplicação ou um serviço Windows ou Web. Os exemplos de Gadgets podem ser desde um dispositivo que lhe informe o clima que funciona em seu desktop ou em sua homepage, um dispositivo RSS que extrai seus feeds favoritos ou a extensão de uma aplicação de negócios que mostra o estado atual de como anda seus negócios.
Assim, além de oferecer serviços diretos do próprio PC, os Gadgets tem a aparência que você lês dê.


Existem três tipos de Gadgets:

1. Os Gadgets para Windows Sidebar serão executados na área de trabalho do Windows, na barra de ferramentas lateral, uma das novidades do Windows Vista. Com Windows Presentation Foundation, os Gadgets de desktop podem ser desenvolvidos com DHTML/Atlas, e inclusive com controles ActiveX.

Uma de suas maiores vantagens é que são ricos desde o visual e programação, passando por gráficos vetoriais e código administrado até técnicas padrão muito utilizadas na Web. Os Gadgets não exigem descargas adicionais para serem utilizados. Se “mantêm sozinhos”.

Poderá conhecer mais sobre Windows Sidebar no site do Windows Vista Latam.

2. Os Gadgets baseados na Web proporcionam uma homepage rápida e fácil de personalizar com uma interface de usuário limpa, a qual permite que o usuário controle melhor sua experiência online. Atualmente em fase inicial, Start.com é um lugar onde os usuários podem personalizar a Web em função de seu gosto, acrescentando suas próprias fontes de conteúdo, incluindo feeds RSS e Gadgets basados na Web que estendem a funcionalidade de seu site: desde calendários personalizados até integração de serviços. Start.com mostra como funciona o uso de DHTML e ASP.Net Atlas, que isola os dados extraídos das interfaces de usuário e transforma em melhoras de rendimento extremamente significativas. Por outra parte, os Gadgets de Start.com admitem facilmente o uso do Windows Sidebar na área de trabalho do PC.

3. Os Gadgets para Windows SideShow (tm) (também conhecidos como Auxilary Display Gadgets, o Gadgets de Telas Auxiliares) permitem que os usuários acessem a informação a partir de diferentes dispositivos. Deste modo, os usuarios podem ver seus dados quando desejarem, ou obter acesso instantâneo de um laptop, receber notificações na tela de um teclado ou tirar proveito das vantagens de um dispositivo móvel como o telefone celular. Os Gadgets para Windows SideShow se executam no PC e utilizam interfaces COM para enviar dados aos dispositivos. Combinada com o poder das aplicações desktop, a plataforma de Windows SideShow permite o ingresso a novos cenários e oportunidades.

Fonte: http://www.microsoft.com/brasil/msdn/desafiogadget/gadget.aspx

Adaptador Bluetooth com 30 km de alcance


A IRcable apresentou um adaptador Bluetooth USB com alcance de até 30 km.

Com uma antena de 9dBi omni-directional a escala é de até 2 km, usando uma antena de 18dBi direcional chega a uma escala de 10 km. O adaptador pode ser usado para aumentar a escala dos dispositivos como telefones e headsets.

Conectando através da porta USB o aparelho XR da AIRcable é compatível com sistemas operacionais Windows, Mac e Linux. O XR vem com uma antena padrão que dá um alcance de 1 km, uma grande vantagem sobre os atuais acessórios USB Bluetooth.

O preço para o XR da AIRcable é de 129.00 dólares.

Fonte: http://www.i-tecnologia.com/

Asus My Cinema-U3000 Hybrid


Se queremos desfrutar de televisão digital, televisão analógica e rádio FM em nosso computador, vamos precisar de 3 sintonizadores diferentes? Não!

Com o Asus My Cinema-U3000Hybrid, que integra todas as funções em um só dispositivo que se conecta ao computador por USB 2.0. O Mesmo permite sintonizar televisão digital (TDT), televisão analógica, programar gravações, utilizar o TimeShit para parar temporariamente a reprodução de um programa, e dispõe da tecnologia Asus TSSI, que reconhece o sinal da televisão e o ajusta para uma melhor qualidade.

Funciona tanto em Windows XP como em Windows Vista, e vem com um pequeno controle remoto.

Fonte: http://www.indrops.net/?p=477

quinta-feira, 28 de junho de 2007

O que é um buffer overflow ?

por vovó Vicki


Para entender o que é um overflow, a tradução da palavra ajuda muito. Overflow significa inundação e, quando aplicada como termo da informática, significa um transbordamento que causa uma inundação.

Como os computadores trabalham apenas com bits, as menores unidades de informação, um overflow numa máquina deste tipo nada mais é do que um transbordamento de bits. Mas como acontece um transbordamento de bits?

Os computadores possuem chips especiais chamados de memória. Estes chips especiais recebem o nome de memória porque guardam informações... informações em forma de bits. Quando um programa está sendo executado, a sequência de instruções que deve ser seguida, a instrução que está sendo executada no momento, endereços, valores de constantes, valores de variáveis, etc, ficam armazenados na memória. Para que não haja bagunça, a memória é "loteada", ou seja, são definidas áreas da memória para guardar cada coisa em seu lugar. Estas áreas, assim como em qualquer loteamento, possuem limites e são conhecidas como buffers.

Cada "terreno" da memória (ou buffer), por sua vez, é dividido em células ou posições de memória. Cada uma destas posições é identificada por um número, o chamado endereço de memória. Em cada células pode ser guardado apenas um bit. Quando é preciso guardar bits na memória, o que geralmente é feito em grupos de 8 (byte), 16 (word), 32 (double word) ou 64 (quadword), também é preciso indicar o endereço no qual os bits devem ser colocados. Quando, por exemplo, o valor de uma variável de 32 bits é enviada para um endereço no finzinho do buffer onde, digamos, há apenas 20 células disponíveis, os bits da variável dão uma de MST e 12 deles invadem o terreno de algum vizinho, ou seja, causam um overflow.

Resumindo: um overflow acontece sempre que alguns bits transbordam e invadem uma área que não lhes pertence :mad:

A sequência de execução de um programa

Existem programas muito simples que seguem apenas uma linha de execução. Isto significa que

as instruções colocadas no buffer de instruções da memória são seguidas da primeira até a última sem qualquer possibilidade de desvio. Por exemplo, se cada instrução tiver 5 bits (é apenas um exemplo!) e as instruções estiverem armazenadas nos endereços 100 até 200, elas serão executadas sequencialmente, uma atrás da outra: 100, 105, 110... 200.

A maioria dos programas não segue o modelo que acabei de citar. Por exemplo, quando uma

determinada tarefa deve ser repetida algumas vezes, costuma-se criar uma subrotina que é chamada toda vez que esta tarefa precisar ser executada. Isto significa que, em determinados pontos da linha principal de execução, ocorre um desvio para uma linha secundária. Para que o programa não "perca o fio da meada", guarda-se o endereço da instrução que chamou a subrotina, a execução é desviada para o endereço desta subrotina e, quando o serviço estiver terminado, ela tem como retornar para o endereço da chamada. Para guardar estes endereços (imagine a linha principal chamando uma subrotina, que chama outra subrotina, que chama outra...) existe uma área especial da memória chamada pilha (stack).

Buffer overflow

Existem dois tipos de buffer overflow, o stack overflow e o heap overflow. O mais fácil de entender é o transbordamento de bits para a área reservada da pilha (stack overflow). Como já vimos, a pilha guarda, entre outras coisas, os endereços de retorno. Se, de repente, a linha de execução entrar por um atalho e, no meio do processamento, houver um stack overflow que injeta bits que atropelam o endereço de retorno, o programa fica sem pai nem mãe - volta para um ponto diferente do ponto de chamada ou então fica perdido de vez. Neste caso, geralmente a máquina trava ou dá algum tipo de mensagem de erro que os mortais comuns não sabem o que quer dizer.

O segundo tipo de buffer overflow é o heap overflow. A área da memória que é ocupada dinamicamente pelo programa é chamada de heap. Quando o programa começa a rodar, ele vai buscar informações no sistema operacional para saber onde há "terrenos" livres, ou seja, áreas de memória disponíveis. É nestas áreas que o programa vai colocar vários dados com as quais irá trabalhar. Este tipo de ocupação é chamado de dinâmico porque é o aplicativo que faz a solicitação e porque, cada vez que o programa é executado, esta área pode ser diferente. Bem, em todo caso, o heap overflow ocorre quando bits invadem a área reservada para o heap.

Explorando os overflows

Além do transtorno que os overflows podem causar, a coisa pode ficar bem mais séria se eles forem usados para injetar código estranho num programa. Estes são os chamados exploits. Novamente, o exemplo mais simples é o exploit de um stack ov

erflow. Os crackers, com frequência, costumam aproveitar este tipo de vulnerabilidade. Como?

Digamos que um aplicativo peça ao usuário que digite um valor. O cracker, sabendo que a checagem do tamanho deste valor não é feita (ou que é mal feita), insere um valor que é bem maior, ou seja, que possui muito mais bits. Como o valor não "cabe" na área que foi designada para esta variável, os bits excedentes invadem a pilha e destroem o endereço de retorno. Até aí, nada de excepcional - o programa vai ficar perdido ou travar. Mas, e se, ao invés de digitar um valor qualquer, os bits excedentes deste valor sejam exatamente os bits que compõem um endereço onde esteja localizado um chamado código malicioso?

Código malicioso é uma sequência de instruções que realizam a tarefa que o cracker quer. O aplicativo, quando encontra o endereço de retorno falso, segue cegamente a ordem, vai para o endereço indicado e executa todas as instruções que encontra pela frente. Se o safado que colocou o código malicioso é dos "bons", ele coloca no fim do código malicioso uma instrução para que o fluxo de execução retorne para o endereço de retorno correto. Moral da história: a máquina ou o aplicativo não travam e, na maioria das vezes, até se descobrir que houve um desvio forçado (com roubo de informações e outras gracinhas), pode ser tarde demais

Fonte: http://www.numaboa.com/content/view/408/169/

Warriors of The Net

Quando vi este video pela primeira vez fiquei muito impressionado. Ele mostra de forma animada e muito divertida o caminho de um package (pacote ou datagrama). A abordagem é fantastica pois é muito similar ao trânsito das estradas. O package se assemelha a uma pequena van, que carrega o seu conteudo de informações ou carga. É claro que voce não irá encontrar no caminho um roteador gigante e nem um muro enorme no meio do nada. Mas vale a analogia. O único problema é que não encontrei este vídeo legendado. Mas como o visual é bem intuitivo, vale o esforço. Play no vídeo.

O que é um Firewall ?

por Vinícius Serafim


Um firewall pode ser composto por três tecnologias básicas:

  • Filtro de pacotes;
  • NAT (Network Address Translation); e
  • Proxy.

A utilização de qualquer uma dessas tecnologias, seja de forma isolada ou combinada, para a realização de controle de comunicação entre duas redes pode ser chamada de firewall. Portanto, mesmo que somente um proxy seja utilizado, pode-se dizer que esse proxy é o firewall da rede. Nas seções seguintes cada uma das três tecnologias é explanada.

Filtro de pacotes

Pode-se dizer que é a tecnologia básica da maioria dos firewalls. Algumas vezes, quando alguém fala de firewall, está falando apenas de um filtro de pacotes, muito embora essa não seja a única tecnologia que compõe um firewall.

Um filtro de pacotes tem como função básica a aceitação ou o bloqueio de determinado tráfego. A decisão de aceitar ou bloquear um tráfego ou, se você preferir, um pacote é baseada em um conjunto de regras determinadas pelo administrador do filtro de pacotes. Cada regra é composta de uma ou mais condições que descrevem o pacote e uma ação a ser tomada.

NAT (Network Address Translation)

A Tradução de Endereços de Rede, ou simplesmente NAT, surgiu com um propósito bastante interessante e acabou causando um efeito bastante importante na adoção do IPv6. Em meados dos anos 90 falava-se muito que logo acabariam os endereços IP disponíveis na Internet, o que de fato era um problema bastante relevante pois quem não tivesse um endereço IP não poderia "entrar" na Internet. Logo houve uma certa correria em definir o sucessor do IPv4 (que utilizamos até hoje) que era o IPv6. Uma das grandes mudanças é que o IPv6 tem endereços de 128bits contra os endereços de 32bits do IPv4, ou seja, enquanto o IPv4 suporta apenas 4.294.967.296 endereços o IPv6 suporta 3.40282367 x 10^38 endereços.

O NAT tornou possível que diversos computadores com endereços IPs não-roteáveis ou inválidos na Internet pudessem a ele se conectar por intermédio de uma tradução desses endereços para um endereço válido. As faixas de endereços que não-roteáveis na Internet e que, portanto, deve ser a sua escolha na hora de colocar endereços na rede da sua organização são:

  • 10.0.0.0/8 (vai de 10.0.0.0 até 10.255.255.255)
  • 172.16.0.0/12 (vai de 172.16.0.0 até 172.31.255.255)
  • 192.168.0.0/16 (vai de 192.168.0.0 até 192.168.255.255)

Computadores que tenham qualquer um desses endereços não conseguem se comunicar diretamente com a Internet, havendo então a necessidade de um intermediário (NAT ou mesmo Proxy) que tenha ao menos um endereço válido na Internet.

O NAT permite que centenas de computadores com endereços não-roteáveis possam accessar a Internet compartilhando um único endereço inválido. O resultado disso é que um dos elementos que causavam a maior pressão para a rápida adoção do IPv6 foi retirado de cena: o esgotamento dos endereços.

O fato de um computador não ter um endereço válido na Internet impede naturalmente o acesso dele e à ele. Portanto, por padrão, já há uma limitação natural do acesso tanto de uma rede interna à Internet quanto da Internet à rede interna. Qualquer tradução de endereços tem que ser comandada de forma explícita, do contrário a comunicação não será possível.

Um firewall só composto por NAT já é algo útil. Lembre do usuário que tem um link ADSL em casa. Se ele utilizar um modem ADSL que seja também roteador, o modem terá o endereço válido na Internet e distribuirá endereços inválidos na rede interna. Por padrão esses modems já realizam NAT para qualquer pacote enviado pelos computadores internos porém não realizam NAT algum para pacotes que venham da Internet e não sejam em resposta aos pacotes previamete enviados pelos computadores internos. O resultado disso é que mesmo com o uso isolado do NAT as máquinas da rede interna já não podem mais ser acessadas a partir da Internet. Outra situação é a do usuário que ao invés de ter um modem ADSL tem um modem ADSL bridge. Nesse caso o computador é que recebe o endereço válido e não há NAT em uso, portanto qualquer pacote enviado para aquele endereço chegará diretamente ao computador do usuário e caberá a este tomar suas medidas de segurança.

Proxy

O proxy também pode ser chamado de Application Level Gateway. Esse nome destaca a principal característica do proxy: tratar informações do nível de aplicação. Enquanto um filtro de pacotes "vê" como unidade de informação o pacote, o proxy por sua vez "enxerga" como unidade um e-mail ou uma página web, informações da camada de aplicação.

Um e-mail ou mesmo uma página web, quando transmitidos, acabam sendo fragmentados em diversos pacotes o que dificulta bastante o trabalho de um filtro de pacotes quando o que se deseja são filtragens como:

  • filtragem de palavras e termos
  • filtragem de acesso à domínios como "dominioindesejado.com.br"
  • filtragem de remetentes e destinatários de mensagens de e-mail
  • filtragem de arquivos transmitidos/recebidos

Esses e outros tipos de filtragem baseados no conteúdo do nível de aplicação são a especialidade de um proxy. Para cada tipo de aplicação é necessário um proxy específico. Por exemplo, para controlar e-mails é necessário um proxy SMTP, já para controlar a navegação na web é necessário um proxy HTTP.

Diferentemente do filtro de pacotes o proxy não faz o simples encaminhamento dos pacotes recebidos para o destino final, mas sim ao receber uma solicitação de acesso ele inicia uma outra conexão com o destino e solicita as informações. Uma vez recebidas, as mesmas podem ser analisadas, filtradas - até mesmo alteradas - e só então são repassadas ao solicitante.

Além de permitir filtragens mais elaboradas no nível de aplicação, o proxy também possibilita o monitoramento mais detalhado das ações de acesso sendo executadas na rede, já que o mesmo pode interpretar de forma mais específica os protocolos do nível de aplicação.

Fonte: http://blog.serafim.eti.br/2007/06/afinal-o-que-um-firewall.html

quarta-feira, 27 de junho de 2007

Hubble Ultra Deep Field - Legendado

O Hubble Deep Field (HDF) (em português pode ser traduzido como Profundezas do Hubble) é uma vista de uma pequena região do hemisfério celestial norte, baseada no resultado de uma série de observações do Telescópio Espacial Hubble. Ao todo, cobre uma área do céu de 144 segundos de arco, esse equivalente angular é o mesmo de uma bola de ténis vista a uma distância de 100 metros; A composição final foi montada através de 342 exposições em separado tiradas com a câmera Wide Field and Planetary Camera 2 do Telescópio Hubble ao longo de 10 dias, entre 18 de Dezembro e 28 de Dezembro de 1995.

O ângulo de visão é tão reduzido que apenas aparecem visíveis algumas estrelas da Via Láctea; praticamente todos os 3,000 objectos visíveis na imagem são galáxias, entre as quais encontram-se algumas das mais recentes e mais distantes conhecidas até à data. A revelação deste número elevado de galáxias recém-formadas tornou o HDF uma imagem de referência no estudo da formação do universo, já tendo sido a fonte de praticamente 400 publicações científicas desde a sua criação.

Três anos após as observações do HDF, a região do hemisfério celestial sul foi fotografada seguindo um método semelhante, ao qual se deu o nome Hubble Deep Field Sul. As semelhanças entre as duas regiões levaram os cientistas a acreditar que o Universo é uniforme em largas escalas e que o planeta Terra ocupa uma região típica no universo (o princípio cosmológico). No ano 2004 seria criada uma imagem ainda mais profunda, designada Hubble Ultra Deep Field, com um total de 11 dias de observação.

Concepção

Um dos objectivos dos astrônomos que conceberam o Telescópio Espacial Hubble (HST) era o de poder usar uma grande resolução óptica para estudar galáxias distantes a um nível de detalhe impossível de conseguir a partir da superfície terrestre. Embora tenham sido detectados problemas com os espelhos à data do seu lançamento para o espaço, estes sabiam que o Hubble conseguiria alcançar galáxias ainda mais longínquas.

À distância destas galáxias, a luz demora biliões de anos a alcançar a Terra, pelo que as observações de agora correspondem ao estado dessas galáxias há biliões de anos atrás. Desta forma, ao aumentar o alcance do Hubble, os cientistas poderão estudar como evoluiu o espaço.

Após a anomalia ter sido corrigida durante a missão STS-61 do Ônibus Espacial, em 1993, as agora excelentes capacidades do telescópio foram usadas para estudar galáxias incrivelmente distantes, cuja luz recebida era extremamente ténue (daí a necessidade de longos períodos de exposição). O Medium Deep Survey (MDS) usou a câmera Wide Field and Planetary Camera 2 (WFPC2) para obter imagens profundas de zonas aleatórias do espaço, enquanto os outros instrumentos eram utilizados para observações agendadas. Simultaneamente, outros programas dedicavam-se a galáxias já conhecidas por observações terrestres. Todos estes estudos revelaram diferenças substanciais entre as propriedades das galáxias nos dias de hoje e as que existiram há biliões de anos atrás.

Mais de 10% do tempo de observação do Hubble é designado como Director's Discretionary (DD) Time e é tipicamente atribuído como prémio a astrónomos que desejem estudar fenômenos pontuais emergentes, como supernovas. Com a confirmação de que as ópticas correctivas no Hubble estavam bem instaladas, Robert Williams, o então director do Space Telescope Science Institute (Instituto de Ciência Espacial Telescópica), decidiu dedicar uma boa parte do seu tempo DD para estudar galáxias distantes, em 1995. O Comité de Avisos a Institutos especial recomendou que a WFPC2 fosse utilizada para obter imagens celestes a grande latitude galáctica, utilizando vários filtros ópticos, e seria formado um grupo de trabalho para desenvolver e implementar o projecto.

Conteúdos no Deep Field

A imagem final revelou uma panóplia de galáxias distantes, ténues. Conseguiu-se identificar cerca de 3000 galáxias, com galáxias irregulares e em espiral nitidamente visíveis, embora algumas galáxias do campo estejam a escassos pixels de distância umas das outras. Ao todo, o HDF parece revelar menos de 10 estrelas; a maioria dos objectos no campo são galáxias distantes.

NO HDF encontram-se cerca de 50 objectos como um ponto azul. Muitos deles parecem estar associados com galáxias nas proximidades que, em conjunto, formam cadeias e arcos: possivelmente serão regiões de actividade intensa de formação de estrelas. Outros poderão ser quasars distantes. Inicialmente os astrónomos descartaram a hipótese de alguns destes pontos serem anãs brancas, devido a serem demasiado azuis para serem consistentes com as teorias de então sobre a evolução deste tipo de estrela. No entanto, trabalhos mais recentes revelaram que muitas anãs brancas tornam-se progressivamente mais azuis com a idade, sustendo a ideia de que o HDF pode conter anãs brancas.

Fonte: http://pt.wikipedia.org/wiki/Hubble_Deep_Field

Buracos Negros Existem?


Uma equipe de astrofísicos da Universidade Case Western, Estados Unidos, publicou recentemente um artigo científico afirmando que os buracos negros podem não existir. Ou pelo menos não são devoradores de matéria, como se imaginava até agora.

Apesar de povoarem inúmeros artigos e livros científicos, a ponto de já terem atingido o imaginário popular, os buracos negros não podem ser observados diretamente. O que os cientistas têm em mãos são efeitos gravitacionais, que são atribuídos a essas estruturas capazes de devorar qualquer coisa que ultrapasse suas fronteiras.

A fronteira de um buraco negro é chamada de horizonte de eventos. Segundo a teoria atualmente aceita, qualquer objeto que ultrapasse o horizonte de eventos de um buraco negro será totalmente destruído - não apenas esmigalhado ou vaporizado, por que isto deixaria migalhas ou vapores, mas destruído mesmo, "sem deixar qualquer informação," como dizem os cientistas. Nem mesmo a luz consegue escapar de lá.

O que a nova teoria agora lançada afirma é justamente que não é possível existir um horizonte de eventos. Segundo seus autores, a destruição de toda a informação da matéria que ultrapassa o horizonte de eventos vai contra as leis da mecânica quântica. Esse é um dos maiores paradoxos da astrofísica, para o qual a teoria atual não possui soluções satisfatórias.

Se os buracos negros existirem, a informação gerada no seu estado inicial irá desaparecer no próprio buraco negro por meio da emissão de um jato de radiação termal que não carrega nenhuma informação sobre o estado inicial.

O que os físicos agora propõem é que qualquer massa que se aproxima do horizonte de eventos do buraco negro encolhe de tamanho, mas nunca "cai no buraco" no sentido que se atribuía até agora, devido à radiação pré-Hawking, uma radiação não-termal que contém informações sobre a natureza do que está sendo destruído. A partir dessa radiação não-termal é possível reconstituir a matéria que teria caído no buraco negro - logo, um buraco negro não destrói totalmente a informação, porque nada cai nele realmente.

Os físicos não negam as inúmeras observações já feitas por astrônomos e astrofísicos, que verificaram a existência de gigantescas forças gravitacionais mantendo unida uma quantidade inimaginável de matéria - o que hoje é descrito como um buraco negro. Mas, segundo eles, "do ponto de vista de um observador externo, leva uma quantidade infinita de tempo para se formar um horizonte de eventos e o relógio para os objetos caindo no buraco negro parece diminuir seu ritmo até zero."

Se, ainda assim, os buracos negros realmente existirem, continuam os pesquisadores, então sua formação somente poderá ter acontecido no início do tempo.

Fonte: http://soxhlet.blogspot.com/2007/06/buracos-negros-existem.html#more-10227

O que é um Thread?


Um thread é um pequeno programa que trabalha como um sub-sistema independente de um programa maior, executando alguma tarefa específica. Um programa dividido em vários threads pode rodar mais rápido que um programa monolítico, pois várias tarefas podem ser executadas simultaneamente. Os vários threads de um programa podem trocar dados entre sí e compartilhar os recursos do sistema.

Para o programador, existem vantagens e desvantagens em dividir um programa em vários threads. Por um lado isso facilita o desenvolvimento, pois é possível desenvolver o programa em módulos, testando-os isoladamente, ao invés de escrever um único bloco de código. Mas, por outro lado, com vários threads o trabalho torna-se mais complexo, devido à interação entre eles.

Existem diferenças na maneira como os sistemas operacionais executam processos e threads. Por exemplo, o Windows têm mais facilidade para gerenciar programas com apenas um processo e vários threads, do que com vários processos e poucos threads, pois Windows o tempo para criar um processo e alternar entre eles é muito grande. O Linux e outros sistemas baseados no Unix por sua vez é capaz de criar novos processos muito rápido, o que explica o fato de alguns aplicativos, como por exemplo o Apache, rodarem muito mais rápido no Linux do que no Windows, ao serem portados para ele. Porém, ao serem alterados, os mesmos programas podem apresentar um desempenho semelhante nos dois sistemas.

Tradicionalmente o processador executa um thread ou processo de cada vez, chaveando entre eles várias vezes por segundo para nos dar a impressão de que todos estão sendo executados ao mesmo tempo.

O HyperThreading utiliza o tempo ocioso do processador para executar instruções de um segundo thread. Ou seja, o processador passa a se comportar como se fosse um sistema dual, o que naturalmente significa mais instruções processadas por ciclo e mais desempenho.

Programas de escritório, navegadores, etc. utilizam quase que exclusivamente instruções de inteiros, enquanto jogos, aplicativos gráficos, etc. se concentram nas unidades de ponto flutuante. Mesmo que você esteja rodando o OpenOffice e o Maya, ambos não compartilharão os mesmos ciclos de processamento, fazendo com que hora o coprocessador, ora as unidades de inteiros fiquem ociosas. No HyperThreading, o sistema operacional terá a chance de aproveitar todos estes ciclos ociosos, dividindo as tarefas entre os dois processadores virtuais.

Fonte: http://www.guiadohardware.net/artigos/225/

Flickr em português

Com mais de 24 milhões de usuários registrados (dados do mês de abril), o Flickr é o site de compartilhamento de imagens mais famoso que existe. Dessa base de usuários, 55% é constituída de pessoas fora dos EUA. Por conta disso, os responsáveis pelo Flickr acabam de anunciar uma importante novidade: muito em breve, o serviço estará disponível também nos idiomas português, espanhol, alemão, italiano, coreano, francês e chinês tradicional.

O Yahoo!, empresa que atualmente controla o Flickr, afirma que, depois dos EUA, os países que mais utilizam o serviço são: Inglaterra, Canadá, Alemanha, Brasil, Espanha, França e Austrália. Tornar o Flickr disponível no idioma local dos países cuja língua é diferente do inglês é, obviamente, uma ótima estratégia para conseguir ainda mais usuários. O Google, por exemplo, sabe disso e já traduziu a maior parte de seus serviços.

Mas, se isso é óbvio assim, por que o Flickr não foi disponibilizado em outros idiomas antes? Segundo Stewart Butterfield, co-fundador do Flickr: “primeiro porque somos estúpidos e, segundo porque chegamos tarde”. Menos Butterfield, menos. É como diz aquele velho ditado: antes tarde do que mais tarde ainda.

Fonte: http://www.infowester.com/blog/?cat=2

Microsoft lança site para iniciantes em programação

A Microsoft acaba de apresentar o Beginner Developer Learning Center (BDLC), site que oferece treinamento gratuito para iniciantes em programação. O serviço é dividido em dois segmentos: desenvolvimento para a Web (Web Development) e desenvolvimento para o Windows (Windows Development).

Os treinamentos são oferecidos para as linguagens HTML, JavaScript, CSS, ASP.NET, Visual Basic e C#. Para fazê-los, o usuário deve baixar a ferramenta Visual Studio Express Edition, que é disponibilizada gratuitamente.

Se você se interessou pelo BDLC, clique aqui para obter mais informações. Os módulos oferecidos são bastante claros, principalmente porque há vídeos e exemplos que facilitam a compreensão. Para alguns, o único entrave é o fato de todo o material ser oferecido em inglês, mas nada que um pouco de esforço não resolva

Fonte: http://www.infowester.com/blog/?cat=5

terça-feira, 26 de junho de 2007

Caixa restringe acesso à internet


Nova política de acessos prevê navegação controlada a mais de 80% dos funcionários. Do total de 74 mil funcionários, 14 mil gerentes são responsáveis por determinar o que seus subordinados podem ou não navegar.

por
Camila Fusco

Empenhada em aumentar a produtividade de seus funcionários e aliviar o tráfego de informações em suas redes, conforme atesta, a Caixa Econômica Federal (CEF) colocou em prática uma nova política de navegação na internet. Há duas semanas, cerca de 60 mil de seus 74 mil funcionários têm acesso controlado a websites, podendo navegar livremente apenas por páginas com extensões “gov.br”, “edu.br” e “org.br”.

Segundo Jeter Ribeiro, gerente nacional de políticas de gestão de pessoas, foram definidos perfis de uso para os funcionários. Entre as páginas já liberadas para todos os funcionários estão 31,5 mil páginas com as extensões indicadas. Os 14 mil gerentes empregados na companhia têm acesso livre à rede e autonomia para liberar as páginas que consideram necessárias para as atividades profissionais de seus subordinados.

“A decisão de liberar o acesso é descentralizada e depende mesmo de cada gerente, que poderá acatar ou não o pedido de sua equipe. Ele fica encarregado de entrar no sistema do RH – que concentra tais decisões – e ampliar o acesso do usuário”, informa. As permissões de acesso a páginas da internet são identificadas imediatamente que o funcionário faz o login na máquina.

De acordo com Ribeiro, a Caixa vinha realizando estudos ao longo do tempo para basear seu projeto de disciplina do uso da web, mas não existia uma política formal de utilização da rede para seu parque de mais de 120 mil computadores. “Existiam alguns bloqueios pontuais feitos pela área de TI conforme se descobria códigos maliciosos. Mas, mesmo assim, existia um volume muito grande de uso de recursos de internet”, comenta.

Entre os sites mais acessados, segundo essas pesquisas, estavam páginas de e-mails pessoais, lojas virtuais e sites com notícias esportivas. Não havia restrições também a programas de compartilhamento de arquivos peer-to-peer, o que permita o download de imagens, música e vídeo. A partir dessas constatações, então, houve a decisão da administração da CEF de criar uma política de trabalho que autorizasse o acesso somente para fins profissionais.

“Outra razão está relacionada à questão da segurança da informação. Como o acesso de mais de 120 mil máquinas era totalmente aberto para a navegação, havia possibilidade de recebermos ataques”, destaca. Entretanto, a utilização de mensageiros instantâneos tradicionais já era proibida há cerca de dois anos. Para melhorar a comunicação interna, no início do mês a CEF colocou em operação o Mensageiro Caixa, comunicador criado em software livre e que permite a interação de funcionários de todo o país.

A política de acesso foi comunicada formalmente e assinada pelos funcionários no início do mês, pouco antes das novas diretrizes entrarem em vigor. De acordo com Ribeiro, as regras funcionais prevêem inclusive penalidades pelo descumprimento das regras, que será verificado durante as auditorias internas.

Fontes informaram ao COMPUTERWORLD, no entanto, que até o momento a política tem prejudicado as atividades profissionais inclusive de algumas áreas, como as de redes e mainframes que não conseguem ainda acessar, por exemplo, manuais técnicos disponíveis em páginas de fornecedores como Cisco e IBM. De acordo com Ribeiro, porém, ajustes estão sendo feitos gradualmente para solucionar casos assim.

Desde que a política foi implantada, na primeira quinzena de junho, a CEF já registrou declínio de cerca de 60% no download de arquivos, aliviando a rede. “Vemos que a banda da CEF aumentou, especialmente diante do fato de que boa parte do consumo não era para atividade produtiva”, assinala.

Como se poderia imaginar, as reações contrárias à polícia não foram poucas. Vários e-mails já chegaram ao departamento de RH com solicitações de liberação. No entanto, o procedimento da área tem sido de encaminhá-los diretamente para o gestor responsável por aquele funcionário.

“A reação tem sido muito grande especialmente porque as pessoas criam hábitos. De ler jornal, acessar um ou outro site pessoal. Enfim, é uma situação que causa desconforto, mas a empresa tomou a decisão baseada em produtividade e para diminuir o uso de recursos para fins particulares”, resume.

Projeto piloto de inclusão

Ao mesmo tempo em que estabeleceu a política de restrição de acesso, a CEF também está testando um projeto para liberar parcialmente a navegação em terminais distribuídos pelas várias áreas e andares do banco para as horas vagas.

A iniciativa piloto está em vigor em Brasília e disponibiliza 47 computadores com software livre para navegação parcialmente liberados. Um exemplo disso é que o acesso a páginas de e-mails pessoais não é autorizado. As máquinas ficam distribuídas por vários andares dos dois prédios da instituição.

“Como disse é um projeto piloto e vamos ter mais duas ou três semanas para avaliação. Dependendo do volume de uso e de como as pessoas estão percebendo a iniciativa, vamos estender ou não”, conclui.

Fonte: http://www.channelworld.com.br/computerworld/mercado/2007/06/26/idgnoticia.2007-06-26.6771531405

O que é Middleware ?


Middleware, no campo de computação distribuída, é um programa de computador que faz a mediação entre outros softwares. É utilizado para mover informações entre programas ocultando do programador diferenças de protocolos de comunicação, plataformas e dependências do sistema operacional. É geralmente constituído por módulos dotados com APIs de alto nível que proporcionam a sua integração com aplicações desenvolvidas em diversas linguagens de programação e interfaces de baixo nível que permitem a sua independência relativamente ao dispositivo.

Seu objetivo é mascarar a heterogeneidade e fornecer um modelo de programação mais produtivo para os programadores de aplicativos. É composto por um conjunto de processos ou objetos em um grupo de computadores, que interagem entre si de forma a implementar comunicação e oferecer suporte para compartilhamento de recursos a aplicativos distribuídos.

Fonte: http://pt.wikipedia.org/wiki/Middleware

A conexão ITIL-SOA


A utilização dos ensinamentos do ITIL é uma das melhores maneiras de aumentar a satisfação em projetos de adoção da arquitetura orientada a serviços

por Galen Gruman

O ITIL pretende criar operações de TI sob a perspectiva de serviços: sua meta é atender e antecipar as necessidades dos clientes. A arquitetura orientada a serviços, por sua vez, quer desenvolver e utilizar o software de forma que os aplicativos possam ser reaproveitados em diferentes processos de negócios, novos ou já existentes, de maneira simples e confiável. Tanto ITIL quanto SOA vão na direção do que se diz há muito tempo, ou seja, que o papel de TI é entregar serviços para as áreas de negócios e atender às suas necessidades.

Em algumas corporações, a adoção de SOA pode expor os processos e ferramentas tradicionais de TI, mostrando-os ineficientes para o gerenciamento e monitoramento de aplicações na arquitetura orientada a serviços. Portanto, para serem bem-sucedidos, projetos baseados em SOA precisam de muito suporte e investimentos fortes em sistemas de gestão de infra-estrutura e em ferramentas de desenvolvimento. “Para ter uma infra-estrutura capaz de lidar com as complexas interações de seus serviços, empresas que pretendem adotar SOA precisam de algo como ITIL como base”, avalia Rudy Wedenjoa, diretor de gestão de operações corporativas na General Motors, que tem projetos de ITIL e de SOA em andamento.

Um estudo da Ovum de agosto de 2006 mostrou que as empresas que usam ITIL – ou práticas similares – têm duas vezes ou mais sucesso no alinhamento entre as operações de TI e as estratégias de negócios. Combinado à orientação a processos da arquitetura orientada a serviços, permite que o departamento de tecnologia implemente processos como serviços, fornecendo uma plataforma flexível que possibilita a adaptação dos processos às necessidades de negócios.

Fonte: http://cio.uol.com.br/estrategias/2007/06/25/idgnoticia.2007-06-25.2119816657

segunda-feira, 25 de junho de 2007

O que é Computação Quantica ?


A promessa de uma nova era para a computação avançada. É assim que pode ser descrito o anúncio feito pela canadense D-Wave no ultimo mês. A empresa prometeu entregar o primeiro computador quântico comercial em 2008 e demonstrou via videoconferência um protótipo em funcionamento, causando polêmica pela falta de um modelo físico que saciasse a curiosidade dos mais céticos, mas gerando entusiasmo pela perspectiva de uma solução para os problemas mais complexos que sequer os mais poderosos supercomputadores clássicos são capazes de resolver.

Mas o que muda, afinal, com a computação quântica? Para responder essa pergunta, é preciso passar rapidamente por alguns conceitos da mecânica quântica, ramificação da física cujos princípios são utilizados na computação quântica.

Um dos principais conceitos propostos pela mecânica quântica que é importado para a computação quântica é o princípio da superposição. Pela mecânica quântica, uma partícula pode estar em diferentes estados simultaneamente. Isso significa que ela pode estar em diferentes posições ou diferentes tempos – passado e futuro.

“O entendimento disso não é muito fácil porque não tem paralelo no mundo clássico”, admite o pesquisador Renato Portugal, do Laboratório Nacional de Computação Científica (LNCC), do Ministério da Ciência e Tecnologia. “A gente tem que acreditar por ser a única explicação plausível para fenômenos que se observa no mundo subatômico. Isso não entra em contradição com o mundo que a gente conhece porque lá os fenômenos são muito rápidos”, complementa.

A apropriação deste princípio pela computação tem um efeito ainda mais estranho, à primeira vista: enquanto o bit, unidade que representa um caractere de dado na computação clássica só pode assumir o valor zero ou o valor um. Já o qubit, equivalente na computação quântica, pode assumir os valores zero e um ao mesmo tempo.

“O bit clássico assume ou valor zero ou um. Isso vem da própria física clássica - não é possível sobrepor duas coisas diferentes. O que a mecânica quântica diz, por incrível que pareça, é que os dois estados - zero e um - podem coexistir fisicamente”, resume o pesquisador.

Outro princípio da mecânica quântica que fundamenta este novo modelo de computação é o conceito de emaranhamento. “Quando o sistema é emaranhado dá pra descrevê-lo como um todo, mas quando se olha para as partes você não consegue descrever o seu estado. Mais que isso, a mecânica quântica diz que não existe o estado, o sistema só existe enquanto estar junto, como o todo. Como se diz no popular, o todo não é a soma das partes”, brinca o professor.

Várias variáveis

Na prática, essa combinação de princípios na computação é poderosa. Ela permite que o computador quântico seja capaz de lidar com problemas que envolvem um volume de dados complexos e variáveis com os quais o computador clássico não é capaz de lidar.

“O problema usado como exemplo típico é aquele em que você tem o número de telefone da pessoa e quer descobrir o nome. A questão é que as listas não estão ordenadas por número e sim por nomes”, explica o pesquisador. “Não há nada estruturado que diga onde procurar o número e você tem que olhar os nomes um a um. Como a lista é muito grande, você desiste de fazer isso”, explica.

“Já na computação quântica, você poderia fazer de maneira mais rápida porque é possível testar as diferentes possibilidades ao mesmo tempo. A idéia é que você pegaria todos os números da lista e colocaria no estado de superposição. Então você executa o cálculo, que seria processar o nome associado ao telefone em todos os números ao mesmo tempo. É o chamado paralelismo quântico”, detalha.

Na computação clássica, o mesmo problema teria que ser processado de forma serial (com um cálculo sendo processado em seguida do outro) ou em computação paralela, o que exigiria muitos processadores. “Na computação quântica, estamos falando de um único processador. Você consegue fazer cálculos com diferentes valores ao mesmo tempo”, explica Portugal.

“É claro que no caso da lista você poderia simplesmente ordenar os números, mas há outros problemas que não podem ser ordenados porque não tem estrutura nenhuma”, esclarece o pesquisador. De acordo com ele, vários ramos da indústria hoje lidam com problemas altamente complexos e poderiam se beneficiar muito da computação quântica.

Mas segundo o pesquisador não é apenas nos problemas de otimização – como são conhecidos problemas não-estruturados, como o exemplo da lista telefônica – que a computação quântica oferece ganhos. A primeira aplicação a revelar o potencial da computação quântica ficou conhecida como algoritmo de Shor, descrito em 1994, por Peter Shor.

“Ele permite achar divisores de um número inteiro de maneira muito eficiente, mesmo quando falamos de números muito grandes. Não há nenhum algoritmo equivalente na computação clássica. Foi a primeira comprovação em termos de software de que a computação quântica seria útil”, explica o cientista, acrescentando: “Os problemas de otimização têm ganho de velocidade na computação quântica, mas não tão grande quanto o algoritmo de Shor. É um ganho exponencial”.

Fonte: http://idgnow.uol.com.br/computacao_corporativa/2007/03/19/idgnoticia.2007-03-19.3013831963

by TemplatesForYou
SoSuechtig,Burajiru