Informática - Holografia é produzida com elétrons

Holografia é produzida com elétrons

Site: Inovação Tecnológica

Baseado em artigo de Christine Vollgraf - 27/12/2010

 

clip_image002

O experimento com a holografia de elétrons é promissor para o desenvolvimento de novas ferramentas para o estudo de átomos e moléculas durante suas interações e em reações químicas.[Imagem: Huismans et al]

Laser e elétrons

O princípio da holografia foi descoberto em 1947 pelo cientista húngaro Dennis Gábor, quando ele tentava melhorar a resolução dos microscópios eletrônicos - microscópios cujo funcionamento depende dos elétrons.

A primeira realização experimental do conceito de holografia só foi feita em meados dos anos 1960 - mas a demonstração não usava elétrons, e sim uma nova fonte de luz que acabava de ser descoberta: o raio laser.

Agora, físicos do Instituto Max Born, em Berlim, voltaram às origens e estão demonstrando que os elétrons podem de fato ser usados para gerar imagens holográficas.

Não por coincidência, um elemento essencial na nova abordagem é que os elétrons que produzem a imagem do objeto são gerados a partir do próprio objeto - usando um laser de alta potência.

Luz coerente

A holografia prática utiliza luz coerente, isto é, uma fonte de luz onde todas as ondas de luz emitidas marcham de forma coordenada.

Esta onda de luz é dividida em duas partes, uma onda de referência e uma onda objeto. A onda de referência incide diretamente sobre um detector bidimensional, por exemplo, uma chapa fotográfica. A onda objeto interage com o objeto, é refletida, e a seguir também é detectada.

A superposição das duas ondas no detector cria padrões de interferência - é nesses padrões de interferência que a forma do objeto é codificada.

O que Gábor não conseguiu fazer foi construir uma fonte coerente de elétrons. Mas isso é algo comum atualmente nos laboratórios que realizam experimentos com campos de laser de alta intensidade.

Com pulsos intensos e ultra-curtos de laser, pode-se facilmente extrair elétrons coerentes a partir de átomos e moléculas.

Esses elétrons são a base para o novo experimento de holografia à base de elétrons, que foi realizado usando átomos de xenônio (Xe).

Experiência holográfica

"Em nosso experimento, o forte campo de laser arranca elétrons dos átomos de Xe, primeiro os acelera e depois os fazer retornar. É como se alguém pegasse uma catapulta e disparasse um elétron no íon que foi deixado para trás. O laser cria a fonte de elétrons perfeita para uma experiência holográfica," explica Marc Vrakking, um dos autores do estudo.

Alguns dos elétrons se recombinam com o íon, produzindo luz na faixa do ultravioleta extremo (XUV), produzindo pulsos com duração na faixa dos attossegundos.

A maioria dos elétrons passa pelo íon, formando a onda de referência do experimento holográfico.

Alguns dos elétrons, por sua vez, refletem-se no íon, formando a onda objeto.

Usando um detector bidimensional, os cientistas puderam observar os padrões de interferência holográfica gerados pela interação da onda objeto com o potencial de Coulomb do íon.

Informação nos hologramas

O processo de ionização produz elétrons em um intervalo de tempo finito, de apenas alguns femtossegundos.

Segundo os cálculos teóricos da equipe, a dependência do tempo do processo de ionização é codificado no holograma, assim como eventuais alterações do íon entre o momento em que a ionização ocorre e o momento que a onda objeto interage com o íon.

Vrakking explica que é justamente isto que torna o experimento tão promissor para uso futuro:

"No momento, nós demonstramos que os hologramas podem ser produzidos em experimentos com lasers intensos. No futuro, nós teremos que aprender como extrair toda a informação que está contida nos hologramas. Isso poderá criar novos métodos para estudar a dinâmica dos elétrons em uma escala de tempo de attossegundos, bem como novos métodos de estudo das mudanças estruturais, dependentes do tempo, em moléculas," prevê o pesquisador.

Bibliografia:

Time-Resolved Holography with Photoelectrons

Y. Huismans, A. Rouzée, A. Gijsbertsen, J.H. Jungmann, A. S. Smolkowska, P. S. W. M. Logman, F. Lépine, C. Cauchy, S. Zamith, T. Marchenko, J. M. Bakker, G. Berden, B. Redlich, A.F.G. van der Meer, H. G. Muller, W. Vermin, K.J. Schafer, M. Spanner, M. Yu. Ivanov, O. Smirnova, D. Bauer, S. V. Popruzhenko, M. J. J. Vrakking

Science

December 2010

Vol.: Published Online

DOI: 10.1126/science.1198450

Leia Mais ►

Malandragem

A malandragem continua dando as ordens

A malandragem desde muito tempo tem causado transtornos à humanidade e hoje em dia evoluiu de uma forma impressionante.

Como ninguém toma uma providência e a sociedade não cobra das autoridades e nem a imprensa divulga para chamar a atenção com a ênfase que os casos requerem os indivíduos dados a essas práticas danosas vão se dando bem e aumentando em número, multiplicando-se como bactérias.

Os chamados “flanelinhas” estão mais espertos agora. Cobram o “cliente”, (que deveria ser chamado de vítima), antes, ou seja, na hora que este chega. Feito isto, quando não há mais vaga no local por eles loteado, vão-se embora e fica por isso mesmo, como aconteceu neste fim de semana aqui em Sobral, por ocasião do exame do vestibular da UVA.

image E tem mais, o valor a ser pago, isto é, a extorsão, é determinada pelos mesmo que impõem suas próprias exigências e a maior das vezes, o cidadão paga, a contra gosto, é claro, para não ver o seu veículo avariado por tais elementos que podem, caso a gente se negue a pagar o que eles querem, por um ato de represália, quebrar uma peça como lanterna, farol, etc.., ou mesmo em último caso, arranhar a pintura, coisas que já foram constatadas por alguns proprietários de veículos.

Se pelo menos tais indivíduos fizessem o trabalho a que se propõem, seria bom, muito embora ninguém seja obrigado a pagar por um serviço que não solicitou que se fizesse, pois, a rua sendo pública é de todos.

A Polícia e a Guarda Municipal fazem vista grossa a esse tipo de comportamento e exercem uma repressão bem mais rigorosa quando se trata de cidadãos cumpridores de seus deveres, como costuma acontecer cotidianamente, porém a pilantragem fica a vontade sem ser incomodada, deixando margem a se pensar que, de certo modo, os temem.

Já tenho feito alguns apelos às autoridades locais toda vez que me reporto a casos como estes que estou arrazoando, entretanto não foi possível sensibilizá-las. Fazer o que? Nada, rezar para que tudo dê certo.

Ademais, para termos o direito de usarmos os nossos veículos, estamos pagando imposto além do necessário, porque todos sabem o tamanho da nossa carga tributária em se tratando de posse veicular, que vai desde o IPI à Zona Azul.

antromsil

Leia Mais ►

Química - Elementos pseudo-metálicos

Materiais Avançados

Elementos pseudo-metálicos podem criar "pseudo-Tabela Periódica"

Redação do Site Inovação Tecnológica - 09/05/2007image

Na semana passada, um grupo de cientistas conseguiu se aproximar do sonho dos alquimistas fazendo uma manipulação inédita das propriedades de um composto de zinco (veja Sonho dos alquimistas é realizado com zinco).

Pseudo-elementos

Agora, pesquisadores da Universidade de Missouri-Colúmbia, Estados Unidos, descobriram uma nova família de compostos pseudo-metálicos que permitirá a manipulação de uma molécula descoberta há mais de 50 anos de forma a fazê-la adquirir propriedades parecidas com as propriedades dos metais.

É como se os cientistas tivessem descoberto um "pseudo-elemento", um concorrente paralelo dos 111 elementos que compõem a tabela periódica. O pseudo-elemento poderá alterar radicalmente a pesquisa de medicamentos e até a maneira como se criam materiais eletrônicos (veja também Tabela Periódica de "super-átomos" pode revolucionar a Química).

As propriedades dos pseudo-elementos podem ser ajustadas para uma ampla gama de utilizações diferentes, cada uma com pequenas variações.

As moléculas que deram origem à descoberta são chamadas de "gaiolas de boro" e foram descobertas há mais de 50 anos, por Fred Hawthorne. Elas são formadas por 12 átomos de boro e 12 átomos de hidrogênio. Mas são extremamente difíceis de se manipular, o que as condenou ao quase esquecimento durantes todos esses anos.

Propriedades dos metais

Agora os cientistas descobriram uma forma de modificar essas gaiolas de boro anexando-lhes diferentes compostos. São esses compostos que dão ao material o comportamento de um metal.

"Como a gama de propriedades desses pseudo-metais é extremamente grande, eles podem ser chamados de pseudo-elementos, pertencendo a uma pseudo-tabela periódica completamente nova," diz Mark Lee, coordenador do estudo.

Assim como as propriedades, as possíveis aplicações desses elementos pseudo-metálicos são enormes, principalmente na área de medicina e na construção de componentes eletrônicos em nanoescala.

"Esta descoberta singular poderá abrir campos de pesquisas inteiramente novos por causa da variabilidade controlada dos compostos," diz Lee. "Nós podemos alterar as propriedades desses pseudo-metais, o que nos dá a oportunidade para ajustá-los às nossas necessidades, seja na área das aplicações biomédicas, químicas ou eletrônicas, algumas das quais poderão utilizar a nanociência."

Bibliografia:

Alkoxy Derivatives of Dodecaborate: Discrete Nanomolecular Ions with Tunable Pseudometallic Properties

Fred Hawthorne

Angewandte Chemie International Edition

27 Mar 2007

Vol.: Volume 46, Issue 17, Pages 3018 – 3022

DOI: 10.1002/anie.200605126

Leia Mais ►

O que significa ABNT/NBR? - Parte 1

Nota 1: O presente questionário encontrado no site da ABNT (http://www.abnt.org.br/ ), vem a calhar, pois, responde às indagações que fazemos a respeito das normas técnicas e o significado de algumas siglas e acrônimos.

Nota 2: Embora este questionário já tenha sido publicado, resolvi reeditálo dividindo-o em duas partes por se tratar de um texto muito extenso e também por ter sido acrescido de algumas observações de suma importância, razão pela qual peço desculpas aos leitores.
antromsil

Processo Eletivo Superintendente ABNT/CbConselho/assine_boletim.jpg


Fundada em 1940, a Associação Brasileira de Normas Técnicas (ABNT) é o órgão responsável pela normalização técnica no país, fornecendo a base necessária ao desenvolvimento tecnológico brasileiro.
É uma entidade privada, sem fins lucrativos, reconhecida como único Foro Nacional de Normalização através da Resolução n.º 07 do CONMETRO, de 24.08.1992.

É membro fundador da ISO (International Organization for Standardization), da COPANT (Comissão Panamericana de Normas Técnicas) e da AMN (Associação Mercosul de Normalização).
A ABNT é a única e exclusiva representante no Brasil das seguintes entidades internacionais: ISO (International Organization for Standardization), IEC (International Electrotechnical Commission); e das entidades de normalização regional COPANT (Comissão Panamericana de Normas Técnicas) e a AMN (Associação Mercosul de Normalização).

2. O que é normalização?

Atividade que estabelece, em relação a problemas existentes ou potenciais, prescrições destinadas à utilização comum e repetitiva, com vistas à obtenção do grau ótimo de ordem, em um dado contexto.

Comunicação: Proporciona os meios necessários para a troca adequada de informações entre clientes e fornecedores, com vista a assegurar a confiança e um entendimento comum nas relações comerciais;

Simplificação: Reduz as variedades de produtos e de procedimentos, de modo a simplificar o relacionamento entre produtor e consumidor;

Proteção ao Consumidor: Define os requisitos que permitam aferir a qualidade dos produtos e serviços;

Segurança: Estabelece requisitos técnicos destinados a assegurar a proteção da vida humana, da saúde e do meio ambiente;

Economia: Diminui o custo de produtos e serviços mediante a sistematização, racionalização e ordenação dos processos e das atividades produtivas, com a conseqüente economia para fornecedores e clientes;

Eliminação de barreiras: Evita a existência de regulamentos conflitantes, sobre produtos e serviços, em diferentes países, de forma a facilitar o intermédio comercial.

O processo de elaboração de normas técnicas  está apoiado em princípios, que são fundamentais para que todos os objetivos da normalização sejam atendidos e para que ela seja eficaz na sua aplicação e reconhecida por todos.

Voluntariedade – A participação em processo de normalização não é obrigatória e depende de uma decisão voluntária dos interessados. Essa vontade de participar é imprescindível para que o processo de elaboração de normas ocorra. Outro aspecto que fundamenta a voluntariedade do processo de normalização é o fato de que o uso da norma também não é obrigatório, devendo ser resultado de uma decisão em que são percebidas mais vantagens no seu uso do que no não uso.

Representatividade – É preciso que haja participação de especialistas cedidos por todos os setores – produtores, organizações de consumidores e neutros (outras partes interessadas tais como universidades, laboratórios, institutos de pesquisa, órgãos do governo), de modo que a opinião de todos seja considerada no estabelecimento da norma. Dessa forma, ela de fato reflete o real estágio de desenvolvimento de uma tecnologia em um determinado momento,  e o entendimento comum vigente, baseado em experiências consolidadas e pertinentes.

Paridade – Não basta apenas a representatividade, é preciso que as classes (produtor, consumidor e neutro) estejam equilibradas, evitando-se assim a imposição de uma delas sobre as demais por conta do maior número de representantes. Assim, deve-se buscar assegurar o equilíbrio das diferentes opiniões no processo de elaboração de normas.

Atualização – A atualização do processo de desenvolvimento de normas, com a adoção de novos métodos de gestão e de novas ferramentas de tecnologia da informação, contribui para que o processo de normalização acompanhe evolução tecnológica. Esse princípio de atualização deve ser constantemente perseguido para que a normalização atenda à intensa demanda considerando que uma norma defasada tecnologicamente fatalmente cairá no desuso.

Transparência – Todas as partes interessadas devem ser disponibilizadas, a qualquer tempo, as informações relativas ao controle, atividades e decisões sobre o processo de desenvolvimento de normas técnicas.

Simplificação – O processo de normalização deve ter regras e procedimentos simples e acessíveis, que garantam a coerência, a rapidez e a qualidade no desenvolvimento e implementação das normas.

Consenso – Para que uma norma tenha seu conteúdo o mais próximo possível da realidade de aplicação, é necessário que haja consenso entre os participantes de sua elaboração. Consenso é processo pelo qual um Projeto de Norma deve ser submetido, compreendendo as etapas de análise, apreciação e aprovação por parte de uma comunidade, técnica ou não. A finalidade desse processo de consenso é o de atender aos interesses e às necessidades da coletividade, em seu próprio beneficio. Não é uma votação, mas um compromisso de interesse mútuo, não devendo, portanto, ser confundido com unanimidade.

A normalização ajuda a:
· Organização do mercado;
· Constituição de uma linguagem única entre produtor e consumidor;
· Qualidade de produtos e serviços melhorar;
· Orientar as concorrências públicas;
· Produtividade aumentar, com conseqüente redução dos custos de produtos e serviços, a contribuição para o aumento da economia do país e o desenvolvimento da tecnologia nacional.

Documento que estabelece regras, diretrizes ou características para atividades ou seus resultados. “Documento Normativo” é um termo genérico que engloba documentos como normas, especificações técnicas, códigos de prática e regulamentos. Os termos para diferentes tipos de documentos normativos são definidos considerando o documento e seu conteúdo como uma entidade única.

Documento estabelecido por consenso e aprovado por um organismo reconhecido, que fornece, para uso comum e repetitivo, regras, diretrizes ou características para atividades ou seus resultados, visando à obtenção de um grau ótimo de ordenação em um dado contexto.

...Continua...
    Leia Mais ►

    Ciência – Virtuais mudanças na Tabela Teriódica

    Materiais Avançados

    Superátomos viram a Tabela Periódica de cabeça para baixo

    http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=superatomos-viram-a-tabela-periodica-de-cabeca-para-baixo&id=010160080707

    Roy Meijer - 07/07/2008

    clip_image001Um pequeno fio em formato de bobina, parecido com o filamento de uma lâmpada incandescente, mas feito de prata, forma a base dos superátomos.[Imagem: Sam Rentmeester/FMAX]

     

    Pesquisadores da Universidade de Tecnologia de Delft, na Holanda, desenvolveram uma técnica que permite individualizar e capturar aglomerados feitos de átomos de prata e de outros metais.

    Superátomos

    O que é mais surpreendente é que esses superátomos - aglomerados de 13 átomos de prata, por exemplo - comportam-se da mesma forma que os átomos individuais, abrindo um ramo inteiramente novo da Química.

    Se um fio de prata é aquecido até cerca de 900 graus Celsius ele irá gerar um vapor de átomos de prata. Esses átomos flutuantes grudam-se uns nos outros, formando grupos. Pequenos blocos de prata compreendendo, por exemplo, 9, 13 e 55 átomos, parecem ser energeticamente estáveis, aparecendo mais freqüentemente no vapor de prata do que seria de se esperar.

    Os professores Andreas Schmidt-Ott e Christian Peineke conseguiram então capturar esses superátomos, abrindo a possibilidade de que eles sejam estudados em experimentos químicos detalhados.

    Descoberta dos superátomos

    O mecanismo que governa esta estabilidade nos superátomos foi descrito por cientistas da Universidade da Virgínia em 2005 (veja Tabela Periódica de "superátomos" pode revolucionar a Química.)

    Eles descobriram superátomos metálicos, mas de alumínio. Seus aglomerados de alumínio de 13, 23 e 37 átomos reagiram da mesma forma que os átomos individuais porque eles englobavam elétrons que giravam ao redor do aglomerado de átomos como um todo. Essas chamadas "camadas externas" eram incrivelmente similares às camadas externas dos elementos da Tabela Periódica.

    Tabela Periódica 3D

    Os superátomos dão à Tabela Periódica algo como uma terceira dimensão, segundo Schmidt-Ott: "As propriedades químicas dos superátomos que foram identificados até agora são muito similares às dos elementos na Tabela Periódica porque suas camadas externas são praticamente as mesmas. Entretanto, nós ainda poderemos descobrir superátomos com uma camada externa diferente, dando-nos um conjunto de propriedades completamente novas."

    Schmidt-Ott espera encontrar aglomerados de átomos com propriedades magnéticas, ópticas ou elétricas totalmente novas, que poderão ser estáveis o suficiente para criar cristais ou outras formas sólidas. As aplicações potenciais desses superátomos incluem catalisadores para combustíveis e cristais com capacidades extras de condução elétrica.

    Agora, graças a essa nova descoberta, os superátomos podem ser coletados de forma muito pura e selecionados de acordo com o tamanho, tornando-os adequados para experiências químicas.

    Para conhecer outros potenciais acréscimos à Tabela Periódica, veja Elementos pseudo-metálicos podem criar "pseudo-Tabela Periódica".

    Leia Mais ►

    Instrumentos de medição - Anemômetro

    Anemômetro

    Origem: Wikipédia, a enciclopédia livre.

     

    clip_image001Anemômetro de Robinson

    Anemômetro (do grego anemus = vento) é um instrumento utilizado para medir a velocidade do vento.

    Anemômetro de Robinson

    O modelo mais preciso é o tipo rotor horizontal de conchas (Anemômetro de Robinson). Um rotor com 3 conchas hemisféricas aciona um mecanismo onde é instalado um sensor eletrônico. A vantagem deste sistema é que ele independe da direção do vento, e, por conseguinte de um dispositivo de alinhamento.

    Anemômetro sônico

    O anemômetro sônico , através de ondas sonoras, realiza medidas a alta frequência (várias medições por segundo) das três componentes da velocidade do vento (duas horizontais e uma vertical).

    ---------------------------------------------

    http://recantodasletras.uol.com.br/artigos/943880

    ANEMÔMETRO

    image 

    Anemômetros são instrumentos que servem para medir a direção e indicar a velocidade dos ventos. Inspirados nos cata-ventos, eles são calibrados de forma a que o total de voltas dadas por suas pás correspondam a uma velocidade específica, ou seja, se no túnel de vento em que são ajustados a corrente de ar sopra a dez quilômetros por hora, e as pás do instrumento giram cem vezes por minuto, ele é programado para indicar 10 km/h sempre que o anemômetro atingir 100 rotações por minuto, e assim por diante.

    Em geral há dois tipos de anemômetros, o de conchas e de hélice. O anemômetro de conchas é do tipo rotativo mais vulgar em que há três ou mais conchas de formato especial montadas simetricamente formando ângulos retos com um eixo vertical. A velocidade de rotação depende da velocidade do vento, independentemente da direção de onde ele sopra. O conjunto das conchas faz mover um mecanismo que conta as rotações e a velocidade do vento é calculada com o auxílio de um dispositivo de contagem. Os anemômetros de hélice são também do tipo rotativo. Um cata-vento mantém voltada para o vento uma hélice, cuja rotação é transmitida a um indicador.

    Os ventos são causados pelas diferenças existentes no aquecimento da atmosfera, decorrentes da orientação dos raios solares, dos movimentos da Terra e outros fatores. Assim, como as regiões tropicais recebem a luz do Sol praticamente a prumo, em linha reta, elas são mais aquecidas que as regiões polares, e esse ar quente tropical tende a subir naturalmente, sendo substituído por massas de ar frio que se deslocam dos pólos. Esses são os ventos horizontais. Os ventos verticais ocorrem quando o ar rente ao solo se aquece, fica mais leve e sobe, sendo substituído pela camada de cima. Esse movimento acontece com maior ou menor velocidade, daí a necessidade de que se conheça a força com que sopra.

    Em outras palavras, durante o dia, o ar ao ser aquecido, por estar em contacto com a superfície terrestre (aquecida, basicamente, pela radiação proveniente do Sol), conduz a um aumento de volume e, por isso, torna-se menos denso (mais “leve”) e sobe. No entanto, à medida que o ar aquecido sobe, entra em contacto com ar mais frio (da sua vizinhança) e arrefece, o que provoca uma contração do volume desse ar, que, por isso, se torna mais denso (mais “pesado”) e desce. Como conseqüência deste processo o ar é obrigado a circular sob a forma de correntes de convecção (transmissão de calor nos líquidos ou nos gases, pelo movimento das camadas aquecidas), que estão sempre a ocorrer, quer em grandes áreas da superfície terrestre (desertos), quer em pequenas áreas (campo lavrado).

    Para medir essa variação na força dos ventos o contra-almirante e hidrógrafo da marinha inglesa, Sir Francis Beaufort (1774-1857) criou uma escala variável de 0 a 12, observando o que acontecia na superfície do mar e com as suas ondas nos momentos de maior ou menor intensidade do sopro de ar. Posteriormente essa tabela foi adaptada para a terra. Existem no globo terrestre regiões onde os ventos não param de soprar, pois os mecanismos de sua formação estão sempre presentes na natureza. São chamados de ventos planetários, ou constantes, e sua classificação abrange os ventos alísios, os contra-alísios, os ventos do oeste e os polares.

    Por outro lado, fatores diversos provocam variações sazonais na intensidade e duração dos ventos chamados continentais, ou periódicos, que compreendem as monções e as brisas. Além desses, também devem ser mencionados os ventos locais, originados por outros mecanismos mais específicos presentes em determinadas regiões e condições locais, dos quais o mais conhecido é o que sopra nos vales e montanhas.

    Este texto também foi publicado em www.efecade.com.br, que o autor está construindo. Visite-o e deixe a sua opinião.

    FERNANDO KITZINGER DANNEMANN

    Publicado no Recanto das Letras em 13/04/2008

    Código do texto: T943880

    Esta obra está licenciada sob uma Licença Creative Commons. Você pode copiar, distribuir, exibir, executar, desde que seja dado crédito ao autor original. Você não pode fazer uso comercial desta obra. Você não pode criar obras derivadas.

    ---------------------------------------------------------------------------------------

    Leia Mais ►

    Materiais Avançados - Tapete da invisibilidade

    Materiais Avançados

    Tapete da invisibilidade esconde objetos visíveis a olho nu

    Redação do Site Inovação Tecnológica - 22/12/2010

    clip_image001Os pesquisadores usaram dois cristais de calcita para criar um tapete de invisibilidade capaz de esconder uma barra de aço de 38 mm de comprimento e 2 mm de altura. [Imagem: Zhang et al.]

    Os fãs de Harry Potter adorariam ter seu próprio manto da invisibilidade. Já os fãs de Aladim talvez preferissem um tapete voador.

    Já o Dr. Baile Zhang e seus colegas do MIT de Cingapura misturaram tudo e criaram uma espécie de tapete da invisibilidade - na verdade eles o chamam de "carpete da invisibilidade".

    Invisibilidade ao natural

    Mas há algo de mais significativo neste feito, que marca mais um capítulo na impressionante história do desenvolvimento da invisibilidade óptica, que a maioria dos físicos dizia ser impossível até poucos anos atrás.

    Sempre que se fala em invisibilidade, um outro termo necessariamente aparece associado: metamaterial. Os metamateriais são materiais artificiais, geralmente estruturas em formatos complexos, capazes de lidar com a luz de forma não usual.

    Como são sintéticos e complicados, nem sempre é fácil fabricar os metamateriais, e sua própria estrutura impõe restrições à funcionalidade dos mantos de invisibilidade criados com eles.

    Mas o Dr. Zhang decidiu usar um material natural, um cristal chamado calcita, muito usado em óptica. E, por usar um material natural, o manto de invisibilidade de calcita é muito mais fácil de fabricar e muito mais barato.

    De certa forma, a calcita faz alguns "malabarismos" com a luz, algo que tem sido creditado apenas aos metamateriais: por exemplo, suas propriedades ópticas dependem da direção em que a luz passa através dela.

    Tapete da invisibilidade

    Usando técnicas tradicionais de construção de lentes, os pesquisadores usaram dois cristais de calcita para criar um tapete de invisibilidade capaz de esconder uma barra de aço de 38 milímetros de comprimento e 2 milímetros de altura.

    Isto representa outro avanço na área, uma vez que, até agora, os dispositivos de camuflagem escondiam apenas peças muito pequenas, com dimensões na faixa do comprimento de onda da luz visível - veja Manto da invisibilidade agora é 3D e aproxima-se do olho humano.

    Mas o dispositivo ainda tem suas limitações. Por exemplo, ele só funciona sobre um plano, ou seja, o objeto somente ficará invisível quando se tentar olhar para ele a partir de um ponto específico.

    O maior entrave rumo a uma aplicação prática, contudo, é que o efeito só é obtido com luz polarizada. Mas, como a água tende a polarizar a luz, é razoável imaginar que o tapete da invisibilidade permita esconder objetos dentro d'água.

    Bibliografia:

    Macroscopic Invisible Cloak for Visible Light

    Baile Zhang, Yuan Luo, Xiaogang Liu, George Barbastathis

    arXiv

    10 Dec 2010

    http://arxiv.org/abs/1012.2238

    Leia Mais ►

    Mensagem de Natal

    Mensagem de Natal

              Mais um ano chega ao fim e a vida prossegue seu curso rumo ao infinito e sempre evoluindo em todos os sentidos. E nós habitantes deste pequeno planeta de provas e expiação no limiar de uma nova ascensão para mundo de regeneração, seguimos resgatando nossos débitos e fazendo a vontade de Deus.

              Que esta data seja lembrada sempre com veneração e respeito ao aniversariante, o nosso Mestre Jesus, o qual vem paulatinamente sendo preterido em favor de um ser inexistente, a figura mítica do Papai Noel, cuja simbologia incute nas mentes despreparadas uma idéia errada do verdadeiro sentido do natal.

              O troca-troca de presentes somente alimenta o comércio que aí vê uma chance imperdível de ganhar dinheiro e que tudo faz para atrair a clientela com os mais diversos reclames.

              O ritmo frenético do povo acorrendo às lojas sempre abarrotadas, barulho, correria de deixar qualquer um estressado. Tudo isso acontece no Natal.

              Porem, não nos esqueçamos daquele que nos remiu. Eu vos conclamo a refletir um pouco mais sobre o sentido essencial do Natal vendo no seu semelhante um irmão, ajudando-o sempre que este precisar, perdoando as ofensas, procurando corrigir os próprios erros posto que ninguém é prefeito.

              Feliz Natal. Que Deus vos ilumine e abençoe e que o ano novo que se avizinha seja repleto de felicidades, é o que eu desejo a todos os irmãos terráqueos.

    antromsil

    Leia Mais ►

    Antematéria – Parte 4

    Última parte do artigo

    Antematéria, LHC e Anjos e Demônios

    http://sampa.if.usp.br/~suaide/blog/?e=153 

    Na figura 7 é mostrada uma foto de uma colisão entre dois núcleos de ouro no acelerador RHIC, registrada pelo experimento STAR. Cada linha na foto corresponde a uma partícula (ou antipartícula). Em um evento típico, milhares dessas são produzidas. Em geral ocorrem milhares de colisões como essa por segundo no acelerador. Para registrar cada uma dessas colisões é necessário uma infra-estrutura computacional sofisticada.

    image Figura 7 - Colisão entre dois núcleos de ouro, registrada pelo experimento STAR, no RHIC (cortesia de BNL).

    A observação das partículas e antipartículas provenientes dessas colisões, como mostrado acima, requer equipamentos de detecção extremamente sofisticados, no limite da tecnologia do ser humano. Na verdade, é preciso desenvolver novas tecnologias para isso ocorrer. Um exemplo típico é a criação da WEB, necessária para troca de informações adquiridas nestes tipos de aceleradores. Projetos deste porte envolvem centenas de pesquisadores do mundo inteiro. A USP, por exemplo, participa ativamente em vários experimentos do RHIC e LHC. Na figura 8 é mostrada uma foto do experimento Alice, no LHC.

    image Figura 8 - Foto do experimento Alice (cortesia do Cern).

    Em resumo, nós sabemos produzir antipartículas faz algum tempo. Nós as estudamos com bastante detalhe. Mas será que poderíamos dar um uso prático a essas antipartículas, como utilizá-las como fonte de energia? Há alguns pontos que precisamos considerar para responder a esta pergunta.

    Antipartículas produzidas em aceleradores podem ser utilizadas como fonte de energia?

    É possível aprisionar as antipartículas produzidas? Em geral elas são produzidas com velocidades muito elevadas, próximas à da luz, sendo impossível contê-las. Os detectores registram apenas as suas trajetórias e informações como momento e energia. Ao passar pelos detectores elas são aniquiladas ou jogadas para fora do acelerador, se perdendo.

    Contudo, mesmo se fosse possível armazená-las, e se dispuséssemos de equipamentos com grande capacidade de armazenamento, seria viável utilizá-las como fonte de energia? A resposta para esta pergunta é NÃO! As razões para esta resposta são as seguintes:

    1. Gasta-se mais energia produzindo as antipartículas do que elas são capazes de fornecer.

    Antimatéria não é algo abundante no nosso mundo. A produção em aceleradores é feita a partir de matéria ordinária, acelerada. Assim, para criar antipartículas é necessário fornecer energia para a matéria que vai colidir. Como nem toda energia gasta em um acelerador é fornecida aos núcleos que vão colidir (gastamos energia resfriando o acelerador, com computadores, monitoramento, etc.) e como nem toda energia na colisão é transformada em antipartículas, o balanço energético é negativo. Ou seja, gasta-se mais, muito mais, energia do que poderíamos recuperar com a antimatéria. Um processo onde gasta-se mais do que se produz não é viável comercialmente.

    2. A quantidade de antimatéria é insignificante macroscopicamente.

    Quanto tempo leva para o LHC produzir um grama de antimatéria? É viável? Vamos tentar responder esta pergunta fazendo algumas estimativas até um pouco exageradas. Para obter o tempo necessário para produção de um grama de antiprótons vamos utilizar, então, as seguintes suposições:

    1. Em uma colisão próton-próton no RHIC é produzido aproximadamente um antipróton a cada dez eventos. Esta taxa de produção não deve ser muito diferente no LHC, de modo que podemos utilizá-la como estimativa. Vamos chamar de Np o número de antiprótons produzidos em uma colisão e vamos assumir, então que Np ~ 0,1 antipróton/colisão.
    2. Vamos usar a taxa de colisão esperada para feixes de prótons no LHC. Esta taxa pode ser estimada em 600 milhões de colisões por segundo (Tc). Esta é a estimativa de taxa máxima de colisões. O valor médio é muito menor que este, mas como estamos interessados em um limite inferior para o tempo, este valor serve ao propósito.
    3. Vamos supor que o LHC vá operar 365 dias por ano e 24 horas por dia. Isto é impossível de ser alcançado, pois há períodos de manutenção programada, montagem de experimentos, e o tempo morto do acelerador.

    Com as suposições acima, tempo que:

    1. O número de antiprótons produzidos por segundo é estimado em N = Np x Tc = 0,1 x 600x106 ~ 6x107 antiprótons/s.
    2. Um ano contém 365 dias x 24 horas x 3600 segundos ~ 3x107 segundos.
    3. Em um ano o número de antiprótons produzidos seria Nano ~ 3x107 x 6x107 = 2x1015 antiprótons/ano.
    4. O número de antiprótons em um grama de antimatéria corresponde ao número de Avogadro, ou seja 6,02x1023 antiprótons/g.
    5. Para produzir um grama de antiprótons é necessário 6,02x1023 / 2x1015 ~ 300 milhões de anos.

    Cálculos mais detalhados, considerando o tempo que o acelerador funciona e uma taxa de colisões menor, fazem este tempo subir de um fator 10, chegando a 3 bilhões de anos! Ou seja, produzir, com o LHC, um grama de antiprótons é impossível.

    Conclusões

    Neste texto tentamos responder se é possível e viável o uso de antimatéria como fonte de energia e se o LHC é capaz de fornecer a quantidade necessária de antimatéria para este fim. Com base nos argumentos descritos acima, podemos concluir que:

    1. Antimatéria é uma fonte de energia muito eficiente, se comparada às fontes de orígem química ou nuclear, pois o processo de aniquilação faz com que toda a massa das partículas envolvidas esteja disponível como fonte de energia.
    2. Não há tecnologia disponível para armazenar quantidades macroscópicas de antimatéria. Os instrumentos atuais permitem armazenar da ordem de 1010-12 partículas apenas.
    3. Antimatéria não está disponível ao nosso redor, como petróleo, carvão ou materiais radioativos. Precisamos produzi-la. Gasta-se muito mais energia para produzi-la do que aquela que seria utilizada posteriormente. Isto é uma limitação física e não tem jeito de contornar esta situação.
    4. O LHC não é capaz de produzir antimatéria na quantidade necessária para qualquer fim prático. A produção de um grama de antiprótons tem o seu tempo estimado em milhões a bilhões de anos.

    Ou seja, o uso de antimatéria para fins energéticos é impraticável e, o que vimos no filme Anjos e Demônios é pura ficção científica.

    Alexandre Monday 06 July 2009 at 09:06 am | | divulga

    Leia Mais ►

    Os defeitos mais comuns no PC doméstico – Parte 4

    Continuação…

    4ª Parte - 1ª Etapa

     

     

    image 4) Boot só funciona por disquete, mas HD está OK

    Este é um caso mais simples do item anterior. Não conseguimos executar o boot através do disco rígido, em geral é apresentada a mensagem NO ROM BASIC, mas o boot funciona através de disquete, e ao usarmos o comando DIR C:, o disco rígido parece normal. Tudo o que precisamos fazer é executar o programa FDISK e usar o comando 2 – Ativar partição ativa. Tornamos ativa a partição primária, e depois disso poderemos executar um boot pelo disco rígido.

    5) Teclado trocando caracteres

    O problema pode ser um defeito no teclado, e a substituição por um novo será a solução. Se o pro­blema persistir mesmo com um teclado bom, então provavelmente está localizado na interface de teclado. Nos PCs atuais esta interface está localizada no Super I/O, portanto em caso de defeito na interface a placa de CPU estará perdida. Uma solução é utilizar um teclado USB, deixando de lado a interface de teclado comum. Em PCs antigos, esta interface é formada pelo chip 8042, sobre o qual existe normalmente uma etiqueta com a indicação Keyboard BIOS. Experimente instalar no seu lugar, o 8042 retirado de uma outra placa de CPU. Este chip pode ser obtido em sucatas de peças para PC. Uma placa de CPU estragada chega a custar de 10 a 20 reais, e dela podemos extrair algumas peças, inclusive o 8042.

    Soluções paliativas para problemas com o teclado:

    Se o seu teclado às vezes fica maluco e troca caracteres mas você ainda não teve tempo para resolver o problema, existe um pequeno macete. Pressione simultane­amente as duas teclas SHIFT, e o teclado voltará ao normal (pelo menos por en­quanto). Se o seu PC fica aparentemente travado no início do boot, logo depois do teste de memória, pressione a barra de espaço.

    6) “Keyboard Error” durante o boot

    Ao ser ligado o computador, logo depois do POST e antes do carregamento do sistema operacional, pode aparecer a mensagem:

    Keyboard Error – Press <F1> to continue

    Esta mensagem pode ocorrer pelo fato do teclado estar defeituoso, mas normal­mente ocorre quando a rotina de teste de teclado do POST é feita antes que o mi­croprocessador existente dentro do teclado realize a sua inicialização. Para evitar este problema, procuramos no Standard CMOS Setup o comando Keyboard e o programamos como Disabled. Isto significa que o teclado não será testado durante o POST, e desta forma o erro será eliminado. Outra forma de evitar este problema é comandar um teste de memória mais demorado. Habilite a opção Above 1 MB Memory Test e desabilite a opção Quick Boot ou Quick Power on Self Test. Isto dará tempo ao chip do teclado para fazer sua inicialização, eliminando o problema.

    7) Sistema operacional inválido

    Esta é uma mensagem de erro que ocorre quando alguns dos arquivos envolvidos no boot estão em falta, ou quando existe algum problema no setor de boot. Quando isto ocorre, conseguimos executar um boot através de um disquete e acessar o drive C, porém o boot pelo drive C não funciona. Para resolver este problema é preciso executar um boot com um disquete contendo o programa SYS.COM. Deve ser da mesma versão que a existente no disco rígido. Use o comando:

    SYS C:

    Os arquivos necessários para o boot serão copiados do disquete para o drive C. Feito isto, já será possível executar um boot pelo drive C.

    Este problema também ocorre quando os parâmetros do disco rígido no CMOS Setup são alterados depois que o sistema operacional já está instalado.

    8) HDD Controller Failure

    Significa “Falha na controladora do disco rígido”. Esta mensagem de erro ocorre durante o POST quando é detectado algum problema no acesso ao disco rígido. Ao contrário do que muitos pensam, este problema não está necessariamente na interface IDE. Pode estar no próprio disco rígido. As suas causas possíveis são:

    · O disco rígido, ou a interface IDE, ou o cabo flat está defeituoso

    · O disco rígido não está declarado no CMOS Setup

    · O disco está com parâmetros errados no CMOS Setup

    · Existe erro na configuração de jumpers do disco rígido

    No item 3 desta seção já apresentamos os procedimentos a serem usados para che­car cada um desses pontos. Se mesmo com essas checagens o problema persistir, existe grande chance do disco rígido, ou a sua interface, ou o cabo flat estar defei­tuoso. A melhor coisa a fazer é tentar substituições até descobrir a causa do pro­blema.

    9) FDC Controller Failure

    Significa “Falha na controladora de drives de disquete”. Esta é outra mensagem que pode aparecer durante o POST. O erro pode ter várias causas:

    · Erro na declaração dos drives de disquete no CMOS Setup

    · Conexões frouxas no drive ou na interface

    · Conexão errada no cabo flat para drives

    · Drive de disquetes defeituoso

    · Cabo flat defeituoso

    · Interface para drive de disquetes defeituosa

    · Problema na fonte de alimentação ou no seu conector

    Note que o fato do drive passar pelo POST sem erros não significa que esteja em boas condições. O erro apresentado no POST indica apenas que ocorreu falha na comunicação com o drive de disquetes. Neste teste, nem mesmo uma leitura é feita no disquete, apenas é ligado o seu motor e feito um movimento com as cabeças de leitura e gravação.

    CMOS Setup - Comece checando se o drive de disquetes está declarado correta­mente no CMOS Setup. Verifique no Standard CMOS Setup como os drives estão programados. Em um PC com apenas um drive de 1.44 MB, deve estar declarado A=1.44 MB e B=None.

    Cabo flat e cabo da fonte - Verifique se o cabo flat está conectado corretamente na interface para drives e no próprio drive, e se o conector da fonte de alimentação está ligado correta­mente no drive. Quando o cabo flat dos drives está invertido, esta mensagem de erro também aparece. Nesse caso o LED do drive fica permanentemente aceso. Normalmente esta inversão não danifica o drive nem sua interface. Basta corrigir a conexão e o drive voltará a funcionar.

    Defeito - Finalmente, pode existir um defeito no drive, na interface para drives ou no próprio cabo. Para tirar a dúvida temos que fazer substituições. É bom que o problema esteja no drive, ou então no cabo flat. Desta forma o custo da reposição será mais baixo.

    O defeito em uma interface para drives localizada em uma placa de CPU pode ser solucionado, sem a necessidade de trocar a placa. Devemos para isto instalar uma placa IDEPLUS de 16 bits para utilizar a sua interface de drives. Todas as demais interfaces desta placa IDEPLUS devem ser desabilitadas através de seus jumpers. A interface IDE da placa de CPU deve ser desabilitada na seção Peripheral Configuration do CMOS Setup. Desta forma o drive de disquetes poderá ser ligado na placa IDEPLUS, e a placa de CPU poderá ser aproveitada.

    10) Mouse inativo

    Muitos são os problemas que podem levar o mouse a não funcionar. Essa inativi­dade é representada pela ausência do cursor do mouse na tela, ou então por um cursor imóvel. Aqui estão algumas causas possíveis.

    Mouse defeituoso

    Interface para mouse defeituosa

    Fonte de alimentação defeituosa (sem tensões de +12 e –12 volts)

    A interface do mouse pode estar desabilitada

    Erro na conexão entre a placa de CPU e o conector da interface do mouse

    Uso de conectores de outra placa

    Conflito de hardware

    Mouse ligado na COM2, no modo MS-DOS

    Troca simples - Muitos modelos de mouse têm baixa qualidade, e podem real­mente apresentar defeito com relativa facilidade. Como o mouse é muito suspeito, é aconselhável tentar antes substituí-lo por um mouse em boas condições, ou então instalar o mouse suspeito em outro computador para verificar o seu funcionamento.

    Software de diagnóstico - A interface na qual o mouse está conectado (COM1, COM2 ou interface para mouse PS/2) pode estar defeituosa. Podemos checar o seu funcionamento usando um programa de diagnóstico. Devemos aco­plar o conector loopback na porta serial para fazer o teste completo. Quando um erro é apresentado, é possível que não seja exatamente na inter­face serial, mas no cabo que liga a interface serial até o seu conector na parte tra­seira do PC. No caso de placas AT, o conector do mouse é separado da placa, e ligado através de um cabo auxiliar. Este cabo pode estar mal conectado, ou então conectado de forma invertida, ou mesmo defeituoso. É possível ainda que esteja sendo usado o cabo de uma outra placa de CPU, incompatível com a placa atual. Esses cabos não são padronizados, e o cabo que acompanha uma placa não necessariamente funcionará com outras placas.

    Teste em outra porta - Para verificar se o problema está na porta serial, podemos tentar ligar o mouse em outra porta. Se o mouse está na COM1, ligue-o na COM2. O Windows reconhecerá automaticamente a porta onde o mouse está ligado e aceitará os seus comandos. Tome cuidado com o caso do mouse padrão PS/2. A maioria das placas de CPU atuais possuem uma interface para mouse padrão PS/2. Essa interface não é uma COM1 nem COM2, e normalmente utiliza a IRQ12. Pre­cisa ser habilitada no CMOS Setup para que funcione. Procure no Peripheral Configuration o item Mouse function e habilite-o.

    Conflito de hardware - Quando a interface na qual está ligado o mouse entra em conflito de hardware com outra interface, o mouse apresentará funcionamento errá­tico, ou simplesmente travará. O caso mais comum é quando o mouse está usando COM1/IRQ4 e o modem está configurado como COM3/IRQ4. É preciso reconfigurar os endereços e IRQs dos dispositivos envolvidos para desfazer o conflito de hardware. Observe que a interface para mouse padrão PS/2 também pode apresentar conflito, caso outra interface esteja também usando a IRQ12. Use o Gerenciador de Disposi­tivos para verificar possíveis conflitos de hardware.

    Driver para MS-DOS - Se o mouse funciona no Windows e não funciona no modo MS-DOS, temos aqui outro problema típico. Para que o mouse funcione em modo MS-DOS é preciso que seja executado o seu driver, normalmente um programa com o nome MOUSE.COM, GMOUSE.COM, MMOUSE.COM ou similar. Outra questão a ser verificada é a ligação do mouse na COM2. No Windows o mouse funciona automaticamente, tanto na COM1 como na COM2. No caso do modo MS-DOS, é preciso avisar ao driver do mouse, qual é a porta serial usada. Use o programa de driver do mouse com o pa­râmetro /? ou /H e serão apresentadas instruções para que o mouse funcione na COM2.

    11) Imagem sem sincronismo, desde que o PC é ligado

    A imagem do monitor fica rolando na tela, totalmente distorcida e na maio­ria das vezes impossível de ler. Quando este problema ocorre apenas no Windows ou quando é ativado algum modo gráfico de alta resolução, não se trata de um de­feito, mas de um erro na programação da placa de vídeo. Por outro lado, quando desde o instante em que o PC é ligado a imagem fica instável, provavelmente te­mos um problema sério:

    · Monitor defeituoso

    · Cabo de vídeo defeituoso

    · Placa de vídeo defeituosa

    Você pode fazer substituições usando outro computador, e fatalmente encontrará a causa do problema. Se o defeito estiver no cabo você poderá consertá-lo, ou então adquirir um cabo novo, o que dá muito menos trabalho. O monitor defeituoso deve ser enviado a uma assistência técnica especializada neste tipo de conserto. Uma placa de vídeo defeituosa poderá ser simplesmente trocada.

    12) Imagem sem sincronismo no Windows

    Quando o monitor apresenta imagens perfeitas durante o processo de boot, mas fica fora de sincronismo quando é iniciado o Windows, ou então quando é execu­tado algum programa gráfico que use imagens de alta resolução, não existe defeito algum, nem no monitor, nem no cabo, nem na placa de vídeo. O problema está nas freqüências horizontais usadas pela placa de vídeo, por estarem acima dos valo­res permitidos pelo monitor. É preciso portanto ajustar as freqüências da placa de vídeo para que se tornem compatíveis com as do monitor. Com este pequeno ajuste, o problema de falta de sincronismo estará solucionado. O ajuste é feito através do quadro de configurações de vídeo.

    Leia Mais ►

    Química - Tabela Periódica será corrigida

    http://www.inovacaotecnologica.com.br/

    Materiais Avançados

    Tabela Periódica será corrigida pela primeira vez na história

    Redação do Site Inovação Tecnológica - 17/12/2010

    clip_image001Pesos atômicos deixam de ser constantes da natureza, e passarão a ser expressos em intervalos, com limites superiores e inferiores.[Imagem: Coplen/Holden]

    Mudanças nos pesos atômicos

    Pela primeira vez na história, os pesos atômicos de alguns elementos da Tabela Periódica serão alterados.

    A nova Tabela Periódica, descrita em um relatório científico que acaba de ser divulgado, irá expressar os pesos atômicos de 10 elementos de uma forma diferente, para refletir com mais precisão como esses elementos são encontrados na natureza.

    Os elementos que terão seus pesos atômicos alterados são: hidrogênio, lítio, boro, carbono, nitrogênio, oxigênio, silício, cloro, enxofre e tálio.

    "Por mais de 150 anos os estudantes aprenderam a usar os pesos atômicos padrão - um valor único - encontrados na orelha dos livros didáticos de química e na Tabela Periódica dos elementos," comenta o Dr. Michael Wieser, da Universidade de Calgary, no Canadá e membro da IUPAC (União Internacional de Química Pura e Aplicada).

    Contudo, explica ele, conforme a tecnologia foi evoluindo, os cientistas descobriram que aqueles números tão bem decorados não são tão estáticos quanto se acreditava anteriormente.

    Ciência, indústria e esportes

    As modernas técnicas analíticas conseguem medir o peso atômico de vários elementos com altíssima precisão.

    E essas pequenas variações no peso atômico de um elemento são importantes não apenas nas pesquisas científicas, mas também em outras atividades práticas.

    Por exemplo, medições precisas da abundância dos isótopos de carbono podem ser usadas para determinar a pureza e a origem de alimentos como a baunilha ou o mel.

    Medições dos isótopos de nitrogênio, cloro e outros são utilizadas para a detecção de poluentes em rios e águas subterrâneas.

    Nas investigações de doping nos esportes, a testosterona, que melhora o desempenho dos atletas, pode ser identificada no corpo humano porque o peso atômico do carbono na testosterona humana natural é maior do que na testosterona farmacêutica.

    Pesos atômicos como intervalos

    Os pesos atômicos destes 10 elementos agora serão expressos em intervalos, com limites superiores e inferiores.

    Por exemplo, o enxofre é conhecido por ter um peso atômico de 32,065. No entanto, o seu peso atômico real pode estar em qualquer lugar no intervalo entre 32,059 e 32,076, dependendo de onde o elemento é encontrado.

    "Em outras palavras, o peso atômico pode ser utilizado para identificar a origem e a história de um determinado elemento na natureza," afirma Wieser.

    Elementos com apenas um isótopo estável não apresentam variações em seu peso atômico. Por exemplo, o peso atômico padrão do flúor, alumínio, sódio e ouro são constantes, e seus valores são conhecidos com uma precisão acima de seis casas decimais.

    E agora, professor?

    "Embora esta mudança ofereça benefícios significativos na compreensão da química, pode-se imaginar o desafio para os professores e estudantes, que terão que escolher um único valor de um intervalo ao fazer cálculos de química," diz a Dra Fabienne Meyers, diretora adjunto do IUPAC.

    "Nós esperamos que os químicos e os educadores tomem este desafio como uma oportunidade única para incentivar o interesse dos jovens em química e gerar entusiasmo para o futuro criativo da química," afirma Meyers.

    O trabalho que embasou a primeira correção já feita na Tabela Periódica durou de 1985 a 2010. A mudança vai coincidir com o Ano Internacional da Química, que será celebrado em 2011.

    Considerada um dos maiores feitos científicos de todos os tempos, a tradicional Tabela Periódica tem sofrido "ataques" de várias frentes de pesquisa, conforme o conhecimento científico avança:

    Leia Mais ►

    Física – Antematéria – Parte 3

    Como armazenar antimatéria?

    Vamos responder primeiramente a segunda pergunta. Em um mundo composto de matéria, armazenar antimatéria não é nada fácil. Não dá para por em um pote de maionese e guardar no armário. O menor contato com matéria, inclusive o ar, faz com que ela se aniquile. Para armazenar antimatéria é preciso criar um aparato que a contenha sem que ela entre em contato com matéria. Estes equipamentos existem e utilizam campos elétricos e magnéticos para confinar antimatéria (podem ser utilizados para matéria também) em um ambiente de elevado vácuo. Alguns exemplos são as armadilhas de Penning, que só funcionam se as partículas de antimatéria forem carregadas, ou armadilhas magnéticas, que poderiam ser utilizadas para outros tipos de partículas. Tecnologicamente não conseguimos ainda armazenar uma quantidade macroscópica de antimatéria. A armadilha de Penning mostrada na Figura 3 é capaz de armazenar apenas 1010 antiprótons, ou seja, aproximadamente 10-14 g (0,00000000000001 g). Hoje em dia consegue-se fazer armadilhas capazes de armazenar 1012-13 antipartículas. Mesmo assim, a quantidade é muito pequena para fins práticos.

    image Figura 3 - Armadilha de Penning para antiprótons desenvolvida pela Penn State University

    Comparando ao filme Anjos e Demônios, dá para perceber que o tipo de instrumento utilizado para armazenar antimatéria não é nada portátil e muito menos é capaz de armazenar quantidades macroscópicas de antimatéria. E o problema é realmente complexo. Na medida em que aumentamos a quantidade de antimatéria armazenada, como as antipartículas possuem todas a mesma carga, a repulsão elétrica aumenta, sendo necessário campos elétricos e magnéticos cada vez mais intensos para mantê-las confinadas. Isso faz com que o tamanho desses equipamentos seja maior quanto maior a quantidade de antipartículas armazenadas. Sem dúvida, não dá para por no carro e sair andando por ai...

    Como produzir antimatéria?

    Se armazenar antimatéria não é nada fácil, produzi-la em larga escala é mais difícil ainda. Na natureza, antipartículas são produzidas normalmente e continuamente. Uma forma comum de produção de antipartículas é o decaimento β em Física Nuclear. No decaimento β um núcleo pode, espontaneamente, transmutar em outro, emitindo elétrons ou pósitrons. Um exemplo de decaimento β com emissão de pósitron é:

    2211Na → 2210Ne + e+e

    Há outros processos naturais que produzem antipartículas, tais como quando um raio cósmico penetra na atmosfera, produzindo um chuveiro de partículas e antipartículas.

    Artificialmente, o ser humano é capaz de produzir antipartículas e até mesmo antimatéria. Isso é feito principalmente em aceleradores de partículas. Nestes aceleradores, em geral, núcleos atômicos são acelerados com energia bastante elevada, com velocidades próximas à da luz. Quando colidem, um número muito grande de partículas e antipartículas são produzidas. Exemplos de aceleradores capazes de produzir antipartículas são o RHIC (Figuras 4 e 5), no Laboratório Nacional de Brookhaven, o LHC (Figura 6), no Cern, dentre outros.

    image  Figura 4 - Foto do acelerador RHIC (cortesia de BNL).

    image Figura 5 - Sala de controle do acelerador RHIC (cortesia de BNL).

    image

    Figura 6 - Foto do acelerador LHC sendo contruído (cortesia do Cern).

    Continua…

    Leia Mais ►

    O que é CODEC?

    O que é e para que serve um Codec?

    http://www.ferapositivo.com.br/dicas/o-que-e-e-para-que-serve-um-codec/

    Por: Fera Positivo

    23FEV2010

    Algo muito comum que acontece no computador quando a pessoa assiste a um filme pela primeira vez é o aviso de falta de um codec para a exibição do vídeo. Mas o que de fato é e como devemos fazer para instalar um codec?

    O que é um codec?

    clip_image002Codec é um assíncrono (? - acrônimo) para “Codificador/Decodificador”. As principais funções dele são compactar e depois descompactar os arquivos de fotos, áudio e vídeo, reduzindo o tamanho e facilitando a transferência dos arquivos. Sem ele, um arquivo de um segundo de vídeo poderia ter muitos e muitos megas, o que impossibilitaria o armazenamento desses arquivos nos computadores.

    Normalmente, os codecs para fotos e áudio já vêm instalados no PC, principalmente porque não é muito grande o número de formatos (jpg, gif e png para imagens e mp3 e ogg para áudio). Mas, como cada dia um formato de vídeo novo é lançado no mercado, raramente o codec de vídeo vem pré-instalado no Windows – o único que vem é para rodar arquivos .wmv da própria Microsoft.

    Onde baixar e como instalar codecs?

    Existem diversos aplicativos que contém inúmeros codecs de vídeo. O que eu mais gosto é o FFDShow. Não porque ele seja o mais rápido ou o menor, mas, sim, porque é o único que não travou a edição de vídeo no Windows Movie Maker.

    O FFDShow dá suporte para arquivos de vídeo DivX, XviD, H.264, FLV1, WMV, MPEG-1, MPEG-2 e MPEG-4.

    Basta entrar no site http://sourceforge.net/projects/ffdshow/ e baixá-lo. Eu fiz um vídeo mostrando como baixar e instalar o programa, mas é extremamente simples – basta ir dando “Next” ou “Próximo” e pronto. Depois de instalado, basta rodar um vídeo qualquer para você vê-lo em ação!

    Qualquer dúvida e/ou sugestão de outros codecs, basta deixar um comentário! Boa sorte!

    -------------------------------------------

    Codec

    Origem: Wikipédia, a enciclopédia livre.

    CoDec é o acrônimo de Codificador/Decodificador, dispositivo de hardware ou software que codifica/decodifica sinais.

    Tipos

    Existem dois tipos de codecs:

    • Sem perdas (lossless, em inglês)
    • Com perdas (lossy, em inglês)
    Codecs sem Perdas

    Os codecs sem perdas são codecs que codificam som ou imagem para comprimir o arquivo sem alterar o som ou imagem originais. Se o arquivo for descomprimido, o novo arquivo será idêntico ao original. Esse tipo de codec normalmente gera arquivos codificados que são entre 2 a 3 vezes menores que os arquivos originais. São muito utilizados em rádios e emissoras de televisão para manter a qualidade do som ou imagem.

    Exemplos desse tipo de codec são o flac, shorten, wavpack e monkey's audio, para som.

    Para vídeo, HuffYUV, MSU[1], MJPEG,H.264 e FFmpeg Video 1.

    Para imagens, temos os formatos PNG e TIFF.

    Codecs com Perdas

    Os codecs com perdas são codecs que codificam som ou imagem, gerando uma certa perda de qualidade com a finalidade de alcançar maiores taxas de compressão. Essa perda de qualidade é balanceada com a taxa de compressão para que não sejam criados artefatos perceptíveis.

    Por exemplo, se um instrumento muito baixo toca ao mesmo tempo que outro instrumento mais alto, o primeiro é suprimido, já que dificilmente será ouvido. Nesse caso, somente um ouvido bem treinado pode identificar que o instrumento foi suprimido.

    Os codecs com perdas foram criados para comprimir os arquivos de som ou imagem a taxas de compressão muito altas. Por exemplo, o Vorbis e o Mp3 são codecs para som que facilmente comprimem o arquivo de som em 10 a 12 vezes o tamanho original, sem gerar artefatos significativos.

    Exemplos de codecs com perdas são o Ogg Vorbis, MP3, AC3 e WMA, para som. Para vídeo, temos o Xvid, DivX, RMVB, WMV, Theora e Sorenson. E para imagens temos o JPEG, JPEG 2000 e GIF.

    Taxa de Bits

    A taxa de bits ou bitrate, em inglês, é uma das medidas da qualidade de um arquivo comprimido. A taxa de bits representa o tamanho final desejado para o arquivo e, normalmente, é apresentada como Kbit/s.

    1 Kbit/s significa que a cada segundo, o codec tem 1000 bits do arquivo final para utilizar, ou seja, se um arquivo de som tem 8 segundos e é comprimido a uma taxa de 1 Kbit/s, o arquivo final terá 8 Kbits ou 1 Kbyte. Conclui-se, então, que quanto maior for a taxa de bits, melhor será a qualidade do arquivo final, já que o codec terá mais espaço para poder comprimir o arquivo original, necessitando descartar menos informações do arquivo.

    Com a popularização do MP3, a taxa de bits de 128 Kbits/s (128000 bits/s = 16 Kbytes/s) foi muito utilizada, já que, no início, essa era a menor taxa de bits que o MP3 poderia utilizar para gerar um arquivo final com boa qualidade. Hoje em dia, com os codecs mais avançados, pode-se gerar arquivos com 64 Kbits/s de qualidade semelhante aos primeiros MP3.

    As taxas de bits podem ser divididas em três categorias principais:

    • CBR (constant bitrate) - O codec utiliza uma taxa de bits constante em todo a duração do arquivo. Isso significa que em momentos de silêncio provavelmente haverá desperdício de espaço, enquanto que em momentos de muita intensidade sonora haverá perda maior de informação acústica.
    • VBR (variable bitrate) - O codec utiliza uma taxa de bits variável, dessa forma otimizando a utilização do espaço, ao permitir maior uso deste para os momentos mais necessários e reduzindo a taxa de bits ao mínimo nos momentos de silêncio. A maioria dos codecs sem perdas utiliza esse formato.
    • ABR (average bitrate) - Um tipo específico de VBR que garante que ao final do processo de compressão o arquivo terá uma taxa de bits média pré-definida.
    Leia Mais ►

    O que é o grafeno e por que motivo é interessante: um sumário

    O que é o grafeno?

    2008-07-17

    Por Nuno Miguel Peres *

    Nuno Peres

    clip_image001O grafeno foi desboberto no final do ano de 2004, no Centro de Nanotecnologia da Universidade de Manchester, dirigido pelo Prof. A. K. Geim. Este material é totalmente bidimensional e feito inteiramente de átomos de carbono, arranjados entre si numa rede hexagonal (ou de favo de mel).

    Como se explicará adiante em maior detalhe este sistema já encontrou aplicações na industria de células solares, em dispositivos de cristais líquidos, em sensores moleculares e no fabrico de protótipos de transistores de dimensões nanoescópicas. Também na área da investigação fundamental, a descoberta deste material revelou novos e excitantes efeitos físicos. Olhemos por com algum detalhe (embora necessariamente de forma qualitativa) para a física deste novo material.

    * Professor Associado de Física, Dep. Física, Universidade do Minho. Co-autor do estudo da transparência do grafeno recentemente publicado na revista Science: “FINE STRUCTURE CONSTANT DEFINES THE VISUAL TRANSPARENCY OF GRAPHENE”, R. R. Nair, P. Blake, A. N. Grigorenko, K. S. Novoselov, T. J. Booth, T. Stauber, N. M. R. Peres, and A. K. Geim, Science 6 June 2008 320: 1308.

    Tobias Stauber, outro co-autor do estudo

    clip_image003

    A densidade electrónica do grafeno corresponde à situação em que se tem um electrão por cada átomo de carbono, sendo a estrutura de bandas do material determinada pela geometria da sua rede cristalina. Como resultado da estrutura de bandas e da densidade electrónica, a superfície de Fermi do grafeno reduz-se a seis pontos na zona de Brillouin. A estrutura de bandas do material em torno destes seis pontos é isotrópica e linear no momento do electrão.

    A consequência deste facto é que a teoria efectiva que descreve a física do grafeno é a de um modelo ultra-relativista, de partículas carregadas de massa nula (um tipo de partículas que não existe na física das partículas elementares). Assim a teoria efectiva não é a tradicional equação de Schrödinger mas sim a equação de Dirac em duas dimensões espaciais.

    O facto das excitações elementares no grafeno serem descritas pela equação de Dirac tem uma vasta gama de consequências, por vezes inesperadas, para as propriedades electrónicas deste material. Isto significa que as propriedades termodinâmicas, de transporte e espectrais necessitam de ser revisitadas, pois não são descritas pela física do convencional gás bidimensional de electrões.

    A promessa de encontrar nova e excitante física no grafeno, a qual poderá levar a importantes aplicações em nanotecnologia tem sido o motor para a investigação neste campo em grande aceleração ao nível mundial. Instituições de topo mundial, como Boston University, MIT, Havard, Berkeley, Stanford, Manchester, Oxford, Universidade Autonoma de Madrid, Universidade de Leiden, Escola Normal Superior de Pisa, etc, têm neste momento fortes grupos teóricos e experimentais na física do grafeno.

    Entre os primeiros resultados espetaculares obtidos deste novo material está o efeito de campo medido pelo grupo de Manchester. Este grupo mostrou que o portadores de carga podem ser tanto electrões como vazios, dependendo da polaridade do compo eléctrico externo. Na presença de um forte campo magnético aplicado perpendicularmente ao grafeno, este sistema desenvolve um efeito de Hall quântico não usual, cuja previsão teórica envolveu dois investigadores do Departamento de Física da Universidade do Minho, o autor e o Dr. Tobias Stauber (investigador germânico contratado ao abrigo do programa Ciência 2007).

    A grande velocidade dos electrões no grafeno, c/300 (onde c é a velocidade da luz), permite a observação do efeito de Hall quântico à temperatura ambiente. Outros fenómenos de transporte igualmente espetaculares envolvem o transporte balístico de electrões ao longo de distâncias da ordem dos sub-micrometros e condutividades térmicas muito elevadas, o que abre a perspectiva de se produzirem dispositivos electrónicos com tempo de resposta muito rápidos que poderão no futuro vir a integrar uma nova geração de microchips ultra-rápidos.

    Que as empresas líderes nesta áreas estão muito atentas a esta possibilidade é o facto da INTEL financiar neste momento pelos menos o grupo na Universidade de Georgia Tech, Georgia, U.S.A, dedicado à investigação em grafeno.

    Um outro avanço recente, publicado conjuntamente na revista Science pelo grupo de Manchester e por dois investigadores do Departamento da Universidade do Minho (que efecturam o estudo teórico do efeito observado), foi a demonstração que ografeno apenas absorve 2.3% da luz que nele incide, numa gama de frequências que vai do infra-vermelho ao ultravioleta. Isto abre imediatamente a possiblidade de usar o grafeno como eléctrodos metálicos transparentes na industria de cristais líquidos e de células solares, existindo já protótipos em funcionamento.

    O que é interessante do ponto de vista de física fundamental é que a transparência do grafeno não depende de nenhum parâmetro do material, sendo apenas controlada por uma constante fundamental, a constante de estrutura fina, a qual está normalmente associada à física das partículas e das altas energias, uma situação muito rara em física da matéria condensada.

    Igualmente, já foi demonstrada a possibilidade de construir protótipos de transistores feitos de pontos quânticos de grafeno, apontando esta linha de investigação para o desenvolvimento de uma electrónica de base interamente molecular.

    Em conclusão o grafeno abriu novas avenidas ao nosso conhecimento de ciência fundamental e promete aplicações futuras em nanotecnologia que não eram concebíveis antes da sua descoberta.

    Leituras adicionais:

    A. K. Geim and P. Kim, “Carbon Wonderland”, Scientific American, 90 (April 2008).

    A. K. Geim and A. H. MacDonald, “Graphene: Exploring Carbon Flatland”, Physics Today 60, 35 (2007).

    A. H. Castro Neto, F. Guinea, N. M. R. Peres, “Drawing Conclusions from Graphene”, Physics World, November (2006).

    Leia Mais ►

    Física - Antematéria – Parte 2

    Antimatéria, LHC e Anjos e Demônios

    http://sampa.if.usp.br/~suaide/blog/?e=153

    image Ainda não tive a oportunidade de assistir este filme. Tenho certeza que, como entretenimento, deve ser excelente. Mas, ao longo do tempo, percebi que muitas pessoas levam a sério o que aparece nos filmes. Quantas vezes não tive que responder que luz não pode ser utilizada para construir os sabres de Guerra nas Estrelas... No filme Anjos e Demônios há um episódio parecido, no qual uma quantidade macroscópica (alguns gramas?) de antimatéria é guardada em uma caixinha e utilizada como ameaça para destruir o Vaticano. No filme, esta antimatéria é produzida no Cern em pouco tempo (minutos, horas?) com a mesma facilidade na qual enchemos um copo de água em uma torneira. Onde traçamos a linha entre ficção e Ciência? O objetivo deste artigo é discutir um pouco isso.

    O que é antimatétia?

    No mundo em que vivemos, a matéria é constituída por partículas. Por exemplo, a água é formada por moléculas de H2O, ou seja, dois átomos de hidrogênio e um de oxigênio. Estes átomos são constituídos por prótons, nêutrons e elétrons. O elétron já é uma partícula fundamental, mas os prótons e nêutrons são compostos por quarks e glúons. Em física de partículas há um pequeno punhado de partículas fundamentais, ou seja, aquelas que não são compostas por outras partículas. Estas partículas estão listadas na figura 1. Toda a matéria é composta por uma combinação destas partículas. Por exemlpo, o próton é composto por dois quarks u e um quark d, além de glúons, que promovem a interação entre eles.

    image Figura 1 - Partículas elementares.

    Para a maioria das partículas elementares existe uma antipartícula correspondente. A diferença entre a partícula e antipartícula é a sua carga elétrica. As outras propriedades, como massa, spin, etc. são as mesmas. Estas antipartículas podem se combinar, assim como as partículas, formando antimatéria. Por exemplo, se combinarmos 2 quarks anti-u com um quark anti-d teremos formado um antipróton. Se este antipróton se combinar com um anti-elétron (pósitron, como é chamado) teremos formado um anti-hidrogênio. Na verdade, já somos capazes de construir átomos de anti-hidrogênio desde o começo deste século. Não precisamos parar por ai... Quem sabe, no futuro, seremos capazes de criar moléculas de anti-água?

    Antipartículas foram previstas originalmente por Paul Dirac, Prêmio Nobel de Física de 1933. A primeira antipartícula observada foi o pósitron (anti-elétron), em 1932, por Carl Anderson, que levou o Prêmio Nobel de 1936 por esta descoberta. O estudo de antipartículas evoluiu consideravelmente. Hoje em dia produz-se antipartículas com facilidade em aceleradores e, inclusive, há aplicações para as mesmas. Na área médica, por exemplo, tem se tornado mais comum o uso de técnicas de diagnóstico por tomografia por pósitrons, também chamadas de PET (Positron Emission Tomography).

    Uma propriedade interessante das antipartículas e, consequentemente, da antimatéria, é a aniquilação com a particula/matéria correspondente. Se um antipróton colidir com um próton os dois se aniquilam, liberando energia ou outras partículas. Como a energia liberada é bastante grande, começou-se a especular sobre as possíveis aplicações na área energética. É sobre isso que escrevo a seguir.

    Antimatéria e energia

    Vamos primeiro discutir quanta energia poderia ser liberada por um punhado de antimatéria. Antes de fazer isto, contudo, precisamos entender de onde vem a energia, em geral. Muitos se perguntam como uma bomba atômica pode liberar o equivalente a quilotoneladas de TNT. Como isto é possível? O ser humano é extremamente criativo quando o assunto é energia. Hoje manipulamos energia quase que livremente. Transformamos energia gravitacional em elétrica, em Itaipú, energia química em mecânica, quando usamos uma pilha para fazer um carrinho de brinquedo andar e assim por diante. O segredo é perceber quais os sistemas físicos possuem energia armazenada e como utilizar esta energia em benefício próprio.

    Deixe-me comparar três processos de conversão de energia: a energia química (ou molecular, como queiram), a energia nuclear e a energia hadrônica (esta última terminologia é apenas uma liberdade literária de minha parte). Como utilizamos processos químicos, nucleares e hadrônicos para produzir energia?

    A energia química está presente no nosso dia a dia quase e quase não percebemos isso. A combustão é um exemplo típico, seja ela de carvão ou gasolina. Neste caso, promovemos o rearranjo molecular de algumas substâncias em outras. Neste rearranjo, como mudamos as ligações entre átomos, pode haver liberação de energia. Esta energia liberada pode ser utilizada em nosso benefício. Um exemplo de reação química é a explosão de TNT.

    2 C7H5N3O6 → 3 N2 + 5 H2O + 7 CO + 7 C

    A energia liberada corresponde à diferença de massa entre o lado direito e esquerdo da equação. Pois é, diferença de massa! Isto porque existe uma equivalência entre massa e energia que faz com que a massa de um composto não seja puramente a soma das massas dos seus constituintes. Quando precisamos fornecer energia para criar um certo composto, esta energia fica armazenada em forma de massa neste composto. Esta massa pode ser transformada em energia novamente, quando desfazemos o composto criado. Em reações químicas a diferença de massa é, em geral, bastante pequena e quando ocorre uma reação deste tipo somente alguns elétron-volts de energia são liberados. Elétron-volt é a unidade de energia normalmente utilizada em processos microscópicos. 1 eV = 1,6x10-19 J. Vamos tomar esta unidade por base. Em uma explosão, contudo, não ocorre apenas uma reação deste tipo e sim um número incontável delas em um intervalo de tempo muito curto. Assim, macroscopicamente, a energia liberada por tonelada de TNT é da ordem de 4x109J.

    image Figura 2 - Explosão de uma bomba atômica

    Vamos olhar agora a energia nuclear. Uma das reações nucleares utilizada para gerar energia é a fissão do urânio-235. Nesta reação, um nêutron colide com um núcleo de urânio, fissionando-o e liberando energia. A reação nuclear é:

    235U + n → 144Ba + 89Kr + 3 n

    Se calcularmos a diferença de massa entre o lado direito e esquerdo da reação acima chegamos à conclusão que a energia liberada é de 177 MeV. 1 MeV equivale a um milhão de elétron-volts. Ou seja, uma reação nuclear deste tipo libera dezenas de milhões de vezes mais energia que uma reação de queima de TNT, por exemplo. É por conta disso que uma quantidade pequena de massa de urânio libera energia equivalente a milhares de toneladas de TNT.

    Chegamos agora na energia liberada pela antimatéria, que tomei a liberdade de chamar de hadrônica. Lembre-se que, quando há interação entre matéria e antimatéria, ocorre a aniquilação. Em geral, esta aniquilação acaba produzindo outras partículas, mas a energia disponível corresponde à totalidade das massas envolvidas. Veja, por exemplo, a aniquilação de um próton e um antipróton. Nesta reação a energia disponível corresponde, no mínimo, à soma das massas das duas partículas, ou seja, algo próximo de 2 GeV. Neste caso, 1 GeV = 1000 MeV, ou seja mil milhões de elétron-volts. Este é o máximo de energia que se pode extrair de uma reação pois convertemos toda a massa disponível em energia. Em um mundo macroscópico, 1 g de antiprótons, aniquilando-se com 1 g de prótons, produz o equivalente em energia de 2x1014J ou, aproximadamente, 46 quilotons de TNT. A bomba de Hiroshima, por exemplo, liberou o equivalente a aproximadamente 15 quilotons de TNT.

    Antimatéria é uma fonte de energia bastante eficiente, não há dúvida. Assim como a nuclear, se utilizada de forma controlada, é capaz de prover uma quantidade muito grande de energia a partir de uma quantidade muito pequena de combustível. Contudo, há dois pontos que precisamos nos perguntar: vivendo em um mundo de matéria, de onde eu tiro antimatéria? Como eu armazeno antimatéria?

    …Continua…

    Leia Mais ►