DICAS DOMÉSTICAS

DICAS DOMÉSTICAS para auxiliar nas tarefas diárias dos nossos lares

image No dia a dia doméstico encontramos certas dificuldades em solucionar alguns problemas que aprecem, como: o entupimento de pias, o acendimento do fogo da churrasqueira, vazamento de torneiras, dentre outros impedimentos que entravam o andamento normal das rotinas diárias.

Tenho duas dicas simples para apresentar ao público interessado, as quais facilitaram e muito o trabalho de domésticas, cozinheiros e donas de casa em sua labuta.

Dica 1 – Trata-se de como evitar, ou pelo menos retardar ao máximo o entupimento de pias em nossas cozinhas.

O método consiste em usarmos, sempre que desocuparmos vasilhas engorduradas como os pratos das refeições, panelas e outros utensílios domésticos, papel higiênico comum, desses mais baratos (ou até mesmo jornais), para a limpeza da vasilha, antes de lavá-la, retirando, além da gordura, fragmentos verdura, feijão, arroz, macarrão, etc., os quais são, na maior das vezes, os principais aditivos às gorduras, criando massas que se encrostam na tubulação de escoamento, provocando o entupimento das mesas.

É comum ver-se pias domésticas apinhadas de utilitários de refeição colocadas ali sem os cuidados necessários e não raro se quebram vasilhas de vidro ou porcelana, o que podem ocasionar ferimentos nas pessoas. Os fragmentos espalhados na pia podem ainda adentrar o ralo do tubo coletor e também contribuir para engrossar a mistura gordurosa.

O desleixo de muita gente que exerce esse mister, contribui para que as coisas se compliquem no ambiente doméstico. Cuidado nunca é demais e mesmo que não se possa efetuar a limpeza de imediato, deve-se descartar os restos na lixeira ou numa vasilha qualquer quando se deseja aproveitá-los.

Tenha em mente que, se seguir algumas regrinhas básicas obterá bons resultados, como as que se seguem:

a) Logo que termine as refeições, descarte os restos e passe o papel nos pratos e talheres antes que a umidade evapore;

b) Somente coloque de molho vasilhas encrostadas e livres restos soltos;

c) Pelo menos uma vez por mês, coloque uma chaleirada de água quente na pia. Isso derrete alguns nódulos gordurosos que se formam na tubulação, evitando o seu entupimento precoce; e,

d) Por fim, nunca deixe que restos de comida, farelos de verdura ou legumes penetrem no orifício do ralo para evitar problemas de obstrução futuros.

 

image Dica 2 – Quem nunca acendeu o fogo do fogão a lenha, do fogareiro ou da churrasqueira, desconhece o aborrecimento que dá, que estressa até os entes mais calmos, porque este insiste em não pegar, precisando ser abanado, soprado, estimulado com gravetos, papel, plástico, borracha, óleo, etc., e mesmo assim às vezes emperra e não se inflama.

Um amigo certa feita me viu numa dessas ocasiões tentando acender a churrasqueira pelos métodos mais diversos e complicados possíveis, me orientou a seguir um procedimento infalível e bastante simples de ser feito, como descrito a seguir:

« Coloque uma fina camada de carvão no lastro da churrasqueira ou fogareiro;

« Faça um pequeno nicho no centro do lastro e nele coloque um copinho de café descartável com uma pequena quantidade de álcool.  Não precisa encher o copo. Veja o esquemaimage abaixo..

« Risque o palito para queimar o álcool e em seguida cubra o copinho com pedaços de carvão e, pronto! Esqueça o fogo e cuide de espetar as carnes.

Você perceberá que além de não fumaçar, em menos de 10 minutos o fogo já está quase no ponto de ser usado. Coloque mais um pouco de carvão e continue suas tarefas com tranquilidade porque o fogo, este já não é mais problema.

Leia Mais ►

Fator Acidentário Previdenciário-FAP

OBS.: Matéria de interesse de administradores, advogados trabalhistas, contadores; técnicos, tecnólogos e engenheiros de segurança do trabalho e profissionais afins.

DIVULGAÇÃO DOS  ÍNDICES DE ACIDENTALIDADE

PARA CALCULAR FAP SERÁ A PARTIR DE 30/09/2010

Fonte: MPS - 24/09/2010  -  Adaptado pelo Guia Trabalhista

A relação com a média dos índices de frequência, gravidade e custo de toda a acidentalidade registrada em 2008 e 2009, de 1.301 subclasses ou atividades econômicas, já pode ser consultada pelas empresas no Diário Oficial da União.

A Portaria Interministerial nº 451/2010, dos ministros da Previdência Social e da Fazenda traz os novos índices de acidentalidade dos setores econômicos para cálculo, pelas empresas, do Fator Acidentário de Prevenção (FAP).

Os números servirão de consulta individual pelas empresas para comparar o respectivo desempenho em relação ao FAP com a média de seu setor, e serão utilizados para calcular as alíquotas da tarifação individual por empresa ao Seguro Acidente, que será cobrado a partir de janeiro de 2011

A previsão é a de que o Ministério da Previdência Social disponibilize em seu portal, no dia 30 de setembro, o valor do fator acidentário das empresas, com as respectivas ordens de frequência, gravidade e custo, calculados com base nas regras da Resolução 1.316/2010.

As informações também poderão ser acessadas na página da Receita Federal do Brasil (RFB).

Contestação

O FAP atribuído às empresas pelo Ministério da Previdência Social (MPS) poderá ser contestado administrativamente, de 1º a 30 de novembro, por intermédio de formulário eletrônico dirigido ao Departamento de Políticas de Saúde Segurança Ocupacional (DPSO).

Serão analisadas apenas as contestações de possíveis divergências de dados previdenciários que compõem o fator.

O MPS e a RFB disponibilizarão, nesse período, o formulário eletrônico de contestação em seus respectivos sites.

A portaria, embasada no Decreto nº 7.126/2010, determina que compete à Secretaria de Políticas de Previdência Social (SPS) julgar em grau de recurso, ou seja, em segundo e último grau administrativo, as decisões proferidas pelo DPSO.

A empresa terá o prazo de 30 dias, contados da data da publicação do resultado no DOU, para encaminhar o recurso em segundo grau de forma também eletrônica, por meio de formulário disponível nos sites do MPS e da RFB.

O resultado do julgamento será publicado no DOU, sendo o acesso a dados mais detalhados restrito à empresa nas páginas eletrônicas da Previdência e da Receita Federal.
Além do FAP, cada empresa poderá consultar, a partir do dia 30 de setembro, a quantidade de acidentes e doenças do trabalho, de auxílios-doenças acidentários e de aposentadorias por invalidez e de pensão por morte.

Os dados por empresa também estarão disponíveis no site da Receita Federal do Brasil.

O fator acidentário é um multiplicador a ser aplicado às alíquotas de 1%, 2% ou 3% da tarifação coletiva por subclasse econômica, incidentes sobre a folha de salários das empresas para custear aposentadorias especiais e benefícios decorrentes de acidentes de trabalho.

Base de cálculo

O FAP varia anualmente. É calculado sempre sobre os dois últimos anos de todo o histórico de acidentalidade e de registros acidentários da Previdência Social, por empresa. O fator incide sobre as alíquotas das empresas que são divididas em 1.301 subclasses da Classificação Nacional de Atividade Econômica (CNAE 2.0).

A nova metodologia, porém, não traz qualquer alteração na contribuição das pequenas e microempresas, já que elas recolhem os tributos pelo sistema simplificado, o Simples Nacional.

Bonificação

As alíquotas do Seguro Acidente de 684.650 empresas, que não apresentaram nenhum tipo de acidente e concessão de benefício acidentário em 2007 e 2008 (período base), estão sendo reduzidas pela metade desde o dia primeiro deste mês.

A medida foi uma das principais alterações na metodologia do FAP, aprovadas pelo Conselho Nacional de Previdência Social (CNPS) em maio de 2010. A Resolução 1.316/2010, com as novas regras, foi publicada em junho.

Leia Mais ►

Energia – Pesquisas do LHC monitoradas no Brasil

Energia

Pesquisas do LHC são monitoradas online em laboratório no Brasil

Fábio Reynol - Agência Fapesp - 31/03/2010

clip_image001O CMS é um dos quatro experimentos de pesquisa do LHC e cada um deles conta com equipes e equipamentos exclusivos para suas finalidades. [Imagem: Cern]

Colisões remotas

Às 13h06 desta terça-feira (30/3), horário local, o acelerador de partículas LHC (Large Hadron Collider, ou "Grande Colisor de Hádrons"), localizado na fronteira da Suíça com a França, inaugurou seu programa de pesquisa ao provocar um choque de duas nuvens de prótons com energia total de 7 teraelétron-volts (TeV).

Veja mais detalhes sobre todas as descobertas que se espera do LHC na reportagem Primeiro "bang" marca início da fase científica do LHC.

Ao mesmo tempo, 8h06 pelo horário de Brasília, no bairro da Barra Funda na capital paulista, uma equipe de físicos do Centro Regional de Análise de São Paulo (Sprace) do Instituto de Física Teórica da Universidade Estadual Paulista (IFT-Unesp) pôde acompanhar a colisão em uma sala ligada por uma rede de alta velocidade ao Centro Europeu de Pesquisas Nucleares (Cern) que administra o LHC.

Acompanhamento do LHC em tempo real

A Unesp aproveitou a ocasião para inaugurar o seu centro de controle do experimento CMS (sigla em inglês para "Solenoide de Múon Compacto"), que conta com 35 unidades semelhantes espalhadas pelo mundo e nas quais é possível acompanhar em tempo real as atividades realizadas no LHC e participar do seu monitoramento.

O CMS Center @ São Paulo, nome oficial do centro, utiliza uma conexão internacional de 10 Gbs. "É a rede mais rápida do Brasil", disse o professor Sérgio Ferraz Novaes, coordenador do Sprace. Os equipamentos do CMS Center @ São Paulo foram adquiridos com apoio da Rede Nacional de Física de Altas Energias (Renafae), do Ministério da Ciência e Tecnologia.

Além do transporte de dados dos experimentos, a velocidade da rede permite o funcionamento de sistemas de telefonia e videoconferência de alta qualidade, proporcionando uma interação instantânea com o centro de controle do Cern.

Calibração

Por conta disso, os usuários do centro paulista poderão atuar na calibração dos subdetectores, monitorar a qualidade dos dados gerados e ainda analisar essas informações.

"Podemos acompanhar as informações ao vivo por meio de monitores e, caso detectemos alguma irregularidade, temos condições de chamar um especialista do LHC pelo sistema de videoconferência", explicou o físico Franciole Marinho, pós-doutorando do Sprace que participa do projeto.

Detectores do LHC

O CMS é um dos quatro experimentos de pesquisa do LHC e cada um deles conta com equipes e equipamentos exclusivos para suas finalidades.

Além do CMS, os experimentos Atlas e LHCb também registraram as colisões efetuadas na terça-feira. De modo similar ao CMS, o Atlas é um experimento multipropósito que fornecer dados para trabalhos em diversas áreas da física.

Já o LHCb é focado no chamado quark B, partícula que poderá fornecer pistas sobre a relação entre matéria e antimatéria presentes no Universo. O quarto experimento, Alice, é voltado a análises com íons pesados e deve começar a operar em 2011, com o disparo de partículas de ouro ou chumbo.

Física de altas energias

O Brasil já participa intensamente no processamento dos dados coletados no Cern. Segundo Novaes, é importante para o país aumentar sua participação no desenvolvimento de software e hardware necessários às pesquisas no acelerador. "O LHC é um instrumento único que abrirá várias portas para o desenvolvimento científico e tecnológico brasileiro", afirmou.

Mas a formação e a pesquisa brasileiras em física de altas energias já estão ganhando com os experimentos. Os dados observados do campus da Barra Funda alimentarão trabalhos de mestrado, doutorado e pós-doutorado de estudantes da Unesp.

Por meio da rede de alta velocidade KyaTera, do Programa Tecnologia da Informação no Desenvolvimento da Internet Avançada (Tidia) da FAPESP, que cobre o Estado de São Paulo, esses dados poderão ser partilhados com outras unidades de pesquisa.

Do que é feita a matéria

A comunidade científica espera que os experimentos realizados no LHC forneçam respostas para algumas das principais questões atuais da física. "O que se convencionou chamar de 'física de partículas' tem um aspecto muito mais amplo do que o nome sugere. Ela se propõe a responder do que é feita a matéria, como ela interage e quais são as forças da natureza", explicou Novaes.

Entre as expectativas em relação ao LHC estão pistas a respeito da chamada matéria escura que surgiu como explicação para o comportamento de corpos no Universo.

"Apenas a massa da matéria visível não seria suficiente para explicar o comportamento das galáxias. A matéria escura seria o montante faltante nessa equação. Mas, no momento, trata-se apenas de uma hipótese", disse Sérgio Lietti, pesquisador do CMS Center @ São Paulo.

De modo análogo, a chamada energia escura é uma hipótese elaborada para explicar a expansão do Universo. Ainda sem comprovação empírica, essa é outra teoria que o trabalho no LHC também poderá ajudar a comprovar ou a negar.

clip_image002

Matéria e antimatéria

O Atlas, um dos detectores do LHC, é um experimento multi propósito que fornecer dados para trabalhos em diversas áreas da física. [Imagem: Cern]

A assimetria entre matéria e antimatéria percebida no Universo é outro enigma que os físicos esperam poder elucidar com ajuda das colisões no anel europeu.

"Em laboratório, conseguimos perceber que cada partícula é acompanhada de sua antipartícula, isso nos leva a perguntar por que observamos muito mais matéria do que antimatéria no Universo, ou seja, há uma aparente assimetria entre as duas", disse Marinho.

A maior das expectativas, no entanto, repousa sobre a comprovação ou não do chamado bóson de Higgs, cuja existência hipotética foi levantada pelo físico britânico Peter Ware Higgs de modo a tentar explicar a origem da massa das partículas elementares. "O LHC foi especialmente desenhado para estudar o bóson de Higgs", disse Novaes.

No entanto, o professor da Unesp estima que essas grandes perguntas não serão respondidas tão cedo. O LHC está em fase de testes, o que exige inicialmente a execução de experimentos cujos resultados já são conhecidos.

"É uma espécie de calibração. Caso os resultados sejam discrepantes em relação aos que já conhecemos pode ser sinal de algum defeito no equipamento", disse Novaes.

Índice de luminosidade

Mesmo após o acelerador comprovar a sua confiabilidade, os grandes resultados ainda deverão levar algum tempo. Segundo o professor da Unesp, será preciso agrupar um enorme volume de dados para poder comprovar uma teoria.

Isso dependerá do número de colisões que o LHC poderá proporcionar, chamado "índice de luminosidade". Quanto mais eventos forem registrados, mais dados serão coletados para compor os resultados finais que serão gerados por estatísticas.

Além das questões que intrigam a física contemporânea, o LHC ainda poderá gerar descobertas imprevisíveis. "A história da ciência está repleta de episódios em que o acaso gerou descobertas impensáveis até então. Nada impede que isso possa se repetir aqui", disse Novaes.

http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=lhc-interligacao-entre-particulas&id=010130100922&ebol=sim

Leia Mais ►

Ciência – Descoberta Brasileira

Espaço

Brasileiros descobrem pista

para  estudar a gravitação quântica

Fabio Reynol - Agência Fapesp - 24/09/2010

clip_image001A gravitação quântica é um fenômeno cuja medição direta é impraticável porque ela ocorre em locais inacessíveis ao homem, como o interior dos buracos negros.[Imagem: NASA/JPL-Caltech]

A medição direta dos efeitos da gravitação quântica é praticamente impossível. O motivo é que eles têm origem em locais inacessíveis ao homem, como em buracos negros. Além disso, seus efeitos são extremamente sutis.

Mas um grupo de físicos brasileiros desenvolveu um meio de estudar indiretamente um desses fenômenos, a flutuação da velocidade da luz.

Líquidos heterogêneos

A solução consiste em usar experimentos de propagação de ondas acústicas em fluidos com aleatoriedade, como em coloides, líquidos heterogêneos que contêm partículas ou moléculas de diferentes tamanhos em suspensão - o leite é um exemplo.

O trabalho foi realizado por Gastão Krein, do Instituto de Física Teórica (IFT) da Universidade Estadual Paulista (Unesp), Nami Svaiter, do Centro Brasileiro de Pesquisas Físicas (CBPF), e Gabriel Menezes, pós-doutorando da Unesp.

"Em uma conversa que tivemos com Svaiter, surgiu a ideia de que a propagação do som em fluidos coloides poderia apresentar efeitos similares aos da luz em ambientes nos quais a gravitação quântica seria relevante", disse Krein.

O encontro entre os físicos foi importante para a concepção da pesquisa, uma vez que Krein tem larga experiência em estudos com equações com flutuações aleatórias e Svaiter é especialista em gravitação quântica, tendo desenvolvido estudos de seus efeitos com Lawrence Ford, da Universidade Tufts, nos Estados Unidos.

Flutuações clássicas e quânticas

Flutuações em um fluido podem ser clássicas ou quânticas. O artigo demonstra que é possível usar microvibrações em coloides como uma plataforma para estudar a gravitação quântica. Segundo o estudo, os dois fenômenos são descritos por equações matemáticas similares.

Se trabalhos com coloides são comuns e conhecidos, o mesmo não se pode dizer do segundo fenômeno. Na gravidade quântica a velocidade da luz não é uma constante, como ensina a física clássica, mas flutua de um ponto a outro devido aos efeitos quânticos. Estima-se que esse tipo de gravidade esteja presente em buracos negros e tenha vigorado durante o Big Bang.

Outros experimentos já foram propostos para estudar a gravidade quântica, mas o trabalho dos brasileiros é o primeiro a contemplar o estudo das flutuações da velocidade da luz através das flutuações da velocidade de propagação de ondas acústicas em fluidos.

Segundo Krein, o mérito da pesquisa foi ter apontado um meio de simular em laboratório um fenômeno de observação não possível atualmente. "O comportamento das ondas sonoras ao se propagar em um meio aleatório, como os coloides, permite trazer para o laboratório efeitos análogos aos da gravitação quântica", disse.

Radiação Hawking

Krein e colegas pretendem usar os modelos com fluidos para estudar o equivalente a um buraco negro e como vibrações acústicas quânticas são criadas e destruídas próximo a essas formações no espaço.

Os físicos buscam compreender melhor o fenômeno conhecido como "radiação Hawking", prevista em 1973 pelo físico inglês Stephen Hawking. Segundo Hawking, os buracos negros encolhem com a perda de energia por meio dessa radiação.

Krein, Svaiter e Menezes procuram também grupos experimentais de pesquisa que investiguem fluidos e se interessem em fazer experimentos nessa área.

"Com um fluido, podemos controlar parâmetros do experimento, como a densidade e a concentração das partículas em suspensão, e, com isso, aprender como muda a propagação do som de maneira controlável no laboratório. Isso permitirá construir correlações dos resultados com o que ocorre na gravitação quântica", disse Krein.

 

Bibliografia:

Analog Model for Quantum Gravity Effects: Phonons in Random Fluids

G. Krein, G. Menezes, N. F. Svaiter

Physical Review Letters

20 September 2010

Vol.: 105, 131301

DOI: 10.1103/PhysRevLett.105.131301

http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=gravitacao-quantica-hawking&id=010130100924&ebol=sim

Leia Mais ►

Ciência – Aceleração de Partículas

LHC detecta fenômeno físico potencialmente desconhecido

Redação do Site Inovação Tecnológica - 22/09/2010

clip_image002

Imagem de uma colisão próton-próton captada pelo experimento CMS, que produziu mais de 100 partículas carregadas.[Imagem: Cern]

Interligação entre partículas

Depois de quase seis meses de operação, as experiências no LHC estão começando a ver "sinais de efeitos potencialmente novos e interessantes".

Nos resultados divulgados pelos cientistas do experimento CMS, um dos quatro grandes detectores do LHC, foram observadas correlações até agora desconhecidas entre as partículas, que foram geradas durante colisões próton-próton realizadas a uma energia de 7 TeV.

Uma centena ou mais de partículas podem ser produzidas durante as colisões próton-próton. Os cientistas do CMS, aí incluído um grupo de brasileiros, estudam essas colisões medindo as correlações angulares entre as partículas conforme elas se espalham a partir do ponto de impacto - a foto mostra um "mapa" de um desses espalhamentos.

As análises revelaram que algumas das partículas se espalham seguindo o mesmo ângulo, o que pode demonstrar que elas estão intimamente interligadas, de uma forma nunca antes vista em colisões de prótons.

Em busca das explicações

O efeito é sutil e muitos cruzamentos e checagens tiveram que ser feitas para confirmar que ele é real.

Segundo os cientistas, o efeito, para o qual eles ainda não têm uma explicação, se parece com aqueles observados nas colisões de núcleos no laboratório RHIC, localizado no Laboratório Nacional Brookhaven, nos Estados Unidos - veja Descoberta antimatéria que cria nova tabela periódica e Descoberta partícula de antimatéria mais estranha já vista.

No entanto, durante uma apresentação feita pelos cientistas do CMS aos demais pesquisadores do CERN, eles destacaram que há várias explicações possíveis a serem consideradas.

A apresentação centrou-se em mostrar os resultados experimentais com o objetivo de promover uma discussão mais ampla sobre o assunto e, só então, apresentar explicações para essa "conexão" entre as partículas.

O LHC continuará acelerando e colidindo prótons até o final de outubro, acumulando mais dados que poderão ajudar a entender o fenômeno. No restante de 2010, o LHC irá colidir núcleos de chumbo.

Do que são feitos os quarks

Nessa nova etapa, será a vez do detector ALICE, otimizado para estudar colisões de núcleos. O principal objetivo do ALICE é estudar a matéria no estado quente e denso que teria existido apenas pequenas frações de segundo após o Big Bang.

Nesses experimentos, os cientistas esperam compreender como a matéria evoluiu para a matéria nuclear ordinária que compõe o Universo, sem sinais da antimatéria correspondente - presume-se que o Big Bang tenha criado quantidades iguais de matéria e de antimatéria.

Outro detector do colisor de partículas, chamado LHCb, recentemente detectou quarks excitados. Até agora acreditava-se que os quarks fossem os componentes mais básicos que formam todas as partículas conhecidas. Mas a presença de quarks excitados pode indicar que "subpartículas" estejam se rearranjando para alterar o estado de energia desses quarks.

O LHC, que é o maior laboratório científico do mundo, acelera partículas ao longo de seu anel de 27 km, arremessando-as umas contras as outras em busca de inúmeras respostas, mas de uma especificamente que parece desafiar o bom senso: de onde surge a massa das partículas - ou, dito de outro modo, o que faz com que a matéria seja matéria.

Nessa busca, contudo, ainda não foram encontrados nem mesmo "sinais potencialmente novos e interessantes". Por outro lado, em seu primeiro artigo científico, o LHC confirmou uma teoria do físico brasileiro Constatino Tsallis.

http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=lhc-interligacao-entre-particulas&id=010130100922&ebol=sim

Leia Mais ►

Mecânica - Carro ecológico sem portas

Mecânica

Carro ecológico sem portas é arma contra engarrafamento

clip_image001Jorn Madslien - BBC - 21/09/2010

O T 25 alcança a velocidade máxima de 145 km/hora e deve custar em torno de US$ 9 mil. [Imagem: Gordon Murray Design]

Intenções revolucionárias

Um ex-projetista da Fórmula 1 criou um carro ecológico que pode ser a solução para o congestionamento nas grandes cidades.

O veículo ocupa um terço do espaço de um carro convencional quando estacionado, é tão estreito que pode dividir uma mesma faixa de rua ou pista com outro automóvel e é construído à base de materiais reciclados.

Sua manufatura dispensa grande parte da maquinaria pesada usada pela indústria automobilística hoje e requer apenas 20% do capital necessário atualmente.

Herói dos amantes do automobilismo, Gordon Murray desenhou, entre outros, a McLaren dirigida por Ayrton Senna quando o brasileiro venceu seu primeiro campeonato na Fórmula 1.

Há seis anos, o projetista abandonou as corridas e, levando consigo a mesma equipe de engenheiros que trabalhava com ele na McLaren, saiu em busca de um novo desafio: construir o minúsculo T 25, um carro urbano que, ele espera, vai revolucionar a forma como automóveis são construídos hoje em dia.

Carro ecológico T 25

O carro de Murray é construído à base de fibra de vidro, garrafas de plástico recicladas e tubos ocos de aço. Ele utiliza um quinto dos materiais necessários para se construir um carro convencional.

O veículo leva três passageiros, pesa 575 kg, tem 240 cm de comprimento, 130 cm de largura e 160 cm de altura.

O T 25 alcança a velocidade máxima de 145 km/hora e deve custar em torno de US$ 9 mil.

Segundo seus idealizadores, um carro como esse teria o potencial de impedir engarrafamentos nas ruas e estradas do mundo, tendo em vista projeções de que o número de veículos no planeta deva atingir 2,5 bilhões por volta de 2020.

Ele também pode permitir que milhões de pessoas realizem seu sonho de ter um carro - mas consumindo menos recursos vitais para o planeta, como água, energia ou aço.

Carro sem portas

O objeto que concretiza a visão de Murray está guardado em um prédio modesto em uma região industrial em Surrey, no sudeste da Inglaterra.

O T 25 não tem portas. Para entrar nele, é preciso erguer a cabine do motorista.

clip_image002O T 25 não tem portas. Para entrar nele, é preciso erguer a cabine do motorista. [Imagem: Gordon Murray Design]

Seguindo o padrão dos supercarros da Fórmula 1, o motorista se senta sozinho na parte dianteira do carro, no meio do veículo, com os dois assentos de passageiros localizados na parte traseira.

Também seguindo o modelo da F1, o T 25 é construído com materiais compósitos - e apenas os mais baratos.

Os painéis do corpo do carro e o monobloco (ou base) são reforçados com fibra de vidro, que custa muito menos do que a fibra de carbono, diz Murray.

"Algumas das fibras são (agrupadas em padrões) aleatórios, algumas são entrelaçadas e outras são unidirecionais - isso é mentalidade de Fórmula 1", disse Murray à BBC.

A estrutura está fixada em uma armação feita com um tubo de aço que "sozinho, não é forte o suficiente".

Murray explica, no entanto, que uma vez que o monobloco é colado ao tubo, em um processo similar à forma como as janelas de um carro são fixadas no corpo do veículo, ele se torna "tão resistente e seguro como um carro convencional".

Manufatura flexível

Segundo Murray, o processo de fabricação dos carros criados por sua equipe, batizado de iStream, é flexível e barato.

Ele dispensa as instalações gigantescas das fábricas convencionais e grande parte da maquinaria pesada e altamente poluidora, como as grandes prensas que fabricam componentes de aço e as soldadoras.

Para fazer qualquer modificação no tamanho da armação ou na forma e cor do corpo do carro, basta reescrever o software, explica Murray.

Ou seja, uma mesma linha de produção pode fabricar modelos diferentes em um único dia.

Dessa forma, a fábrica do futuro pode ser menor e mais barata, além de poluir menos.

Propriedade Intelectual

Gordon Murray explicou que o objetivo de sua equipe é projetar carros que, ele espera, sejam produzidos em massa muito em breve.

Além do modelo para três passageiros, Murray e sua equipe - composta por 30 engenheiros - estão secretamente desenvolvendo vários desenhos diferentes - veículos para dois, cinco e oito passageiros, além de um ônibus.

clip_image004

O T 25 é tão estreito que pode dividir uma mesma faixa de rua ou pista com outro automóvel. [Imagem: Gordon Murray Design]

Ele enfatiza, no entanto, que seu objetivo não é fabricar os carros e, sim, mostrar ao mundo o que sua equipe é capaz de fazer.

"Sou conhecido como um projetista, minha equipe constitui uma empresa de engenharia, mas na verdade a essência do nosso negócio é propriedade intelectual."

"Quero vender tantas licenças iStream para tantas pessoas e para tantos carros diferentes quanto possível, no mundo inteiro", diz Murray.

Carro barato

O argumento final de Gordon Murray em favor de seu carro visionário, no entanto, é econômico.

O uso de componentes mais baratos, em menor quantidade, e uma estrutura de fabricação menor, oferecem aos fabricantes cortes tremendos nos custos e reduz os riscos do investimento.

"A fábrica que constrói um carro iStream - qualquer que seja a forma ou o tamanho do carro - tem cerca de 20% do investimento de capital e 20% do tamanho de uma planta convencional de fabricação", ele disse. "E (usa) cerca de a metade da energia".

"Nós rasgamos o manual de regras e o jogamos pela janela," finaliza ele.

Leia Mais ►

Esmeralda gigante gera disputa

Esmeralda gigante achada na

Bahia é disputada em processo nos EUA

Pedra de 360 kg está avaliada em R$ 636,5 milhões; segundo processo confuso, ela teria sido comprada por R$ 102,6 mil em 2001

BBC Brasil | 24/09/2010 20:35selo

Uma esmeralda gigante descoberta na Bahia é o objeto de uma disputa judicial em Los Angeles, Estados Unidos, onde um juiz está analisando o caso para decidir a quem pertence a gema. A pedra de 360 kg, um dos maiores minérios preciosos já escavados do mundo, é avaliada em US$ 372 milhões (R$ 636.5 milhões).

Uma das partes do processo, Anthony Thomas, diz que comprou-a por US$ 60 mil (R$ 102,6 mil) de um negociante de pedras preciosas na Bahia pouco após ela ser descoberta, em 2001. Thomas alega que, após fazer os devidos acertos para despachá-la para os Estados Unidos, foi enganado e levado a crer que a esmeralda fora roubada.

A esmeralda reapareceu pouco antes do Natal do ano passado. E pelo menos cinco partes reclamam a sua propriedade.

clip_image002

Foto: AP

Pedra, avaliada em US$ 372 milhões, é um dos maiores minérios preciosos já escavados do mundo

Segundo o site Courthouse News Service, há pelo menos duas outras versões para o que ocorreu com a peça. Uma delas é mantida pelo negociante de jóias Ken Conetto, de San José, na Califórnia, que alega ter acertado com os proprietários originais da esmeralda, Élson Alves Ribeiro e seu sócio Ruy Saraiva, a responsabilidade por vender a pedra nos EUA. O lucro seria dividido entre os envolvidos no negócio.

Segundo o Wall Street Journal, a peça foi enviada em 2005 para Conetto em San José. De lá, ele enviou a gema para Nova Orleans, onde julgava ter encontrado um comprador. No entanto, o furacão Katrina inundou o galpão onde a gema estava guardada e a venda nunca foi concluída.

Outra parte no processo alega ter recebido a gema de um negociante como garantia para uma operação de venda de diamantes pagos e nunca recebidos. Para saldar o negócio, ele teria retirado a pedra do depósito em que ela estava guardada e tentava vendê-la quando a polícia entrou no caso.

Uma foto divulgada em 2008 pelo xerife de Los Angeles mostra a pedra bruta, negra, da qual saem grossos cilindros verdes. Especialistas dizem que minerais como esse, em estado bruto, são extremamente raros.

O juiz do Superior Tribunal de Justiça de Los Angeles, John A. Kronstadt, disse que tomará a decisão sobre a propriedade da pedra apenas depois de avaliar uma a uma as alegações de propriedade da esmeralda baiana.

Leia Mais ►

TURISMO - Tailândia

clip_image001

Por Submarino Viagens, http://viagem.br.msn.com, Atualizado: 23/9/2010 9:25

Tailândia

Por: Viaje Mais/Maura Ponce De Leon

clip_image003Não por acaso a Tailândia, antigo Sião, é conhecida como a "Terra do Sorriso". E quem acha que o brasileiro é religioso, precisa dar um pulinho naquele país. Tudo isso pude perceber de dentro do táxi, que levou quase uma hora para fazer um trajeto que, sem trânsito, duraria cerca de vinte minutos. O motorista tinha diversas imagens de Buda no painel do carro.

Bangcoc é a capital e também a maior cidade da Tailândia, com cerca de 12 milhões de habitantes. Os superlativos se estendem ao nome, que poucos sabem, mas faz parte do Guiness, o livro dos recordes, como o maior nome de cidade do mundo, com 152 letras (que não me atrevo a reproduzir aqui). Espertamente, é chamada pelos tailandeses de uma forma abreviada. A maior parte da população é budista. Cruzar nas ruas com monges vestidos de laranja (cor que simboliza a renúncia) é até mais comum do que encontrar padres e freiras transitando a caráter no Brasil.

Quem faz o dever de casa, antes de embarcar, aluga na locadora o filme A Praia, de 2000, clássico estrelado por Leonardo Di Caprio e dirigido por Danny Boile. E uma vez em Bangcoc, vai direto conhecer a Khaosan Road.

clip_image004TEMPLOS QUE VALEM A PENA

Do centro, com um mapa na mão é possível ir a pé para alguns pontos turísticos como o What Pho, templo do Buda deitado. Programa nota 10, já que é uma das relíquias mais antigas do país. A imagem do Buda folheada a ouro tem 46 metros de comprimento e 15 metros de altura. Ilustra a passagem da divindade ao nirvana. Lá dentro, é possível tirar fotos (o que não acontece em todos os templos) e o visitante deve deixar os sapatos na entrada.

Mais adiante, a parada no Wat Phra Kaew e no Grand Palace, um complexo que toma todo um quarteirão, deixa qualquer um arrepiado. O lugar é a sede do governo, já serviu de residência oficial para reis (o atual monarca chama-se Bhumibol Adulyadej e o país é governado em sistema de monarquia constitucional) e pode ser visitado na parte externa, com direito a ver a guarda oficial a postos.

O Wat Phra Kaew é o mais sagrado templo budista, com imagem do Buda em esmeralda, e vários outros pequenos palácios e imagens, além de locais especiais para oferendas onde milhares de turistas são vistos rezando e entrando no ritmo local. Todas as visitas são pagas, mas como tudo na Tailândia custa muito pouco, para o visitante o valor é simbólico.

A BORDO DO TUC-TUC

Fazer esses dois passeios já está de bom tamanho. Mas quem tem mais tempo pode percorrer outros templos menos conhecidos, mas igualmente belos. E a melhor opção para isso é "contratar" um tuc-tuc, moto com uma carroceria improvisada para duas ou quatro pessoas. Eles estão em todos os lugares, a toda hora.

Viajante que se preze tem que andar num deles durante a passagem pela Tailândia. Mas atenção: é necessário ter (muita) paciência. Antes de acertar o trajeto do dia, é indispensável negociar com os motoristas, que disputam os turistas quase a tapa. Tantos templos, tantas paradas e o preço é tal — é mais ou menos assim a negociação.

E não se assuste se o "piloto" sair um pouco da rota. Normalmente eles param em lojas de tecidos, seda ou souvenires e praticamente obrigam o viajante a entrar. Isso porque, em troca, a loja paga a gasolina do tuc-tuc para o mês inteiro. Por isso, é melhor não se estressar.

Bangcoc é conhecida como a Veneza do Oriente pela grande quantidade de canais. Eles são usados como meio de transporte e também de sobrevivência. E, nesse quesito, o tailandês dá um show. Em alguns bairros, as águas viram palco de mercados flutuantes (floating markets), que ficaram famosos desde 1974, quando serviram de cenário para o antigo James Bond vivido por Roger Moore, no clássico The Man with the Golden Gun. O melhor é contratar um tour pelos mercados (oferecidos em cada esquina), que pode ser feito na parte da manhã ou da tarde.

Veja fotos da Tailândia

clip_image006Cultura

Por: Viaje Mais/Maura Ponce De Leon

Para não pagar mico e fazer feio na Tailândia, dicas de comportamento e cultura nunca são demais. Então anote as observações a seguir para aproveitar ao máximo a viagem.

1. Não é permitido entrar com roupas decotadas ou camisas sem manga nos templos. Portanto, saia de casa pronto ou leve sempre uma outra camisa na bolsa para colocar por cima, se for o caso. Os sapatos sempre são deixados do lado de fora.

2. As mulheres não podem nem pensar em tocar num monge para pedir informação ou para tirar uma foto ao lado deles. Esses religiosos não tocam em mulheres.

3. Não cumprimente um tailandês com um aperto de mão, muito menos com um beijo. A reverência nacional é uma leve inclinação no corpo, com as duas mãos juntas, como se você estivesse rezando.

4. Tocar a cabeça de alguém é considerado falta de educação.

5. O tailandês se assusta diante de mau-humor ou impaciência. Ele só vai ajudá-lo se você estiver no mesmo clima que ele.

6. Os tailandeses são insistentes na hora de vender qualquer produto. Portanto, não perca a paciência. É cultural ir atrás do turista das maneiras mais inconvenientes.

7. Os tailandeses não gostam de serem fotografados. Principalmente se estiverem fazendo as oferendas a Buda, o que acontece todas as manhãs.

8. Expressões físicas de afeto não são bem-vindas nas ruas.

9. Desrespeitar a Família Real é crime com pena de prisão.

Veja fotos da Tailândia

clip_image008Gastronimia 

Por: Viaje Mais/Maura Ponce De Leon

COMIDA BARATA E ARDIDA

Mudamos a rota, já que a fome batia à porta. São muitos os restaurantes na capital tailandesa, de comida internacional à tradicional cozinha thai. Mas todo o cuidado é pouco. Escolhi um tradicional, mas mesmo com várias recomendações, a comida (um tipo de frango ao curry) veio muito apimentada e nem consegui chegar ao final, embora estivesse deliciosa. Mais uma vez, fiquei impressionada em comer num restaurante chique por menos de R$ 20.

Depois dessa, desisti da ideia de provar aqueles famosos espetinhos de gafanhoto e cigarra oferecidos nas carrocinhas de rua: é muita esquisitice para uma pessoa só. Para fazer a digestão, nada melhor do que um passeio nos night markets como o Patpong: são mercados noturnos que vendem de tudo e mais um pouco.

Velas, especiarias, incensos, camisetas e objetos lindos de decoração. E o melhor, baratíssimos. É possível comprar almofadas transadas — e ainda dá para pechinchar.

Três dias são mais do que suficientes para conhecer os principais pontos turísticos e entrar no clima de Bangcoc. Mas a Tailândia não é só caos e misticismo.

Veja fotos da Tailândia

clip_image010Roteiro

Por: Viaje Mais/Maura Ponce De Leon

PHUKET E PHI PHI

Meu segundo destino foi a maior ilha do país. Optei pela companhia Air Asia, que, assim como a Thai, tem voos baratinhos, mas sem luxo. Em apenas uma horinha, estava sobrevoando a água cristalina do Mar de Andaman e desembarcando em Phuket, na parte sul da Tailândia. A ilha é repleta de praias, montanhas e uma vida noturna pra lá de intensa, com muitos bares e inferninhos.

Do aeroporto, parti com um motorista (para variar) bem simpático rumo a Karon Beach, uma das praias mais tranquilas do lugar. No trajeto, que durou cerca de meia hora, pude notar algumas placas com setas para montes e morros, com a inscrição: "Tsunami, área de escape".

Num inglês sofrível, o taxista contou que a ilha está completamente recuperada da tragédia de 2004, quando muitos turistas e locais morreram pela força das águas. Mas como os tailandeses adoram ganhar um dinheiro, até a tragédia é fruto de exploração, e um tour pelos principais pontos atingidos pelo tsunami é oferecido na beira da praia. Fiquei tentada a pagar, mas preferi a parceria sombra e água fresca.

Karon é uma praia de areia bem branca e que nunca fica lotada. Tem uma boa rede hoteleira, como o Woraburi Resort e pequenos shoppings com restaurantes e estúdios de massagem. A maior parte dos hotéis fica em frente à praia, com os restaurantes abertos ao público.

EM DUAS RODAS

A dica em Phuket é alugar um scooter e circular com ele pelas praias o dia inteiro. A diária sai por menos de R$ 20 e a gasolina também é barata. Já motorizada (para alugar, basta apresentar o passaporte), decidi me render a Patong, a praia mais turística de Phuket.

A praia, em si, com areias escuras, muitas espreguiçadeiras e um mar pouco chamativo. Mas o entorno dela é que chama a atenção. São quadras e mais quadras de lojas, shopping centers, fast foods, estúdios de tatuagem, de massagem. Não sabia nem para que lado olhar. A praia era o de menos.

Ao norte de Patong, vale conhecer as outras praias da região, como Kamala, Surin e Bang Tao, esta última a mais preservada — se é possível usar essa palavra.

Outra opção noturna, mas "beeem" turística, é o Fantasea, um belo espetáculo típico numa casa de shows com elefantes amestrados e muita dança. Com a sensação de ter conhecido as melhores atrações de Phuket por três dias, finalmente chegou o meu "momento Richard", nome do personagem de Leonardo Di Caprio no filme A Praia. No porto de Phuket, comprei por 600 baht (cerca de R$ 32) o tíquete para o ferry rumo às ilhas Phi Phi, lugar paradisíaco que virou roteiro obrigatório de 10 entre 10 turistas após o filme hollywoodiano.

A área ainda é conhecida por abrigar uma das mais antigas comunidades do país. Embora os funcionários prometam uma viagem de cerca de uma hora, levei quase duas para chegar em Phi Phi. Mesmo fora da alta temporada, o ferry vai abarrotado de viajantes de todos os cantos do planeta, mas muitos europeus vindo ou indo para Laos, Camboja e Vietnã, roteiro que os jovens aventureiros adoram.

clip_image011

A FAMOSA MAYA BAY

Antes mesmo do ferry atracar em Phi Phi, a embarcação dá uma parada e todas as máquinas fotográficas e binóculos se voltam para a mesma direção. Lá está ela:

Maya Bay, ou "a praia". Passada a emoção, é hora de sair do ferry e seguir a pé, numa trilha de areia, para um dos muitos hotéis e resorts da ilha, pois carro não existe por ali. Escolhi o Phi Phi Villa Resort, hotel charmosinho com bangalôs e café da manhã de cara para o mar.

Seis anos depois, a ilha ainda tem vestígios do tsunami, com áreas em reconstrução. Mas isso passa quase despercebido, já que  o mar cristalino é o que chama mais atenção.

Não consegui esperar o dia seguinte e decidi partir para conhecer a tão falada Maya Bay. Perto do porto de Phi Phi, um engarrafamento de barquinhos típicos, os long tail boats, aguardam os visitantes que querem passear pelas ilhotas da região.

O lugar é dividido em duas ilhas: Phi Phi Don, onde ficam os hotéis e restaurantes, e Phi Phi Leh, mais selvagem e a cerca de 15 minutos de barco. "Vou te levar em outras ilhas e vamos chegar em Maya no pôr do sol", avisou o barqueiro.

A Bamboo Island e Monkey Island são lindas, com areia branquinha e muito azul. A segunda, como o nome diz, tem pequenos macacos que lá vivem e vêm saudar os  visitantes (que devem levar bananas, senão correm o risco de serem mordidos). Nenhuma das ilhas tem infraestrutura (ainda bem), portanto, não custa nada levar um lanchinho e garrafa de água.

Por volta de 17h, o barco embicou entre duas montanhas e avistamos um pedaço pequeno de areia tomado de gente. Muitos flashes, muitos turistas: não restava a menor dúvida de que era Maya Bay. Não era bem o que queria encontrar depois de mais de 20 horas de voo até a Tailândia. O desembarque na pequena praia é feito pela areia (o barco chega a subir nela) e, apesar do engarrafamento de turistas, o lugar é realmente estonteante. A dica é ir de manhã bem cedo, antes de 9h. Assim, é possível tirar fotos sem pessoas atrás e realmente curtir o clima mágico daquela praia.

A noite em Phi Phi é agitada, com muitos bares e até boates. O programa ideal é ir a uma delas e, de quebra, assistir a lutas de muay thai ou boxe tailandês, esporte nacional que os nativos usaram nos tempos antigos para reprimir invasores e que hoje é praticado em várias partes do mundo.

Para a dobradinha Bangcoc-Phuket (com esticada até as ilhas Phi Phi), bastam de oito a dez dias para conhecer bem os principais pontos de cada lugar. E, dependendo da companhia aérea escolhida, o viajante aproveita e conhece outros destinos no caminho, como Dubai, nos Emirados Árabes, via Emirates.

Veja fotos da Tailândia

Serviçosclip_image013

Informações Gerais

Documentos exigidos para entrada na Tailândia: para estada de até 90 dias, brasileiro não precisa de visto. É necessário ser vacinado contra a febre amarela.

Idioma: o tailandês é a língua oficial, mas o inglês é falado por muitas pessoas nas cidades turísticas.

Moeda: baht

Veja fotos da Tailândia

clip_image015clip_image023clip_image019clip_image025clip_image017clip_image021

Leia Mais ►

Eletrônica – Tecnologia de controle da velocidade da luz

http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=reducao-velocidade-luz-dentro-chip&id=010110100921&ebol=sim

Eletrônica

Redução na velocidade da luz é

obtida dentro de um chip de silício

Redação do Site Inovação Tecnológica - 21/09/2010

clip_image001

Cada uma das 32 unidades inseridas nesse chip, que mede 10 centímetros quadrados, é um integrado de espectroscopia atômica que pode ser usado para controlar a velocidade dos pulsos de luz.[Imagem: C. Lagattuta/UFSC]

A informática é ávida por aumentos de velocidade. Mas, para obter a velocidade definitiva, tornando os chips ópticos uma realidade, com a substituição da eletricidade pela luz, uma redução na velocidade da luz pode ser um passo muito útil.

E foi justamente isso o que fizeram cientistas da Universidade da Califórnia em Santa Cruz, nos Estados Unidos.

O grupo do professor Holger Schmidt criou um pequeno dispositivo óptico capaz de reduzir a velocidade da luz em 1.200 vezes, a menor taxa de propagação da luz obtida em um chip de silício até hoje - e, pela primeira vez, operando a temperatura ambiente.

Controle da velocidade da luz

Embora as fibras ópticas transmitam dados à velocidade da luz, o roteamento e as operações de processamento de dados ainda precisam converter os sinais de luz em sinais eletrônicos.

O processamento totalmente óptico de dados vai exigir equipamentos compactos e confiáveis capazes de retardar, armazenar e processar pulsos de luz. É neste ponto que o novo chip avança.

A capacidade de controlar os pulsos de luz dentro de um chip é um grande passo para tornar realidade as redes de comunicações quânticas totalmente ópticas, com vastas melhorias na velocidade e no consumo de energia na transmissão de dados.

"Diminuir a velocidade da luz e outros efeitos de coerência quântica já são conhecidos há algum tempo, mas para utilizá-los em aplicações práticas temos de ser capazes de aplicá-los em uma plataforma que possa ser produzida em massa e funcione a temperatura ambiente ou mais alta, e é isso o que os nossos chips obtiveram," disse Schmidt.

Como a velocidade da luz é diminuída

A base do novo chip é um equipamento de espectroscopia atômica totalmente integrado, criado pela mesma equipe em 2007.

A manipulação da luz é feita por uma nuvem de vapor de átomos de rubídio, colocada dentro do espaço oco de um guia de ondas óptico.

Sob a ação combinada de dois lasers (um laser de sinal e um laser de controle), os elétrons nos átomos de rubídio são postos em uma superposição coerente de dois estados quânticos.

A manipulação da luz é feita por uma nuvem de vapor de átomos de rubídio, colocada dentro do espaço oco de um guia de ondas óptico. [Imagem: Wu et al./Nature Photonics]

clip_image003No estranho mundo da física quântica, esses elétrons passam a existir em dois estados diferentes ao mesmo tempo. Um dos resultados disso é um efeito conhecido como a transparência eletromagneticamente induzida, que é fundamental para diminuir a velocidade da luz.

"Normalmente, o vapor de rubídio absorve a luz do laser de sinal, não deixando passar nada. Então você liga o laser de controle e voilá, o material torna-se transparente e o pulso do laser de sinal não apenas atravessa, mas também se move muito mais lentamente," explica Schmidt.

Interações entre a luz e a matéria

Ao utilizar o avanço anterior do chip de espectroscopia atômica, a equipe obteve efeitos quânticos que permitem não apenas tornar a luz mais lenta, mas também outras interações entre a luz e a matéria que abrem a possibilidade de novos dispositivos ópticos radicalmente novos, voltados para a computação quântica e para os sistemas de comunicação quântica.

Além disso, segundo Schmidt, o sistema é mais fácil de ser ligado e desligado e ajusta-se à velocidade de luz com que se deseja trabalhar. "Mudando a potência de um laser de controle nós podemos mudar a velocidade da luz - apenas girando o botão de controle de potência."

"[Nosso chip] tem implicações para estudos efeitos ópticos não-lineares muito além de diminuir a velocidade da luz", continua ele. "Nós podemos usá-lo para criar chaves totalmente ópticas, detectores de fótons únicos, dispositivos de memória quântica, e várias outras possibilidades entusiasmantes."

Avanços na fotônica

Em 2005, cientistas da IBM conseguiram frear a luz no interior de um chip de silício, obtendo então uma redução de 300 vezes, mas em um aparato funcionando em temperatura criogênica. (=Relativa a temperaturas muito baixas, ou à determinação delas.).

Outro passo importante no campo da fotônica foi a criação de uma memória óptica que armazena e recupera pulsos de luz individuais.

Bibliografia:

Slow light on a chip via atomic quantum state control

Bin Wu, John F. Hulbert, Evan J. Lunt, Katie Hurd, Aaron R. Hawkins, Holger Schmidt

Nature Photonics

05 September 2010

Vol.: Published online

DOI: 10.1038/nphoton.2010.211

Leia Mais ►

Como funciona a memória RAM?

Como funciona a memória RAM?

Por Igor Pankiewicz em 28/8/2009

Neste artigo, você aprenderá um pouco mais a respeito do funcionamento deste componente tão vital para os computadores. De especificações e funções até os diferentes tipos que existem atualmente.

Processadores, placas mãe, discos rígidos, ventoinhas, placas de som... Gabinetes podem ser inteiriços por fora, mas por dentro existe uma série de componentes. Alguns deles podem até não ser requeridos para o funcionamento de um sistema operacional (como drives de CD ou DVDs, por exemplo), mas existem outros sem os quais a máquina nem ligará!

 imageUm deles é a memória RAM, essencial no processamento e armazenamento dos seus programas, atuando em conjunto principalmente com o seu processador. Hoje, nós mostramos a vocês um pouco mais sobre elas, desde a composição, tipos, tamanhos, velocidades até o modo como operam em conjunto com os demais componentes

Está curioso? Então não deixe de conferir!

O que significa RAM

O termo é um acrônimo para Random Access Memory, isto é, memória de acesso aleatório. Isso implica que esta memória pode acessar os dados de forma não sequencial (ao contrário de uma fita cassete, por exemplo), acelerando em muito os processos de leitura e escrita. Qualquer

setor livre ou já preenchido é imediatamente encontrado e processado.

Entretanto, ao contrário de um disco rígido, a memória RAM é totalmente volátil, o que significa que todos os dados armazenados podem ser perdidos quando o dispositivo não é devidamente alimentado. Mas se há este contratempo, saiba que ela é milhares de vezes mais rápida que a varredura do disco físico.

Memória RAM em dois “sabores”

image Antes de tudo, você precisa saber que existem dois tipos básicos de RAM, que são a memória estática e a memória dinâmica. A primeira pode ser menos reconhecida pelo público em geral, mas está presente em muitos componentes de nossos computadores, principalmente nos processadores, onde formam a memória cache (nós explicaremos o conceito mais abaixo, durante a ilustração do percurso de funcionamento da memória RAM).

A memória estática é composta por flip-flops* (montados com quatro a seis transistores) e não necessita ser atualizada constantemente, o que a torna muito mais rápida e eficiente para trabalhos que requerem baixa latência. Os estados de saída podem ser 0 ou 1, sendo perdidos apenas quando o fornecimento de energia é cortado.

Em contrapartida, ela ocupa um espaço físico muito maior, sendo impraticável a construção de pentes de memória para uso tradicional. Outro problema é o custo bem mais elevado.

Já a memória RAM dinâmica, ou DRAM, é a que vemos para comprar nas lojas e que equipam nossas placas mãe. Suas células são compostas por um capacitor e um transistor, sendo o transistor uma espécie de portão (que barra ou dá passagem ao pulso elétrico) e o capacitor o responsável por armazenar a informação (novamente, estados de 0 ou 1).

Uma vez que o capacitor se descarrega ao longo do tempo, é necessário mantê-lo sempre alimentado. Estes circuitos integrados são dispostos em forma de linhas e colunas, de tal forma que os dados possam ser acessados, lidos ou escritos por meio de interseções (imagine uma posição A3, ativada por um pulso elétrico na linha A e por outro na coluna 3).

image Este formato pode ser mais barato e compacto em relação à memória estática (abrigando muito mais capacidade de armazenamento por centímetro quadrado), mas — em contrapartida —  devido a necessidade de localização de posições, da constante alimentação e da própria mudança de estado levam a uma latência maior para a leitura.

Caso deseje saber mais sobre estes dois diferentes tipos de memória, não deixe de conferir o artigo “Qual a diferença entre memória RAM estática e dinâmica”, no qual o assunto é abordado de maneira mais extensa.

A ordem dos fatores

Agora que você já sabe um pouco mais a respeito do funcionamento destes componentes, vamos ao percurso das informações pelos componentes e ao papel crucial das memórias. Tudo começa com os cálculos da CPU (unidade de processamento central, ou processador), que são realmente volumosos.

Todos estes dados processados podem ser requisitados para uma operação futura, entrando em cena a necessidade de um componente que armazene temporariamente as informações. Temos então as memórias cache, RAM e o próprio disco rígido atuando como um único sistema.

Como o volume de dados é gigantesco (passando da ordem de bilhões de bytes por segundo), é necessária, em primeiro lugar, uma memória extremamente rápida, capaz de acompanhar este ritmo frenético. A solução para isso é a memória cache (um tipo de memória estática, como já vimos), que fica acoplada diretamente no processador, fornecendo um espaço de trabalho com o mínimo de latência possível

image Esta memória cache também é dividida em vários níveis (tais como L1, L2, L3 e assim por diante), sendo L1 a mais próxima do processador e as demais as mais afastadas, com capacidades maiores e maiores latências, mas ainda assim com um canal direto de comunicação, permitindo acesso praticamente imediato aos dados.

Recorrendo ao plano B

Mas com um espaço tão pequeno, o que ocorre quando o dado não é comportado? Entra em cena então o próximo nível na hierarquia de memória e de acesso (por meio do controlador de memória), que é a utilização da memória DRAM (memória dinâmica, a encontrada nos pentes que estão na sua placa mãe).

Nela é que residem todos os dados abertos pelo sistema (bem como os processos que estão em atividade), como os programas e arquivos. Para conferir melhor a atuação delas, experimente abrir o gerenciador de tarefas do Windows. Na tela estão todas as taxas de utilização de memória dos programas, seguidas do total disponível em sistema.

image Novamente, dependendo da utilização que você faça do seu sistema, pode ser que a memória DRAM disponível nos pentes não seja suficiente para abastecer todas as necessidades do seu sistema. E nesses casos, como fazer para que o computador não emperre?

Hora do plano... C?

image A resposta está no disco rígido, que passa a ser utilizado pela maioria dos sistemas operacionais atuais como uma extensão da memória RAM, sob a forma de uma memória virtual. Assim, o sistema passa a ler e escrever dados em disco, evitando travas e continuando o gerenciamento dos processos.

Só há um grande problema com isso: a velocidade de leitura e escrita é muito inferior à encontrada

para os outros tipos de memórias do mercado. Como resultado, seu PC continuará em funcionamento, mas o desempenho... Estará lá em baixo!

O sistema tentará trocar os dados na maior velocidade possível, armazenando na RAM tudo o que for mais importante, deixando para o HD os itens de menor importância. Mesmo assim, janelas irão travar e o mouse ficará pesado!

image Usuários com mais conhecimento podem configurar quanto de seus discos rígidos poderão atuar nesta virtualização, de modo a obterem o máximo de desempenho sob tais circunstâncias. Para saber mais sobre a memória virtual e a aplicação dos HDs, não deixe de ler o artigo “O que é memória virtual”.

Tipos de memórias

Nós já cobrimos um pouco do caminho dos dados pelo computador, então vamos aos tipos de pentes que encontramos no mercado ou que já existiram e deixaram de ser vendidos. Vale lembrar que os equipamentos e processadores mais recentes trabalham com memórias do tipo DDR2 ou DDR (para alguns dos anos anteriores). E para descobrir qual é o tipo de memória utilizada pelo seu computador, siga diretamente para o manual de instruções.

Memória SIMM - O termo SIMM vem de Single In-Line Memory Module, e era designado ao tipo de módulo de memória utilizado em computadores até meados da década de noventa. Os primeiros modelos conseguiam carregar as instruções com apenas 8 bits a cada passagem, tendo um total de 30 pinos conectores. Depois de algum tempo, surgiram novos módulos, os quais continham 72 pinos de conexão e suportavam até 32 bits de informação por acesso.

Memória DIMM - DIMM - Dual Inline Memory Module (Módulo de Memória em Linha Dupla), encapsulamento, é um dos tipos de memória DRAM. As memórias DIMM estão divididas basicamente em dois tipos: as SDR SDRAM e DDR SDRAM. São classificadas também de acordo com a quantidade de vias que possuem, por exemplo, a SDR SDRAM que possui 168 vias e a DDR SDRAM que possui 184 vias. Ao contrário das memórias SIMM, estes módulos possuem contatos em ambos os lados do pente, e daí lhes vem o nome (DIMM é a sigla de Dual Inline Memory Module). São módulos de 64 bits, não necessitando mais utilizar o esquema de ligação das antigas SIMM (Single Inline Memory Module), a paridade. São comuns módulos de 64 MB, 128 MB, 256 MB, 512 MB, 1 GB, 2GB atualmente.

Estes módulos entraram no mercado para substituir os pentes mencionados acima, principalmente com a ascensão da arquitetura Pentium no mercado mundial de computadores. As grandes diferenças consistem no fato de que ambos os lados de conectores são independentes, ao contrário da geração anterior, proporcionando uma largura de banda de 64 bits.

Memória RIMM - RIMM é o nome patenteado para Direct Rambus Memory Module, sendo muito parecidos com as memórias DIMM, descritas acima. As principais diferenças estão no número de conectores e na transferência de dados, que ocorre a 16 bits. Entretanto, por possuir velocidade maior, era requerida uma lâmina de alumínio para refrigerar o equipamento.

Uma segunda definição, do Club do Hardwere, diz: Rambus In Line Memory Module - Módulo de Memória Rambus

Tipo de módulo de memória usado pelas memórias com tecnologia Rambus.

A tecnologia Rambus consiste em transmissões de poucos bits por vez (ex: 16 bits) porém com um clock muito elevado.

Os módulos RIMM são classificados da seguinte forma:

  • 1ª geração (16 bits): PC600 ou RIMM 1200 (1.200 MB/s), PC700 ou RIMM 1400 (1.400 MB/s) e PC800 ou RIMM 1600 (1.600 MB/s).
  • 2ª geração (32 bits): PC1066 ou RIMM 4200 (4.200 MB/s).
  • 3ª geração (64 bits): PC1333 ou RIMM 11G (10,7 GB/s).
  • Só é possível instalar módulos RIMM em placas-mãe que aceitam este tipo de memória. São poucas as placas-mãe com este recurso.

Normalmente a configuração usada é de dois canais, fazendo com que a taxa de transferência seja o dobro da nominal caso sejam usados dois módulos. Por exemplo, em uma placa-mãe usando o chipset Intel 850 e com dois módulos PC800 instalados, a taxa de transferência da memória será de 3.200 MB/s (1.600 MB/s x 2), já que este chipset usa a configuração de dois canais.

Esta tecnologia necessita de terminação resistiva. Por este motivo, todos os soquetes RIMM da placa-mãe tem de obrigatoriamente estar preenchidos. No caso de não haver módulos de memória suficientes para preencher todos os soquetes, deve-se instalar um módulo chamado C-RIMM (Continuity RIMM), que é um módulo "vazio" responsável por fechar o circuito resistivo.

image

Memória DDR SDRAM

A Memória de Acesso Aleatório Dinâmica Síncrona de dupla taxa de transferência é uma das especificações de memória de maior sucesso na indústria, tendo sido desenvolvida com o objetivo de atingir o dobro do desempenho de sua antecessora. Considerando que os dados são transferidos a 64 bits por vez, a taxa de transferência (quando multiplicados a taxa de bus e o número de bits) chega a 1600 MB/s (leve em consideração que o valor normal seria de 800 MB/s, caso não houvesse a tecnologia de transmissão dupla).

DDR2 SDRAM

O principal padrão atual é uma evolução da memória tipo DDR convencional, contando com uma série de transformações nas especificações que visam o aumento de velocidade (incluindo o clock), a minimização do consumo de energia, do aquecimento e da interferência por ruídos elétricos e o aumento da densidade (mais memória total por pente ou chip).

DDR3 SDRAM

Assim como para a revisão anterior, a DDR3 tem como propósito elevar ainda mais o desempenho das memórias, reduzindo consumo e acelerando as capacidades de acesso e armazenamento de dados. A banda de transferência de dados é duas vezes superior a encontrada nas DDR2, entretanto, a latência se manteve praticamente idêntica. Vale ressaltar que este padrão de memória já está entrando em uso, com processadores como o Intel i7 e placas mãe específicas.

De quanto eu preciso?

Ao contrário do que muitos usuários acreditam, adicionar memória RAM nem sempre aumenta o desempenho do computador. Para entender melhor esta ideia, imagine que seu computador já conta com 1 GB de memória. Com base neste valor, pense que o sistema operacional consome cerca de 300 MB para rodar, que o navegador aberto ocupa mais 120 MB e que a sua planilha de Excel adiciona mais 100 MB na conta.

Teoricamente você teria memória de sobra para rodar mais alguns aplicativos (480 MB) e, caso não fosse abrir muitas coisas a mais, um pente adicional não causaria impacto, pois já há uma quantia livre mais que suficiente.

image

 

 

 

 

Em outra situação, mantenha o computador com 1 GB de RAM, mas imagine que o sistema operacional, navegador, planilha e mais alguns programas abertos consomem cerca de 900 MB de RAM. Com mais um joguinho leve ou uma aba extra com Flash no navegador você saltaria para cima de 1 GB de memória ocupado (tendo que recorrer à memória virtual, realizando a troca entre os aplicativos alocados na memória RAM e perdendo muito desempenho pelo meio do caminho).

É para este segundo caso que a adição de mais memória causa impacto, abrindo mais espaço para os programas e o sistema “respirarem”.

(Fontes: Baixaki e Club do Hardwere)

Leia Mais ►

O que é memória RAM?

Saiba mais sobre esse componente essencial de seu PC!

Por Equipe Baixaki em 11/11/2008

Memória RAM é um sistema de armazenamento de dados. RAM significa Random Access Memory, Memória de Acesso Aleatório, em inglês, e esta nomenclatura se deve ao fato de que o sistema acessa dados armazenados de maneira não-sequencial, ao contrário de outros tipos de memória. A memória RAM é volátil, ou seja, não grava de modo permanente os dados nela contidos. Quando a alimentação do sistema é cortada, tudo que foi guardado é perdido.

clip_image002O sistema é bastante útil para o processamento de dados, pois disponibiliza espaço para informações cruciais, que podem ser acessadas de maneira quase imediata, ao contrário de outras formas de armazenamento, como discos rígidos, CDs ou DVDs. O sistema operacional, assim como aplicativos e dados em uso são armazenados na memória RAM, permitindo que o processador trabalhe estas informações rapidamente.

Para a execução de jogos, por exemplo, uma boa quantidade de memória RAM de alta qualidade é essencial, já que neste tipo de aplicativo arquivos são acessados a todo tempo, para que sejam carregadas texturas, modelos, animações e outros tipos de dados exibidos a todo instante. Se o processador depender de acesso ao disco rígido ou a outro tipo de armazenamento, a velocidade e agilidade características de um game podem ser comprometidas.

Vale a pena ressaltar que nem todos os tipos de memória RAM providenciam o mesmo nível de performance. Existem diversos modelos com freqüências diferentes e capacidades de transferência de dados cada vez maiores. Confira abaixo uma comparação entre três modelos de RAM com freqüência de clock de 200MHz, e note como a performance duplica a cada versão do hardware:

DIMMs Memória RAM é indispensável para qualquer tipo de usuário, desde aqueles que têm interesse em jogos até os que utilizam processadores de texto mais pesados. O acesso de dados diretamente no disco rígido não traz a agilidade que é necessária para a maior parte dos aplicativos utilizados hoje em dia, e o fato de um pente de memória não ser um componente caro demais garante que todo usuário deve tentar manter seu sistema atualizado nesse aspecto.

Leia Mais ►

Geografia – Pangeia e Deriva Continental

Origem: Wikipédia, a enciclopédia livre.

clip_image002Mapa de Pangeia

clip_image003

Animação mostrando separação da Pangeia

 

 

 

Designa-se por Pangeia o continente que, segundo a teoria da deriva continental, existiu até há 200 milhões de anos, durante a era Mesozoica, porém, há relatos também de 540 milhões de anos. A palavra origina-se do fato de todos os continentes estarem juntos (pan do grego, pâs, pâsa, pân, todo, inteiro) e exprime a noção de totalidade, universalidade, formando um único bloco de terra (gea) ou Géia, Gaia ou Ge como a Deusa que personificava a terra com todos os seus elementos

Milhões de anos se passaram até que a Pangeia se fragmentou, dando origem a dois mega-continentes. Separação esta que ocorreu lentamente e se desenvolveu deslocando sobre um subsolo oceânico de basalto.

A parte correspondente à América do Sul, África, Austrália e Índia, denomina-se Gondwana (região da Índia). O resto do continente, onde estava a América do Norte, Europa, Ásia e o Ártico se denomina Laurásia.

A Pangeia era cercada por um único oceano Pantalassa.[1] Foi inicialmente sugerida a hipótese no início do século XX pelo meteorologista alemão Alfred Wegener, criando uma grande polêmica entre a classe científica da época. Wegener teve como ponto de partida de sua teoria os contornos semelhantes da costa da América com a da África, os quais formariam um encaixe quase perfeito. Entretanto, não foi utilizado este fato na sua fundamentação científica, mas a comparação dos fósseis encontrados nas regiões brasileira e africana. Como estes animais não seriam capazes de atravessar o oceano na época, então concluiu-se que eles teriam vivido em mesmos ambientes em tempos remotos.

Esta teoria não foi aceita, sendo até ridicularizada pela classe científica. Foi confirmada somente em 1940, após 15 anos da morte de Wegener.

Deriva continental

Origem: Wikipédia, a enciclopédia livre.

clip_image001

Ilustração feita pelo geógrafo Antonio Snider-Pellegrini, em 1858, ilustrando a justaposição das margens africana e americana do Oceano Atlântico.

A ideia da deriva continental foi proposta pela primeira vez por Alfred Wegener em 1912. Em 1915 publicou o livro "A origem dos Continentes e dos Oceanos", onde propôs a teoria, com base nas formas dos continentes de cada lado do Oceano Atlântico, que pareciam se encaixar.

Muito tempo antes de Wegener, outros cientistas notaram este fato. A ideia da deriva continental surgiu pela primeira vez no final do século XVI, com o trabalho do cartógrafo Abraham Ortelius. Na sua obra de 1596, Thesaurus Geographicus, Ortelius sugeriu que os continentes estivessem unidos no passado. A sua sugestão teve origem apenas na similaridade geométrica das costas atuais da Europa e Áfricacom as costas da América do Norte e do Sul; mesmo para os mapas relativamente imperfeitos da época, ficava evidente que havia um bom encaixe entre os continentes. A ideia evidentemente não passou de uma curiosidade que não produziu conseqüências.

Outro geógrafo, Antonio Snider-Pellegrini, utilizou o mesmo método de Ortelius para desenhar o seu mapa com os continentes encaixados em 1858. Como nenhuma prova adicional fosse apresentada, além da consideração geométrica, a ideia foi novamente esquecida.

A similaridade entre os fósseis encontrados em diferentes continentes, bem como entre formações geológicas, levou alguns geólogos do hemisfério Sul a acreditar que todos os continentes já estiveram unidos, na forma de um supercontinente que recebeu o nome de Pangeia.

A hipótese da deriva continental tornou-se parte de uma teoria maior, a teoria da tectônica de placas. Este artigo trata do desenvolvimento da teoria da deriva continental antes de 1950.

Evidências da deriva continental criadas por Alfred Lothar Wegener

Alfred Lothar Wegener apresentou esta teoria utilizando aspectos

morfológicos, paleoclimáticos, paleontológicos e litológicos.

Com relação às rochas, haveria coincidência das estruturas geológicas nos locais dos possíveis encaixes entre os continentes, tais como a presença de formações geológicas de clima frio nos locais onde hoje imperam climas tropicais ou semi-tropicais. Estas formações, que apresentam muitas similaridades, foram encontradas em localizações como a América do Sul, África e Índia.

As evidências fósseis também são bastante fortes, tanto vegetais como animais. A flora Glossopteris aparece em quase todas as regiões do hemisfério sul, América do Sul, África, Índia, Japão, Austrália e Antartica. Um réptil terrestre extinto do Triássico, o Cinognatus, aparece na América do Sul e na África e o Lystrosaurus, existe na África, Índia e Antártica. O mesmo acontece com outros répteis de água doce que, evidentemente, não poderiam ter nadado entre os continentes. Se estes fósseis existem em vários continentes distintos que hoje estão separados por milhares de quilômetros de oceano, os continentes deveriam estar unidos, pelo menos durante o período Triássico. A hipótese alternativa para estas evidências seria uma hipotética ligação entre os continentes (pontes de terra) que atualmente estaria submersas.

A Teoria de Wegener

Atualmente existem seis continentes, sendo eles: América, África, Ásia, Oceania, Europa e Antártica. A teoria de Wegener propunha a existência de uma única massa continental chamada Pangeia, que começou a se dividir a 200 milhões de anos atrás.

Esta ideia foi complementada na época por Alexander Du Toit, professor sul-africano de geologia, que postulou que primeiro a Pangeia se separou em duas grandes massas continentais, Laurásia ao norte eGondwana no sul. Posteriormente estas duas massas teriam se dividido em unidades menores e constituído os continentes atuais.

Embora Wegner apresentasse provas extremamente fortes da sua teoria da deriva continental, falhava na explicação do mecanismo que seria responsável pela separação dos continentes. Wegner simplesmente postulou que as massas continentais teriam se arrastado sobre o assoalho oceânico, separando-se umas das outras, movidas por forças gravitacionais produzidas pela saliência equatorial.

Considerações físicas formuladas por Harold Jeffreys, importante geofísico inglês contemporâneo de Wegner, provaram que tal processo seria impossível: primeiro porque as forças alegadas por Wegner seriam muitas ordens de grandeza mais fracas do que as que seriam necessárias para produzir tal efeito e, segundo, porque o arrasto da base dos continentes sobre o fundo oceânico produziria a sua ruptura geral.

Esta fraqueza do raciocínio de Wegner, fez com que os geólogos e o mundo acadêmico, de uma forma geral, pusessem de lado, pelo menos provisoriamente, a sua teoria.

No final da década de 1950, do mundo submarino começou a trazer evidências da topografia submarina e, principalmente, de certas características do comportamento magnético das rochas do assoalho submarino, o que ressucitou a teoria de Wegener. Desta vez, porém, os mecanismos de deriva continental já estavam mais bem estabelecidos pelo trabalho de vários pesquisadores, entre os quais se destaca o geólogo inglês Arthur Holmes. As forças geradas pelas correntes de convecção do manto terrestre são fortes o suficiente para deslocar placas, constituídas pela crosta submarina e continental.

Segundo a teoria da deriva continental, a crosta terrestre é formada por uma série de "placas" que "flutuam" numa camada de material rochoso fundido. As junções das placas (falhas) podem ser visíveis em certas partes do mundo, ou estarem submersas no oceano. Quando as placas se movem umas ao encontro das outras, o resultado do atrito é geralmente sentido sob a forma de um tremor de terra (exemplo a falha de Santo André na Califórnia).

As placas não somente se movem umas contra as outras, mas "deslizam" umas sob as outras - em certos lugares da Terra, o material que existe na crosta terrestre é absorvido e funde-se quando chega às camadas "quentes" sobre as quais as placas flutuam. Se este processo existisse só neste sentido, haveria "buracos" na crosta terrestre, o que não acontece. O que se passa de fato é que, entre outras placas, material da zona de fusão sobe para a zona da crosta para ocupar os espaços criados (exemplo, a "cordilheira" submersa no Oceano Atlântico).

Os continentes que são os topos destas placas flutuam - ou derivam - no processo. Por isso a expressão "deriva continental"

Leia Mais ►