Brasileiros criam superplástico com abacaxi e banana

Mecânica

Pesquisa brasileira

clip_image001Redação do Site Inovação Tecnológica - 28/03/2011

Os bioplásticos feitos com nanocelulose extraída do abacaxi são 30 vezes mais leves e de 3 a 4 vezes mais fortes do que os plásticos usados nos carros hoje.[Imagem: Mikael Ankerfors]

Cientistas brasileiros querem que os chamados "carros verdes" - carros ambientalmente corretos, ou menos ambientalmente danosos do que os atuais - tenham o verde guardado fundo em suas fibras mais íntimas.

Alcides Leão e seus colegas da USP desenvolveram uma técnica para usar fibras de abacaxi, banana e outras plantas em uma nova geração de plásticos automotivos.

Superplásticos de plantas

Os plásticos compósitos à base de plantas são mais fortes e mais leves do que os atuais - e mais ambientalmente corretos, por dispensarem uma parte do material à base de petróleo.

Segundo Leão, as fibras retiradas do abacaxi e da banana parecem ser frágeis, mas, quando testadas na forma de fibras de nanocelulose, elas são extremamente fortes - quase tanto quanto o famoso Kevlar, usado na fabricação de roupas à prova de bala.

Com a vantagem de que, ao contrário do Kevlar e de outros plásticos tradicionais, que são feitos de matérias-primas oriundas do petróleo e do gás natural, as fibras de nanocelulose são completamente renováveis.

"As propriedades desses plásticos são incríveis," disse Leão. "Eles são leves, mas muito fortes - 30 vezes mais leves e de 3 a 4 vezes mais fortes. Nós acreditamos que uma grande variedade de peças de automóveis, incluindo painéis, pára-choques e painéis laterais, será feita de nanofibras de frutas no futuro."

E em um futuro próximo: segundo Leão, os superplásticos à base de nanocelulose poderão estar no mercado dentro de dois anos.

Além do aumento na segurança, os bioplásticos permitirão a redução do peso do veículo, com um ganho direto na economia de combustível.

O pesquisador brasileiro cita ainda outras vantagens. Segundo ele, os plásticos com as nanofibras de frutas incorporadas têm maior resistência a danos causados pelo calor e por derramamento de líquidos, como a gasolina.

Nanocelulose

A celulose é o material básico que forma a madeira e outras partes das plantas.

Suas fibras, em suas dimensões naturais, têm sido usadas na fabricação de papel há séculos.

Mais recentemente, os cientistas descobriram que o processamento intensivo da celulose libera fibras extremamente pequenas, a chamada nanocelulose - fibras com comprimentos na faixa dos nanômetros, ou bilionésimos de metro.

Estas nanofibras são tão pequenas que seria necessário colocar 50.000 delas enfileiradas para cobrir o diâmetro de um fio de cabelo humano.

Assim como as fibras de vidro e fibras de carbono, as fibras de nanocelulose podem ser adicionadas às matérias-primas usadas na fabricação do plástico, gerando plásticos reforçados que são mais fortes e mais duráveis.

Nanofibras

Leão afirma que as folhas e caules de abacaxi são mais promissores como fonte de nanocelulose do que a madeira comum.

Outras fontes adequadas de nanocelulose estudadas pelo grupo são o curauá (Ananás Erectifolius)), um parente do abacaxi, a banana, a casca de coco e o sisal.

Para preparar as nanofibras, os cientistas colocaram as folhas e caules de abacaxi ou das demais plantas em um equipamento parecido com uma panela de pressão.

O "molho" é formado por um conjunto de compostos químicos, e o cozimento é feito em vários ciclos, até produzir um material fino, parecido com o talco.

O processo é caro, mas é necessário apenas um quilograma de nanocelulose para produzir 100 quilogramas de plásticos leves e super-reforçados.

"Por enquanto nós estamos focando na substituição dos plásticos automotivos," disse Leão. "Mas no futuro poderemos substituir peças automotivas hoje feitas de aço ou alumínio usando esses materiais à base de nanocelulose de plantas."

Leia Mais ►

Ceará terá sistema híbrido de energia solar-eólica

Plantão

Pesquisa Cearense

CNPq - 28/03/2011

clip_image002

O sistema usará o hidrogênio como meio para armazenar a energia elétrica adquirida com os aerogeradores (eólico) e placas (solar). [Imagem: CNPq]

Fontes alternativas

Ciência e Tecnologia para o desenvolvimento sustentável tem sido um dos temas mais destacados no meio acadêmico e pelos diversos atores sociais e políticos que englobam a comunidade ou a sociedade civil.

Objeto de interesse público, a sustentabilidade não pode ser mais vista apenas como uma preocupação a longo prazo, mas sim, como uma prioridade diária e uma ferramenta insubstituível para garantir o desenvolvimento futuro da humanidade.

Um dos papéis mais importantes da ciência é o de oferecer instrumentos e informações que permitam uma melhor formulação de políticas voltadas para a preservação do meio ambiente.

Nesse sentido, pesquisas científicas vêm sendo realizadas com o intuito de criar e consolidar meios mais modernos e eficientes, que busquem diminuir cada vez mais os impactos ambientais causados pela utilização dos recursos naturais.

Sistema híbrido de energia solar-eólica

Preocupado com a necessidade de mitigar os impactos relacionados à obtenção de energia, o físico e engenheiro mecânico, Elissandro Monteiro do Sacramento, propôs a criação de um sistema híbrido que utiliza energia eólica e energia solar.

O projeto, que conta com o apoio do CNPq, pretende otimizar o sistema elétrico do Estado do Ceará, buscando diminuir os custos com a produção de energia elétrica, e acabando com a dependência de combustíveis fósseis.

"O Ceará importa grandes quantidades dos combustíveis fósseis consumidos em seu território, o que deixa o Estado refém do mercado internacional do petróleo. Porém, com a elaboração do mapa eólico, juntamente com estudos para análise do potencial solarimétrico, ficaram evidenciadas as elevadas capacidades de aproveitamento destas fontes de energia na região", afirma Sacramento.

Segundo ele, a busca pela sustentabilidade requer planejamento e inserção de novas fontes de energia, pois as fontes convencionais como, por exemplo, carvão mineral e derivados do petróleo vêm causando sérios danos ambientais. "Uma economia baseada na queima de combustíveis fósseis influencia diretamente no aumento gradual da poluição atmosférica, o que causa os mais variados efeitos ambientais adversos, como a intensificação do efeito estufa que gera inúmeras mudanças climáticas nocivas à sobrevivência humana", ressalta o pesquisador.

O sistema híbrido de energia solar-eólica, idealizado pelo pesquisador cearense deverá começar a ser construído ainda este ano no campus da Capital (Itaperi) da Universidade Estadual do Ceará (UECE).

O projeto que, atualmente, conta sete pesquisadores envolvidos, conseguiu junto ao CNPq um financiamento de R$ 250 mil para montar o sistema piloto. "O apoio do CNPq vem sendo de fundamental importância para concretizarmos uma ideia formatada há cerca de três anos. A partir do capital disponibilizado poderemos instalar, inicialmente, um sistema piloto para verificarmos o comportamento do sistema", diz.

clip_image004

O projeto prevê, no futuro, a incorporação de dessalinizadores. [Imagem: CNPq]

Hidrogênio

O sistema usará o hidrogênio como meio para armazenar a energia elétrica adquirida com os aerogeradores (eólico) e placas (solar).

Na concepção do professor, o uso do hidrogênio surge com uma nova tecnologia que trará soluções para os gargalos energéticos locais.

"O hidrogênio proporcionará o aumento da disponibilidade de energia no estado, bem como na redução dos gastos com políticas ambientais, pela sua utilização limpa em comparação com outros sistemas convencionais".

Para a produção de energia elétrica, o sistema proposto obtém primeiramente o hidrogênio por meio da eletrólise (processo físico-químico que, a partir da molécula da água, separa o oxigênio do hidrogênio).

Tendo o hidrogênio separado, o projeto utiliza-o para armazenar a energia elétrica adquirida a partir de parques eólicos e dos painéis fotovoltaicos.

Tecnologias emergentes

"Inicialmente iremos trabalhar apenas com um aerogerador e uma placa fotovoltaica, que serão comprados em abril e setembro, respectivamente, mas esperamos, num momento não muito distante, agregar mais equipamentos ao sistema, de forma a aumentar o nível de potência de trabalho", pontua o pesquisador.

Em grande escala, ainda é previsto pelo professor o uso de dessalinizadores, os quais utilizarão a água do mar como base para o processo de eletrólise.

Segundo Sacramento os custos de implantação de um sistema com essas características são elevados, pois tratam com tecnologias emergentes. Porém, os avanços tecnológicos nessas áreas (trabalhos com eólica e solar) vêm evoluindo consideravelmente em muitos países, e de acordo com ele, o Brasil não pode ficar na contramão do desenvolvimento. "Apesar de ser um investimento em longo prazo, o uso do hidrogênio será eficiente para comercializar a energia, além de ser ecologicamente correto".

O pesquisador afirma ainda que apesar de haver um investimento considerável na geração de energia elétrica a partir da utilização das fontes eólica e solar no estado do Ceará, é fundamental se investir mais na produção intelectual intensificando investimentos em estabelecimentos de ensino que realizem pesquisas envolvendo a inserção de novas fontes na matriz energética estadual.

"Além disso, é preciso conscientizar cada vez mais a sociedade a promover e apoiar tendências menos intensivas de utilização de recursos, inclusive a utilização de menos energia na indústria, agricultura e transporte", finaliza Sacramento.

Atualmente o grupo busca parcerias junto ao governo do estado do Ceará, bem como com empresas privadas que trabalham no setor energético. No Brasil, universidades de Minas Gerais, Rio de Janeiro e São Paulo já trabalham com a mesma ideia.

Leia Mais ►

A história dos processadores–Versão 2

 
Outra versão

Descubra a evolução dos processadores desde o início até os dias de hoje.

27 de Maio de 2009

clip_image015O processador é o principal componente do computador, visto que todos os programas são executados através dele. Fazendo uma analogia, a CPU é como se fosse o coração da máquina, pois se ela parar de funcionar, todo o resto para junto. Toda a tecnologia existente nos novos processadores não foi criada do nada, mas sim desenvolvida durante várias décadas. Em outras palavras, muitos recursos existentes na CPU do seu PC já eram utilizados dez, vinte anos atrás.

Por esse motivo, neste artigo vamos fazer uma viagem pelo tempo, observando a evolução dos processadores desde sua origem até os dias de hoje. Começando, vamos abordar o período que não existiam processadores propriamente ditos como conhecemos hoje.

Período anterior ao processador

Como o conceito de processadores somente surgiu em 1970, os computadores das décadas anteriores (40, 50 e 60) utilizavam formas primitivas de processamento comparadas com as atuais Por exemplo, em uma máquina como o Eniac (lançado em 1945), que possuía quilômetros de fios e cabos espalhados por todo lado, os programas não eram executados em um mesmo local. Na verdade, para executar operações diferentes, era necessário trocar cabos manualmente entre conectores distintos. Grande parte do processamento era executado por válvulas e transistores muito primitivos.

clip_image001

No ano de 1960, a IBM lançou o seu “IBM 7030 Stretch”, considerado como o primeiro computador totalmente processado através de transístores, no lugar das válvulas. Seguindo a tecnologia "Batch", seu usuário poderia incorporar funcionalidades “prontas” ao processador, por meio de circuitos impressos específicos. Por isso ,era muito comum que unidades de processamento fossem compostas de vários componentes físicos.

Com o IBM 360, em 1964, os processadores passaram a usar o conceito de “circuito integrado”, interligando várias operações em um mesmo circuito. Entretanto, eles ainda eram compostos por várias peças distintas, mas em um número muito menor comparado com o 7030 Stretch.

Processadores Modernos

Nos modelos apresentados acima, os processadores ainda não eram compostos por uma unidade central, mas por módulos interconectados entre si. Foi só no início da década de 70 que surgiram as CPUs desenvolvidas totalmente em circuitos integrados em um único chip de silício.

clip_image003Geração Pré-x86

O Intel 4004 foi o primeiro processador lançado um único chip de silício. Ele trabalhava com 4 bits, sendo desenvolvido para o uso em calculadoras, operando com o clock máximo de 0.78 Mhz. Esta CPU calculava até 92.000 instruções por segundo ( ou seja, cada instrução gastava 11 microssegundos) . Já em 1974, o 4040 foi lançado também pela Intel, sucedendo o 4004. Em valores absolutos, como o clock e o número de instruções calculadas, ambos modelos possuíam desempenhos semelhantes, contudo, o 4040 incorporou novas tecnologias, como Interrupção de Hardware, aumento significativo do conjunto de instruções e do número de registradores.

Com o sucesso do 4004, a mesma empresa desenvolveu o processador 8008 no ano de 1972, semelhante ao modelo anterior, mas que agora trabalhava com instruções de 8 bits. Seu clock trabalhava na frequência de 0.8 Mhz. Em 1974, a Intel lançou o 8080, que trabalhava com operações de 16 bits usando instruções de 8 bits, com o clock em 2 Mhz, valor bastante alto para época.

A arquitetura x86

A arquitetura x86, lançada em meados da década de 70, ainda serve como base para uma boa parte dos computadores atuais. O primeiro processador que aproveitou todo o seu potencial foi o Intel 8086, de 1978. Pela primeira vez, a velocidade do clock alcançou 5 Mhz, utilizando instruções reais de 16 bits, o dobro que suas versões concorrentes.

clip_image005Pouco tempo depois, o 8088 foi lançado, possuindo o barramento externo com 8 bits, ao contrário dos 16 bits do 8086, assim, tornando-o mais barato. Nos anos seguintes, a Intel desenvolveu os modelos 80186 e 80188, utilizados em software embarcado. Em 1982, o capacidade de processamento chegou ao patamar de 8 Mhz, através do Intel 80286, que posteriormente atingiu 25 Mhz em modelos similares da AMD, causando um fenômeno na época.

Versão X86-32

Como seu nome sugere, x86-32 é arquitetura x86 para 32 bits, utilizada até hoje nos computadores. Em outras palavras, todo processador de 32 bits vendido atualmente roda sobre a arquitetura x86-32 (os de 64 bits rodam sobre a x86-64).

Os famosos 386 e 486

As CPUs 80386 e 80486, lançadas entre o meio e o fim da década de 80, trabalhavam com 40 Mhz e 100 Mhz, respectivamente. O 80386 permitiu que vários programas utilizassem o processador de forma cooperativa, através do escalonamento de tarefas. Já o 80486 foi o primeiro a usar o mecanismo de pipeline, permitindo que mais de uma instrução seja executada ao mesmo tempo no PC.

clip_image007Para o 80486, existiram diversas versões, sendo que cada uma delas possuiam pequenas diferenças entre si. Por exemplo, o 486DX era o top de linha da época enquanto o 486SX era uma versão baixo custo.

A guerra entre Intel e AMD

clip_image009A série de processadores Intel e AMD marcaram época no mundo da informática, através de suas diferentes versões. O primeiro Pentium (Intel), lançado em 1993, apresentava várias melhorias sobre o 80486, principalmente por uso da super escalabilidade, ou seja, a replicação de hardware para que mais instruções fossem executadas ao mesmo tempo. Seu clock inicial era de 100 Mhz, o qual chegou a atingir 200 Mhz com o tempo.

Em 1995, a Intel lançava o Pentium Pro, que possuía uma série de melhoramentos em relação ao seu antecessor. Paralelamente, a AMD começava a ganhar mercado com modelos similares, principalmente como o AMD K5, forte concorrente do Pentium original.

clip_image011

Dois anos depois, o Pentium II foi lançado, atingindo a marca de 450 Mhz. Nesta mesma época, a AMD desenvolveu CPUs que batiam de frente com a Intel, como o AMD K6. Por esse motivo ambas empresas travaram uma espécie de “corrida armamentista”, como o objetivo de ver quem conseguia o maior desempenho e valor de clock.

 

A corrida por desempenho a lei de Moore

clip_image013Em 1965, Gordon Moore, um dos fundadores da Intel, afirmou que o clock dos processadores dobrava a cada 18 meses. Tal afirmação foi conhecida como a Lei de Moore, a qual foi verdadeira durante anos, principalmente no final da década de 90. Sempre que uma empresa lançava um modelo, meses depois a outra lançava outro que o superava. Isso ficou bastante evidente nos anos de 1999 e 2000, quando o Pentium 3 e o AMD Atlhon (K7) estavam guerreando pelo maior clock. Por um período de tempo, a AMD liderou a disputa, pois o Atlhon, que trabalhava com frequências maiores que 1 Ghz, superou o Pentium 3.

A reviravolta da Intel veio com o lançamento do Pentium 4 em 2001, que trabalhava com até com 2 Ghz, voltando ao topo do mercado. As versões de baixo custo dessas CPUs, Celeron (Intel) e Duron (AMD) também disputavam fortemente o lugar mais alto no ranking do processador B mais vendido.

A era multi-core e o fim da lei de Moore

Conforme a tecnologia dos processadores foi progredindo, o tamanho de seus transistores foram diminuindo de forma significativa. Contudo, após o lançamento do Pentium 4, eles já estavam tão pequenos (0.13 micrometros) e numerosos (120 milhões) que tornou-se muito difícil aumentar o clock por limitações físicas, principalmente pelo superaquecimento gerado.

clip_image015clip_image017

A principal solução para este problema veio com o uso de mais de um núcleo ao mesmo tempo, através da tecnologia multicore. Assim, cada núcleo não precisa trabalhar numa frequência tão alta. Se o esquema de escalonamento de tarefas funcionar de maneira eficiente, é possível trabalhar com quase o dobro do clock. Por exemplo, um processador dual core 1.5 Ghz poderia ter um desempenho semelhante a um single-core de 3 Ghz. Existe um componente chamado escalonador, que determina em qual dos núcleos uma tarefa qualquer será executada. Como o escalonador demora um certo tempo nesta decisão, é quase impossível atingir o dobro de desempenho na prática.

Com o advento do multicore, a lei de Moore caiu por água abaixo, visto que já não era mais possível aumentar a frequência do processador como antes.

O Advento 64 bits

No começo desta década, ficou claro que o uso de 32 bits não seria mais eficiente, visto que somente 4 GB de memória RAM poderiam ser endereçados com essa quantidade de dígitos. Logo, a solução mais natural foi o desenvolvimento de novas arquiteturas que passassem a trabalhar com 64 bits ao invés de 32.

Ambas empresas desenvolveram suas próprias arquiteturas 64 bits, contudo, somente o projeto da AMD (x86-64 AMD64) foi vitorioso, enquanto que o desenvolvido pela Intel (IA-64) foi mal sucedido. O principal fato para isso ter acontecido foi porque a AMD evoluiu o AMD 64 diretamente do x86-32, enquanto que a Intel tentou criar o projeto direto do zero.

Visto esse acontecimento, as empresas em questão criaram um acordo no uso destas arquiteturas, onde a AMD licenciou a Intel para o uso do x86-64. Por outro lado, a Intel também tornou legal o uso da arquitetura x86-32 pela AMD. Logo, todos os modelos de processadores 64 bits comerciais atuais rodam sobre o x86-64. O AMD Athlon 64 (imagem acima) foi um dos maiores representantes desta arquitetura.

Modelos Multi-core atuais

Finalizando esta matéria, a nossa equipe desenvolveu dois artigos específicos sobre os modelos atuais da Intel e da AMD. Para mais informações, acesse os seguintes links:

 
Leia Mais ►

ELETRICIDADE BÁSICA – parte 1

Curso de eletricidade básica

1.1 – ÁTOMOS E ELÉTRONS.

1.1.1 – INTRODUÇÃO

imageEm qualquer substância existente na natureza , a menor partícula que pode existir por si mesma, conservando todas as características dessa substância é chamada de molécula. Em outras palavras, a molécula é a menor porção possível de qualquer substância. Assim, por exemplo, a menor porção possível de água seria a molécula de água.

As moléculas, por sua vez, são compostas de partículas menores, os átomos.

1.1.2 – O ÁTOMO

O átomo é a menor parte de uma molécula, que por sua vez é dividida em prótons (+) que têm uma carga elétrica positiva, elétrons (-) que tem uma carga elétrica negativa e os neutrons que como o próprio nome já diz, não possuem carga elétrica.

Todos os átomos, são formados por diferentes quantidades dessas partículas, sendo que o mais simples deles é o átomo de hidrogênio, formado por um elétron girando em torno do núcleo contendo um próton, como mostra a figura 1.

 
  clip_image001

Os elétrons giram em torno do núcleo em alta velocidade, da ordem de 1013 voltas por segundo, descrevendo ao longo de sua trajetória uma órbita elíptica.

1.1.3 - O ELÉTRON:

Os elétrons encontram–se distribuídos ao redor do núcleo em camadas concêntricas, podendo existir até 7 camadas, dependendo do seu número de elétrons. As camadas são denominadas pelas letras K, L, M, N, O, P, Q e nestas os elétrons são distribuídos da seguinte forma:

K=2   L=8   M=18   N=32   O=32   P=18   Q=2
 
  clip_image002

Por definição, dá-se a última camada (Q) o nome de camada de valência e os elétrons nela existente são chamados de elétrons de valência, é através destes que os átomos se unem formando as moléculas.

A distribuição dos elétrons por camadas, é dito distribuição eletrônica nas camadas.

Quando um átomo, tem a mesma quantidade de elétrons e prótons ele é dito eletricamente neutro, pois, as cargas negativas estão contrabalançando as positivas.

Porém, quando a quantidade de elétrons e prótons são diferentes, damos ao átomo o nome de ÍON.

Dizemos então, que quando um átomo cede um ou mais elétrons de sua última camada, está eletricamente positivo e recebe o nome de CÁTION. Por outro lado quando o átomo recebe elétrons ele é dito eletricamente negativo recebendo o nome de ÂNION.

 

PARTÍCULA

CARGA

MASSA

Próton

Neutron

Elétron

1672.10-19 C

nula

-1602. 10-19 C

1672.10-27 Kg

1674.10-27 Kg

9109.10-31 Kg

TABELA 1

Portanto, partindo do átomo, podemos dizer : A união ou agrupamento de muitos átomos formam-se as moléculas que agrupadas vão formar todas as substâncias existentes na natureza .

1.1.4 – A CAMADA DE VALÊNCIA

Os elétrons da camada de valência são os que possuem liberdade para participar dos fenômenos elétricos ou químicos. Quando um grupo de átomos estão dispostos simetricamente entre si, como pode acontecer numa molécula, um elétron de valência pode muitas vezes girar em torno de dois núcleos atômicos ao invés de um só. Quando isto ocorre estes elétrons de valência unem os átomos entre si, formando a chamada cadeia de valência.

Se, depois de formadas cadeias de valência, ainda sobrarem elétrons que não possuem uniões firmes, estes denominam-se ELÉTRONS LIVRES. Quanto maior o número de elétrons livres no material, melhor será a sua condutividade ( característica de um material conduzir mais ou menos corrente elétrica ).

1.2 – EFEITOS DA CORRENTE ELÉTRICA.

1.2.1 – EFEITO TÉRMINO:

Quando a uma máquina se aplica energia mecânica, esta deverá superar, entre outras perdas, uma espécie de resistência, chamada atrito.

Perde-se energia mecânica ao vencer o atrito, entretanto a energia não é realmente perdida pois reaparece em forma de calor, no ponto ou nos pontos de atrito. Houve simplesmente uma transformação de energia mecânica em energia térmica.

Em muitos casos , o calor produzido não é desejado e faz-se o possível para reduzi-lo ao mínimo. Por exemplo, quando há elevada intensidade de corrente, o condutor será feito de pesadas barras de cobre, para manter baixa a resistência. Quando estas medidas não forem suficientes , para manter o calor em um nível seguro , o próprio calor poderá ser retirado para outra parte. Assim , muitos motores possuem ventiladores embutidos que sopram ar frio sobre os condutores aquecidos pela corrente que por eles passa. Nos aparelhos eletrônicos é comum ter equipamentos chamados de dissipadores , que são usados normalmente para dissipar o calor de transistores de potência , aquecidos devido a passagem de corrente elétrica entre seus terminais.

Entretanto, há casos em que o calor é desejável. Certos aparelhos como torradeiras, aquecedores e ferros elétricos , são construídos com condutores especiais, feitos de ligas que oferecem resistência à passagem de corrente.

1.2.2 – EFEITO LUMINOSO

Se aquecemos uma substância como por exemplo um fio metálico, as moléculas desta substância passam a vibrar mais rapidamente. À medida que se continua a acrescentar calor, as moléculas vibram cada vez mais depressa, até atingir um ponto em que emitem luz. Acredita-se que a luz seja produzida em conseqüência de um arranjo dos elétrons.

Conclui-se, então, que em um condutor, se a corrente e a resistência forem suficientemente grandes, o calor produzido poderá ser suficientemente grande para fazer com que o condutor emita luz. Esse é o princípio da lâmpada incandescente, criada por Thomas A. Edson em 1879.

Para obter uma resistência Edson usou um fio ou filamento de carbono. Contudo, se este filamento for aquecido até emitir luz (isto é, até a incandescência) ele se queimará no ar, pois , este sustenta a combustão. Por esse motivo, Edson encerrou o filamento de carbono em um bulbo de vidro, do qual extraiu o ar criando um vácuo .

 
  clip_image003

A passagem de uma corrente elétrica poderá também , aquecer um gás, bem como um sólido, até a incandescência. É este o princípio da lâmpada de arco voltaico, que era muito usada na iluminação pública no começo do século XX. Neste tipo de lâmpada, a corrente é levada a duas hastes de carbono. As pontas destas hastes são encostadas uma a outra e depois, ligeiramente separadas. Em conseqüência passa uma faísca elétrica , ou arco, de ponta a ponta. O calor desse arco vaporiza um pouco de carbono e a passagem da corrente, através do vapor de carbono, aquece-o até queimar e incandescer.

As pontas das hastes também são aquecidas, fornecendo uma fonte adicional de luz.

 
  clip_image004

1.2.3 – EFEITO MAGNÉTICO:

MAGNETISMO

Se borrifarmos um imã com limalha de ferro, nota-se que esta limalha não é uniformemente atraída por toda a superfície do imã. Ao contrário, ela procura concentrar-se junto a ambas extremidades do imã. A impressão que se tem é de que o magnetismo esteja concentrado nestas duas extremidades do imã. A essas duas extremidades dá-se o nome de pólos do imã. Verificou-se que a própria terra é um imã gigantesco com seus dois pólos magnéticos localizados uma na região ártica, outro na região antártica. Por analogia, dá-se aos imãs dois pólos, Norte e Sul.

 
 clip_image005  

MANEIRA PELA QUAL A LIMALHA DE FERRO SE DISTRIBUI PELO IMÃ

1.2.4 - O CAMPO MAGNÉTICO

Na questão da atração e repulsão entre pólos de imãs, verificou-se que os pólos não precisam tocar um ao outro, pois mesmo a certa distância um do outro, nota-se que pólos iguais se repelem e pólos diferentes se atraem.

Também notou-se que a atração e repulsão não mudava quando entre os pólos colocava-se uma substância não magnéticas. Por experiência, pode-se comprovar o que se chama campo magnético.

 
  clip_image006

MANEIRA PELA QUAL A LIMALHA DE FERRO MOSTRA A FORMA DO CAMPO MAGNÉTICO AO REDOR DO IMÃ. NOTA – SE QUE AS LINHAS DE CAMPO NÃO SE CRUZAM.

Leia Mais ►

Arte–Definição e história–parte final

História

Ver artigo principal: História da Arte

Desenho em Lascaux, França: local famoso por sua arte rupestre.

  • clip_image001O método formalista mais antigo, entende que a obra de arte se dá pelas formas e sua compreensão também.
  • O método histórico entende que a obra de arte é um fato histórico, portanto reflexo e ação em um determinado contexto histórico.
  • O 'método sociológico entende a obra de acordo com o estudo da sociedade a qual ela pertence.
  • O método iconográfico entende a obra pelos ícones e símbolos que ela carrega.

Se formos analisar a arte ao longo da história, podemos começar pela Arte da Pré-História, que é o período onde se mostram as primeiras demonstrações de arte que se tem notícia na história humana. Retratavam animais, pessoas, e até sinais. Havia cenas de caçadas, de espécies extintas, e em diferentes regiões. Apesar do desenvolvimentos primitivo, podem-se distinguir

diferentes estilos, como pontilhado (o contorno das figuras formado por pontos espaçados) ou de contorno contínuo (com uma linha contínua marcando o contorno das figuras). Apesar de serem

vistas como mal-feitas e não-civilizadas, as figuras podem ser consideradas um exemplo de sofisticação e inovação para os recursos na época. Não existem muitos exemplos de arte-rupestre preservada, mas com certeza o mais famoso deles é o das cavernas de Lascaux, na França.

Se pularmos um bocado, chegaremos à Arte do Antigo Egipto, o palco para uma das mais interessantes descobertas do ser humano. A arte egípcia, à semelhança da arte grega, apreciava muito as cores. As estátuas, o interior dos templos e dos túmulos eram profusamente coloridos. Porém, a passagem do tempo fez com que se perdessem as cores originais que cobriam as superfícies dos objectos e das estruturas.

clip_image002Os criadores do legado egípcio chegam aos nossos dias anónimos, sendo que só em poucos casos se conhece efectivamente o nome do artista. Tão pouco se sabe sobre o seu carácter social e pessoal, que se crê talvez nem ter existido tal conceito no grupo artístico de então. Por regra, o artista egípcio não tem um sentido de individualidade da sua obra, ele efectua um trabalho consoante uma encomenda e requisições específicas e raramente assina o trabalho final. Também as limitações de criatividade impostas pelas normas estéticas, e as exigências funcionais de determinado empreendimento, reduzem o seu campo de actuação individual e, juntamente com o facto de ser considerado um executor da vontade divina, fazem do artista um elemento de um grupo anónimo que leva a cabo algo que o transcende.

As grandes tradições na arte têm um fundamento na arte de uma das grandes civilizações antigas: Antigo Egito, Mesopotâmia, Pérsia, Índia, China, Grécia Antiga, Roma, ou Arábia (antigo Iêmen e Omã). Cada um destes centros de início civilização desenvolveu um estilo único e característico de fazer arte. Dada a dimensão e duração dessas civilizações, mais das suas obras de arte têm sobrevivido e mais da sua influência foi transmitida a outras culturas e tempos mais tarde. O período da arte grega viu uma veneração da forma física humana e o desenvolvimento de competências equivalentes para mostrar musculatura, pose, beleza e anatomia em geral.

Retrato de Celso Lagar, uma pintura do Expressionismo, pintada por Amedeo Modigliani.

clip_image003A arte gótica surgiu tempos depois, já na Arte pré-românica. Os monumentos construídos nessa época marcaram todo um modo especial de criar arquitetura e desenvolveu métodos preciosos e estilos definidos como sombrios e macabros.

A Arte Bizantina e a gótica da Idade Média ocidental, mostraram uma arte que centrou-se na expressão das verdades bíblicas e não na materialidade. Além disto, enfatizou métodos que mostram a glória em mundos celestes, utilizando o uso de ouro em pinturas, ou mosaicos.

A Renascença ocidental deu um retorno à valorização do mundo material, bem como o local de seres humanos, e mesmo essa mudança paradigmática é refletida nessa arte, o

que mostra a corporalidade do corpo humano, bem como a realidade tridimensional da paisagem.

clip_image004A pop art é completamente caracterizada como algo de humor e muito diferente da arte antiga, pois retrata, de maneira irônica, o que utilizamos nos dias de hoje, só que com outros tamanhos, ambientes e formas.

Os ocidentais do Iluminismo no século 18 faziam representações artísticas de modo físico e racional sobre o Universo, bem como visões de um mundo pós-monarquista, como a pintura que William Blake fez de um Newton divino. Isto reforçou a atenção ao lado emocional e à individualidade dos seres, exemplificados em muitos romances de Goethe. O século 19, em seguida, viu uma série de movimentos artísticos, tais como arte acadêmica, simbolismo, impressionismo, entre outros.

O aumento de interação global durante este tempo fez uma grande influência de outras culturas na arte ocidental, como Pablo Picasso sendo influenciado pela cultura da África. Do mesmo modo, o Ocidente tem tido enorme impacto sobre arte oriental no século XIX e no século XX, com ideias ocidentais originalmente como comunismo e Pós-Modernismo exercendo forte influência sobre estilos artísticos.

O Modernismo baseou-se na ideia de que as formas "tradicionais" das artes plásticas, literatura, design, organização social e da vida cotidiana tornaram-se ultrapassados, e que fazia-se fundamental deixá-los de lado e criar no lugar uma nova cultura. Esta constatação apoiou a ideia de re-examinar cada aspecto da existência, do comércio à filosofia, com o objetivo de achar o que seriam as "marcas antigas" e substituí-las por novas formas, e possivelmente melhores, de se chegar ao "progresso". Em essência, o movimento moderno argumentava que as novas realidades do século XX eram permanentes e iminentes, e que as pessoas deveriam se adaptar as suas visões-de-mundo a fim de aceitar que o que era novo era também bom e belo. No modernismo, surgiu vários estilos, os mais destacados são Expressionismo, Simbolismo, Impressionismo, Realismo, Naturalismo, Cubismo e Futurismo, embora tenham sido desenvolvidos diversos outros.

Atualmente, na Arte Contemporânea (surgida na segunda metade do século XX e que se alonga até os dias atuais), encontramos, entre outros estilos secundários, a Pop Art.

Características

A arte tende a facilitar a compreensão intuitiva, em vez de racional, e normalmente é, conscientemente, criada com esta intenção. As obras de arte são imperceptíveis, escapam de classificação, porque elas podem ser apreciadas por mais de uma interpretação.

Tradicionalmente, os maiores sucessos artísticos demonstram um alto nível de capacidade ou fluência dentro de outras obras, por isso se destacam.

Habilidade

A arte pode utilizar a imagem para comover, emocionar, conscientizar; ou palavras profundas para se apaixonar por um certo poema ou livro. Basicamente, a arte é um ato de expressar nossos sentimentos, pensamentos e observações. Existe um entendimento de que é alcançado com o material, como resultado do tratamento, o que facilita o seu processo de entendimento.

clip_image006Uma escultura do Antigo Egito: Note que o artista precisou utilizar uma percepção da forma que iria fazer para a obra sair com o resultado de um rosto.

A opinião comum diz que para se fazer uma arte que tenha como resultado uma obra de qualidade, é preciso uma especialização do artista, para ele alcançar um nível de conhecimento sobre a demonstração da capacidade técnica ou de uma originalidade na abordagem estilística. Notamos nas peças de Shakespeare uma profunda análise de psicologia sobre os personagens, como em Hamlet.

As críticas quanto à algumas obras, deve-se muitas vezes, segundo o crítico, à falta de habilidade ou capacidade necessária para a produção do objeto artístico. Habilidade e capacidade necessária para a produção do tal objeto são dois itens completamente importantes. No entanto, é importante definir que nem toda obra de arte vale através da arte. Vemos, como exemplo, a obra My Bed, da artista britânica Tracey Emin. A cama demonstra desorganização. A artista usou pouco ou nenhum reconhecido tradicional de conjunto de competências, embora tenha demonstrado uma nova habilidade (diferente do mais comum, que seria uma cama arrumada).

A montagem dos materiais de uma obra requer técnica e criatividade e também conhecimento. Um exemplo é um dramaturgo ter em mente que o material que usará para criar sua peça de teatro será a palavra e um aprofundamento sobre as personagens, o enredo e etc. Depois disto, basta usar toda sua criatividade e conhecimento para ir moldando o texto da peça.

Estética

Ver artigo principal: Estética

A beleza de uma obra torna-a mais destacada quando é comparada às outras. O material usado pelo artista e suas técnicas são o que tornam uma obra de arte bonita, com uma boa aparência. Entretanto, é importante destacar novamente a obra My Bed, de Tracey Emin, onde a cama não possui uma beleza comum, embora apresente uma situação.

A estética é fundamental numa obra de arte. Vemos como exemplo a arquitetura com seus edifícios majestosos, grandes, esbeltos, o que faz com que as pessoas admirem. Assim é também com um bom conto, em questão de literatura, e com uma boa pintura. Como já foi falado, o material usado é o que irá mostrar a beleza da arte.

É importante ter um estudo mais profundo sobre a estética. Conseguimos isso separando quais conceitos formam a estética, a começar pela beleza. A beleza é uma percepção individual caracterizada normalmente pelo que é agradável aos sentidos. Esta percepção depende do contexto e do universo cognitivo do indivíduo que a observa. O belo depende muito da sociedade e de suas crenças. Um exemplo disto é o quadro Abaporu, de Tarsila do Amaral. Para ela, a figura do quadro era um monstro e para a maioria das pessoas. Mas por quê? Será que por que não corresponde ao padrão de beleza da nossa sociedade? Na época de Leonardo da Vinci, as mulheres eram tidas bonitas quando eram rechonchudas. Exemplo disto é a Mona Lisa.

Outro aspecto da estética é o equilíbrio. O equilíbrio se encontra quando todos os elementos que compõe a imagem estão organizados de tal forma que nada é enfatizado, todos passando uma sensação de equilíbrio visual. O equilíbrio é mais utilizado nas pinturas. O que influencia o equilíbrio são as cores, as imagens, as superfícies, os tamanhos e as posições dos itens presentes na pintura, ou numa outra arte plástica. Reflita sobre um quadro cujo desenho seja um horizonte, o pôr do sol e um lindo mar refletindo a luz alaranjada do sol. No fundo do mar,

há um enorme navio, quase ocupando todo o espaço do quadro. Esta figura, o navio, dá ou não dá equilíbrio à pintura como um todo? Se não, o que seria necessário fazer para dar mais equilíbrio? Por qual motivo a figura do navio é enorme?

Harmonia é relacionada à beleza, à proporção e também à ordem. Um exemplo, é a música: todos os ritmos precisam estar bem delineados, bem ordenados para que haja uma harmonia, uma beleza no som. Quanto ao design, podemos definir harmonia como efeito da composição de formas, não de maneira aleatória, mas de modo que contornos e enchimentos sejam bem definidos, variando segundo um grau de importância pré-estabelecido e se relacionando ao esquema geral da organização do objeto. Este objeto pode ser um quadro, um site, enfim, qualquer entidade que esteja sendo composta por partes (engrenagens) menores.

Na escultura e na arquitetura, a forma também é uma das coisas mais importantes. Nas esculturas de Michelangelo, ou nas de Rodin, como, por exemplo, Davi, notamos que é um ser ali esculpido e este ser possui um corpo. Portanto, a forma do corpo precisa ser bem definida, bem adquirida para que se assemelhe a um corpo humano. No entanto, se o escultor for esculpir um monstro, como exemplo, é preciso haver a mesma coisa, embora ele tenha em mente um corpo totalmente diferente do comum.

O que define uma obra como esteticamente bonita e importante, além dos recursos que fora usado nela e de suas técnicas, é também seu valor, o que veremos a seguir.

Valor

clip_image007O Pensador, de Rodin: o que a levou ter o valor que tem hoje?.

Uma outra característica da arte é o valor[1]. Esta vem depois de sua realização pelo artista. É quando já está exposta ao público. Aqui, não é discutido especialmente a estética, e sim o valor relacionado a importância da obra, segundo a maioria. Podemos exemplificar esse raciocínio com a seguinte pergunta: por qual motivo o quadro Mona Lisa tem um grande valor? Ou até mesmo: por que as obras de Shakespeare são tão famosas e tidas como as melhores do mundo? E até: por que várias músicas do Beatles são tão prestigiadas?

Para começar, é importante relacionar quais elementos tornam uma obra de arte tão glamurosa. Quanto à Mona Lisa e as peças de Shakespeare, podemos notar algo semelhante: um elemento novo até então. Por exemplo: na Mona Lisa, há o sfumato. Nas peças mais famosas de Shakespeare, há técnicas ímpares para o teatro, como, p. exemplo, em Hamlet: o teatro no teatro. As músicas dos Beatles possuem ritmos e melodias pioneiros. Mas será que é apenas um elemento novo que faz uma obra ficar em destaque?

Além da distribuição e divulgação de uma obra, coisas que contribuem bastante para a sua fama, há também um outro item: a forma como a obra é criada e, assim, como ela sobrevive depois de anos. Este item é mais aplicado na literatura, onde diversos romances permanecem prestigiados mesmo depois de muito tempo escritos, por terem um valor social e emocional ainda muito presente no ser humano, como as peças de Shakespeare.

Além disto tudo, quando uma obra influencia outras por conter coisas novas e quando essa mesma obra possui aspectos que atraiam o espectador por algum motivo (seja motivacional, de reflexão, ou outro), ela então se torna valiosa pelos que gostaram.[2]

 

 

Ver também

Bibliografia

Referências

Ligações externas

Artigos sobre Artes

Leia Mais ►

Fenômenos estranhos no céu da China - Vídeo

Fenômenos estranhos no céu antes do terremoto na China - Vídeo 

Vídeo: 30 minutos antes do terremoto de 2008 em Sichuan, China

Por Administrator

20 de julho de 2008

Fonte: Blog De Olhos

Matéria indicada por Greice Raia

No mundo que habitamos acontecem estranhos fenômenos de diversas ordens, coisas inexplicáveis que estão muito distantes do alcance da nossa ciência. Este vídeo é apenas uma pálida amostra de outros acontecimentos que não tem explicação razoável que nos faça entender.

antromsil

Preságio de uma catástrofe:

estas luzes foram vistas nos céus da China antes do terremoto.

Muitos relatos de luzes no céu antes, durante e depois dos terremotos já foram descritos em vários episódios de catástrofes com terremotos. No grande terremoto ocorrido no Peru em agosto de foram 2007 vários episódios foram relatados e divulgados pela imprensa local: Vizinhos asseguraram ter visto relâmpagos no céu de Lima.
No terremoto ocorrido em Sichuan, na China em maio de 2008 pode-se verificar fenômenos semelhantes ao ocorrido em Lima no Peru.

Gás ionizado produzido em terremotos

O professor canadense Michel Persinger, diz que existe um fenômeno relacionado com os terremotos que pode ser facilmente confundido com os OVNIs

Os movimentos das camadas tectônicas no interior da Terra, devido ao atrito das rochas, produz um gás quente e ionizado. Ele escapa para superfície, em forma de bola luminosa e produz radiofreqüência, causando interferência eletromagnética, exatamente como acontece com o fenômeno OVNI.
Com informações do site
ceticismoaberto.com e fenomeno.trix.net

http://www.cubbrasil.net/index.php?option=com_content&task=view&id=2372&Itemid=94

Leia Mais ►

Baterias ultra-rápidas recarregadas em segundos

Energia

Baterias ultra-rápidas poderão ser recarregadas em segundos

Redação do Site Inovação Tecnológica - 24/03/2011

clip_image002O processo de construção da nanoestrutura 3D é composta de vários passos, mas utiliza técnicas já presentes na indústria. [Imagem: Zhang et al.]

Que tal recarregar seu celular em alguns segundos e seu notebook em poucos minutos?

Ou ter um carro elétrico que recarrega completamente em menos de uma hora?

Isso poderá ser possível com uma nova tecnologia de baterias, que está sendo desenvolvida na Universidade de Illinois, nos Estados Unidos.

 

Baterias e capacitores

O grupo do Dr. Paul Braun criou eletrodos que podem carregar ou descarregar em poucos segundos, de 10 a 100 vezes mais rápido do que o material original.

Isso significa que a nova bateria tanto consegue armazenar uma grande quantidade de energia, quanto liberá-la de forma rápida.

"Esse sistema nos dá uma potência semelhante à dos capacitores, com uma energia semelhante à das baterias," diz o Dr. Braun.

Os capacitores conseguem liberar energia rapidamente, o que os torna adequados para alimentar dispositivos de alta potência - mas eles armazenam pouca energia e precisam ser recarregados constantemente.

As baterias, por sua vez, conseguem armazenar uma grande quantidade de energia, mas essa energia é liberada lentamente, o que as torna inadequadas para alimentar dispositivos de mais alta potência. Force-as além da sua capacidade e elas costumam explodir.

Um dispositivo que mescle as melhores características de cada um desses sistemas de armazenamento de energia pode não apenas representar um salto qualitativo para todos os equipamentos atuais, como viabilizar novas aplicações, como os carros elétricos.

 

Filmes finos

Os pesquisadores desenvolveram uma nanoestrutura tridimensional para o material usado como catodo nas baterias.

Eles fizeram isto superando um outro trade-off, este presente na tecnologia atual das baterias.

O desempenho das baterias de íons de lítio (Li-íon) ou de hidreto metálico de lítio (NiMH) degrada-se muito quando elas são carregadas e descarregadas rapidamente.

A velocidade de carregamento e descarregamento pode ser aumentada drasticamente fabricando os catodos na forma de filmes bem finos - mas, ao reduzir a área disponível para guardar a energia, diminui ainda mais drasticamente a capacidade de armazenamento da bateria.

O grupo do Dr. Braun dobrou os filmes finos em uma estrutura tridimensional, alcançando simultaneamente um grande volume ativo de material - capaz de guardar muita energia - e grande capacidade de corrente.

O resultado é uma bateria que pode recarregar e liberar sua energia até 100 vezes mais rápido do que as baterias atuais.

 

Possibilidades futuras

Segundo os pesquisadores, todos os processos usados por eles no laboratório já são utilizados pela indústria, o que permitirá que a tecnologia seja levada para escala industrial muito rapidamente.

Se o rendimento apresentado em escala laboratorial for mantido em escala industrial, pode-se prever celulares sendo carregados em alguns segundos e carros elétricos que não precisarão ficar a noite toda ligados à tomada.

O Dr. Braun cita também a possibilidade de uso das baterias em desfibriladores mais eficientes e capazes de salvar mais vidas, que não exigirão que os profissionais fiquem esperando o carregamento entre os pulsos.

 
 

Bibliografia:

 

Three-dimensional bicontinuous ultrafast-charge and -discharge bulk battery electrodes

Huigang Zhang, Xindi Yu, Paul V. Braun

Nature Nanotechnology

20 March 2011

Vol.: Published online

DOI: 10.1038/nnano.2011.38

Leia Mais ►

Filosofia–Definição e história–Parte 3

Evolução histórica

Pensamento mítico e pensamento filosófico

clip_image002                              A Morte de Sócrates, Jacques-Louis David, 1787.

A filosofia surgiu nos séculos VII-VI a.C. nas cidades gregas situadas na Ásia Menor. Começa por ser uma interpretação des-sacralizada dos mitos cosmogônicos difundidos pelas religiões do tempo. Não apenas de mitos gregos, mas dos mitos de todas as religiões que influenciavam a Ásia menor.

Os mitos foram, segundo Platão e Aristóteles, a matéria inicial de reflexão dos filósofos. Os mitos tornaram-se um campo comum da religião e da filosofia, revelando que a pretensa separação entre esses dois modos do homem interpretar a realidade não é tão nítida como aparentemente se julga.

Filosofia antiga

Histórica e tradicionalmente, a filosofia se inicia com Tales de Mileto. Ele foi o primeiro dos filósofos pré-socráticos a buscarem explicações de todas as coisas através de um princípio ou origem causal (arché) diferentemente do que os mitos antes mostravam.

Ao apresentarem explicações fundamentadas em princípios para o comportamento da natureza, os pré-socráticos chegaram ao que pode ser considerado uma importante diferença em relação ao pensamento mítico. Nas explicações míticas, o explicador é tão desconhecido quanto a coisa explicada. Por exemplo, se a causa de uma doença é a ira divina, explicar a doença pela ira divina não nos ajuda muito a entender porque há doença.

Platão é quem inicia esta nova linguagem, a filosofia como a conhecemos, a busca da essência, a ontologia dos conceitos universais em detrimento do conhecimento vulgar e sensorial.

Por muito tempo a Filosofia concebia tudo o que era conhecimento, basta ver a vasta obra de Aristóteles, que abrange desde a física até a ética. Ainda hoje é difícil definir o objeto exato da filosofia.

Seus objetos próprios são:

· Metafísica: Concerne os estudos daquilo que não é físico (physis), do conhecimento do ser (ontologia), do que transcende o sensorial e também da teologia.

· Epistemologia: Estudo do conhecimento, teoriza sobre a própria ciência e de como seria possível a apreensão deste conhecimento.

· Ética: Para Aristóteles, é parte do conhecimento prático já que nos mostraria como devemos viver e agir.

· Estética: A busca do belo, sua conceituação e questionamento. O entendimento da arte.

· Lógica: A busca da verdade, seu questionamento, a razão.

Filosofia medieval

Ver artigo principal: Filosofia medieval

 

A filosofia medieval é a filosofia da Europa ocidental e do Oriente Médio durante a Idade Média. Começa, aproximadamente, com a cristianização do império romano e encerra-se com a Renascença. A filosofia medieval pode ser considerada, em parte, como prolongamento da filosofia greco-romana[13] e, em parte, como uma tentativa de conciliar o conhecimento secular e a doutrina sagrada.[14]

A Idade Média carregou por muito tempo o epíteto (Palavra ou frase que qualifica pessoa ou coisa; alcunha, codinome) depreciativo de "idade das trevas", atribuído pelos humanistas renascentistas; e a filosofia desenvolvida nessa época padeceu do mesmo desprezo. No entanto, essa era de aproximadamente mil anos foi o mais longo período de desenvolvimento filosófico na Europa e um dos mais ricos. Jorge Gracia defende que “em intensidade, sofisticação e aquisições, pode-se corretamente dizer que o florescimento filosófico no século XIII rivaliza com a época áurea da filosofia grega no século IV a. C.”[15].

Entre os principais problemas discutidos nessa época estão a relação entre fé e razão, a existência e unidade de Deus, o objeto da teologia e da metafísica, os problemas do conhecimento, dos universais e da individualização.

Entre os filósofos medievais do ocidente, merecem destaque Agostinho de Hipona, Boécio, Anselmo de Cantuária, Pedro Abelardo, Roger Bacon, Boaventura de Bagnoregio, Tomás de Aquino, João Duns Escoto, Guilherme de Ockham e Jean Buridan; na civilização islâmica, Avicena e Averrois; entre os judeus, Moisés Maimônides.

Tomás de Aquino (1225-1274), fundador do tomismo, exerceu influência inigualável na filosofia e na teologia medievais. Em sua obra, ele deu grande importância à razão e à argumentação, e procurou elaborar uma síntese entre a doutrina cristã e a filosofia aristotélica. A filosofia de Tomás de Aquino representou uma reorientação significativa do pensamento filosófico medieval, até então muito influenciado pelo neoplatonismo e sua reinterpretação agostiniana.

Filosofia do Renascimento

Ver artigo principal: Filosofia do Renascimento

clip_image005O Homem vitruviano, de Leonardo Da Vinci, resume vários dos ideais do pensamento renascentista.

A transição da Idade Média para a Idade Moderna foi marcada pelo Renascimento e pelo Humanismo.[16] Nesse período de transição, a redescoberta de textos da Antiguidade[17] contribuiu para que o interesse filosófico saísse dos estudos técnicos de lógica, metafísica e teologia e se voltasse para estudos ecléticos (Relativo ao, ou que é partidário do ecletismo; formado de elementos colhidos em diferentes gêneros ou opiniões) nas áreas da filologia, da moralidade e do misticismo. Os estudos dos clássicos e das letras receberam uma ênfase inédita e desenvolveram-se de modo independente da escolástica tradicional. A produção e disseminação do conhecimento e das artes deixam de ser uma exclusividade das universidades e dos acadêmicos profissionais, e isso contribui para que a filosofia vá aos poucos se desvencilhando da teologia. Em lugar de Deus e da religião, o conceito de homem assume o centro das ocupações artísticas, literárias e filosóficas.[18]

O renascimento revigorou a concepção da natureza como um todo orgânico, sujeito à compreensão e influência humanas. De uma forma ou de outra, essa concepção está presente nos trabalhos de Nicolau de Cusa, Giordano Bruno, Bernardino Telesio e Galileu Galilei. Essa reinterpretação da natureza é acompanhada, em muitos casos, de um intenso interesse por magia, hermetismo e astrologia – considerados então como instrumentos de compreensão e manipulação da natureza.

À media que a autoridade eclesial cedia lugar à autoridade secular e que o foco dos interesses voltava-se para a política em detrimento da religião, as rivalidades entre os Estados nacionais e as crises internas demandavam não apenas soluções práticas emergenciais, mas também uma profunda reflexão sobre questões pertinentes à filosofia política. Desse modo, a filosofia política, que por vários séculos esteve dormente, recebeu um novo impulso durante o Renascimento. Nessa área, destacam-se as obras de Nicolau Maquiavel e Jean Bodin.[19]

Filosofia moderna

Ver artigo principal: Filosofia do século XVII e Iluminismo

clip_image007René Descartes, fundador da filosofia moderna e do racionalismo.

A filosofia moderna é caracterizada pela preponderância da epistemologia sobre a metafísica. A justificativa dos filósofos modernos para essa alteração estava, em parte, na ideia de que, antes de querer conhecer tudo o que existe, seria conveniente conhecer o que se pode conhecer.[20]

Os principais debates dessa época foram, portanto, debates epistemológicos. O racionalismo, a escola que ressalta o papel da razão na aquisição do conhecimento, teve como seu principais protagonistas René Descartes, Baruch Spinoza e Gottfried Leibniz. Por outro lado, a escola empirista, que defende que a nossa única fonte de conhecimento é a experiência, teve como defensores Francis Bacon, John Locke, David Hume e George Berkeley.

Em 1718, Immanuel Kant publicou a sua famosa Crítica da Razão Pura, em que rejeita aquelas duas correntes e propõe uma alternativa. Segundo Kant, apesar de o nosso conhecimento depender de nossas percepções sensoriais, essas não constituem todo o nosso conhecimento, pois existem determinadas estruturas do sujeito que as antecedem e tornam possíveis a própria formação da experiência. O espaço, por exemplo, não seria uma realidade que passivamente assimilaríamos a partir de nossas impressões sensoriais. Ao contrário, somos nós que impomos uma organização espacial aos objetos. Do mesmo modo, o sujeito não aprende, após inúmeras experiências, que todas as ocorrências pressupõem uma causa; antes, é a estrutura peculiar do sujeito que impõe aos fenômenos uma organização de causa e efeito. Uma das consequências da filosofia kantiana é estabelecer que as coisas em si mesmas não podem ser conhecidas. A fronteira de nosso conhecimento é delineada pelos fenômenos, isto é, pelos resultados da interação da realidade objetiva com os esquemas cognitivos do sujeito.

Na França, difundiram-se as ideias do empirismo inglês; e o entusiasmo com as novas ciências levou os intelectuais franceses a defender uma ampla reforma cultural, que remodelasse não só a forma de se produzir conhecimento, mas também as formas de organização social e política. Esse movimento amplo e contestatório ficou conhecido como Iluminismo. Os filósofos iluministas rejeitavam qualquer forma de crença que se baseasse apenas na tradição e na autoridade, em especial as divulgadas pela igreja católica. Um dos marcos do Iluminismo francês foi a publicação da Encyclopédie. Elaborada sob a direção de Jean le Rond d’Alembert e Denis Diderot, essa obra enciclopédica inovadora incorporou vários dos valores defendidos pelos iluministas e contou com a colaboração de vários de seus nomes mais destacados, como Voltaire, Montesquieu e Rousseau.

Leia Mais ►