quinta-feira, 26 de novembro de 2009

Música é usada para aliviar dores mais agudas

Pacientes relatam que terapia ajuda a esquecer a dor. Alguns até deixaram de tomar remédio. Em crianças, a música diminui de 4 a 10 dias o tempo de internação na unidade de tratamento intensivo.

A mistura de dor, depressão e o consumo constante de fortes analgésicos foram fatais para Michael Jackson. O ídolo americano talvez pudesse ter evitado o triste desfecho se tivesse aprendido a usar como remédio aquilo em que ele era um mestre: a música.



Veja outras terapias que ajudam a combater a dor


Música na vida da gente tem várias funções: vai da mais leve distração até a mais profunda emoção, toca na nossa mente, mexe com o nosso corpo. Ninguém é imune à música. Por isso, a musicoterapia é tão eficaz. Está com raiva da dor? Descarrega! A música é um afiado e afinado instrumento para enfrentar a vida e a morte.

O Conservatório Brasileiro de Música no Rio de Janeiro foi o primeiro do Brasil a formar terapeutas, ainda no início da década de 1970. Do popular "quem canta seus males espanta" a sofisticadas pesquisas, se descobriu a íntima relação entre coisas que são da mesma família: dor, sentimento, sensibilidade, emoção, música. Onde começa um e onde termina o outro? Ainda mais para o brasileiro, imerso em uma cultura tão musical, ali estava um bálsamo para o corpo e para a alma.

"Música é um remédio bom de se administrar porque é o próprio cliente que diz. Alguns pedem uma música alegre e resumem: qualquer uma do Roberto Carlos. A dor é muito solitária, e a musica traz companhia. A mais eficiente forma de despistar a dor é a música. Entre música e dor, o cérebro prefere música", diz a musicoterapeuta Marly Chagas.

Porque a escolha é fácil. A música nos derrete, amolece, mas é muito mais do que relaxamento: é compor, criar, cantar, dançar, tocar, participar. Para um grupo de pessoas, descobrir a música foi um santo remédio.

Em graus diferentes, a melhora é clara: da água para o vinho, do silêncio para uma sinfonia! O que era um coral de "ais" vira uma orquestra de bem-estar.

"É muito bom, ajuda sim. Quando a gente se encontra, já é uma festa. Então, aquilo faz com que a gente transcenda e esqueça a dor um pouquinho. A dor sempre está presente, mas temos um espaço muito grande de alívio. Para quem sente uma dor crônica, cinco horas de alívio são uma maravilha", diz o aposentado Moacir Domingos Vasconcelos.

"Agora fico quase um mês sem tomar remédio", comemora o aposentado José Valente Batista.

"Desde o dia em que fiz musicoterapia não senti mais dor e tenho dormido bem à noite", afirma a dona de casa Joana Martins Lisboa.

Para quem trabalha com musicoterapia, essa noção do antes e do depois mostra nitidamente a eficiência desse tratamento.

"Uma face modificada, um sorriso, é isso que nos dá ânimo e certeza de continuar. São esses resultados que nos fazem acreditar que a música é saúde, e a doença é uma dissonância", define a musicoterapeuta Kelly Fae.

A música nos toca em vários níveis, penetra os dois lados do cérebro: o consciente e o inconsciente. A mistura de harmonia, letra e melodia nas mãos, na voz de um terapeuta, é como um bisturi preciso, que faz o cérebro do paciente operar milagres.

"A pessoa chega e pede um louvor, muito pedido, que é muito sentido: 'Segura na mão de Deus'. Essa pessoa está muito grave. Qual é o sentido que precisa ser produzido? Então, cantamos: 'Segura na mão de Deus e vai. Não temas, segue adiante'. É confortante. Inclusive, usando todo o conhecimento que se tem do processo de morrer, é algo que pode auxiliar na entrega, na confiança de experimentar essa passagem, que eu não sei qual vai ser. No meio do tratamento, a mesma música, com outro arranjo, vira um triunfo: vai à luta", conta Marly Chagas.

Acompanhar o trabalho de musicoterapia no Instituto do Câncer é emocionante. Não existem palavras para descrever – e sim canções. E nessa hora se descobre o quanto Roberto Carlos é um doutor.

E a música acalma muito antes do que se imagina. É como se o bicho gente contasse com ela para crescer, está na nossa natureza.

"Na UTI neonatal, a música diminui de 4 a 10 dias o tempo de internação da criança. Ela age no sistema nervoso, é realmente incrível. A criança que está com dor é estimulável. Começamos com um ritmo mais animado. São músicas de improvisação, produzidas naquela relação. A equipe toda vem e fica com os olhos cheios d'água ao ver a reação da vida, a pulsação que a vida traz mesmo junto à dor", diz Marly Chagas.

É no despertar dessa vibração, desse instinto de vida, de luta e superação, que reside o poder da musicoterapia. E como dizia o velho sambista, para que rimar amor e dor?

"O sonho é de que, no futuro, haja música em todos os hospitais. Alguns hospitais em São Paulo têm a musicoterapia efetivamente implantada. Ea música é um recursos barato. E se ajuda a aliviar a dor e reduz o consumo de medicamentos, estamos falando de uma questão interessante do ponto de vista econômico. Acho que a música tem um caminho promissor para o cuidado da saúde da população brasileira", constata a pesquisadora Eliseth Leão, da Sociedade Brasileira do Estudo da Dor.

Que tônico, que fortificante, é para as pessoas doentes ouvir algo como "Eu sei que vou te amar. Por toda a minha vida eu vou te amar".

quarta-feira, 25 de novembro de 2009

Magnetismo contra derramamentos de petróleo

O magnetismo pode se tornar um poderoso aliado na limpeza de águas contaminadas por derramamentos de petróleo. Pesquisadores da Universidade Federal do Rio de Janeiro (UFRJ) sintetizaram uma resina biodegradável, composta por substâncias extraídas da castanha-de-caju e da mamona e por um mineral, capaz de magnetizar e concentrar o óleo, o que pode facilitar sua remoção.

A resina é feita com cardanol e glicerol, extraídos respectivamente do líquido da castanha-de-caju e do óleo de mamona, matérias-primas abundantes no Brasil. As propriedades magnéticas do composto ficam a cargo da maghemita, mineral ferromagnético adicionado em frações nanométricas, o que potencializa suas características
Quando aplicada no ambiente em que há petróleo derramado, a resina atrai e concentra o óleo, reduzindo a área sobre a qual ele está espalhado. O composto é produzido na forma de pó, para que seja possível espalhá-lo por uma superfície maior. Para retirar a mistura de petróleo e resina da água, basta usar ímãs comuns, que interagem fortemente com o campo magnético da maghemita e atraem o material.

Segundo o coordenador da equipe que criou a resina, o químico Fernando Gomes, do Instituto de Macromoléculas da UFRJ, ainda não se sabe exatamente por que o composto tem esse efeito sobre o petróleo. A suspeita é que a explicação esteja na semelhança entre as estruturas do cardanol, do glicerol e do petróleo. “As substâncias se atrairiam não no sentido magnético, mas pela afinidade química”, explica Gomes. “Por isso, ocorreria a aglutinação do material.”



Alta eficiência
Em testes em laboratório, a equipe conseguiu remover 95% do petróleo jogado em um recipiente com água colocando uma quantidade de resina de 20 a 25 vezes menor que o volume de óleo. Se essa proporção for mantida em testes em escalas maiores, o composto poderá ser muito útil em grandes derramamentos. Gomes ressalta que o produto não pode ser empregado na extração de petróleo.

químico pretende agora identificar os mecanismos físico-químicos envolvidos na ação da resina sintetizada por sua equipe. Além disso, os pesquisadores irão estimar o custo da produção do composto.

Sobre a possibilidade de a resina deixar rastros de petróleo na água mesmo após o óleo ter sido removido, Gomes esclarece que não há como ter certeza absoluta. “O petróleo tem frações leves cuja solubilidade na água é considerável”, explica. “Se aconteceu o derramamento, haverá alguma contaminação em níveis abaixo da superfície”, alerta.

Plutão rebaixado a planeta anão


Os livros didáticos terão que excluir Plutão da lista de planetas do Sistema Solar. Cerca de 2500 especialistas reunidos em Praga na 26ª assembléia geral da União Astronômica Internacional (IAU, na sigla em inglês) acabam de chegar a um consenso quanto à nova definição de planeta. De acordo com a decisão, passa a existir também a categoria de “planetas anões”, da qual Plutão passa a fazer parte. Com isso, o Sistema Solar passa a contar com apenas oito planetas: Mercúrio, Vênus, Terra, Marte, Júpiter, Saturno, Urano e Netuno.

De acordo com a nova definição, um corpo celeste tem que preencher três requisitos para que seja considerado um planeta: tem que estar em órbita em torno de uma estrela, ter a forma aproximadamente esférica e ser o astro dominante da região de sua órbita. “Ser o corpo mais importante de sua região significa que o planeta agregou a maior parte da matéria disponível ao seu redor no período de formação”, explica o planetólogo Sylvio Ferraz Mello, da Universidade de São Paulo. “Os outros oito planetas giram no mesmo plano e com órbitas parecidas, o que não acontece com Plutão.”

Com isso, Plutão deixa de ser considerado um planeta e passa a fazer parte da nova categoria de “planetas anões”. Além dele, outros dois corpos celestes se enquadram nessa classificação. O primeiro é o ex-asteróide Ceres, localizado no Cinturão de Asteróides (região do espaço entre Marte e Júpiter). Logo após sua descoberta, em 1801, foi considerado um planeta, mas os especialistas decidiram que ele não preenchia os pré-requisitos para ser assim classificado. O segundo é 2003 UB313, objeto com massa maior que a de Plutão, localizado no Cinturão de Kuiper.

Proposta alternativa
Os participantes da assembléia da IAU tiveram que escolher nesta quinta-feira entre duas definições para o conceito de planeta: uma que tirava de Plutão essa categoria e outra que não só ratificava seu status , como também aumentava o número de planetas do Sistema Solar para doze. Acabou prevalecendo a primeira.

Desde sua descoberta, em 1930, o status de Plutão dividia os astrônomos. Além de ser menor que os outros planetas, sua órbita não era feita no mesmo plano da de seus oito “ex-colegas”. A controvérsia sobre a definição do conceito de planeta ganhou novo fôlego há três anos, com a descoberta de 2003 UB313, astro maior que Plutão localizado no Cinturão de Kuiper (região do Sistema Solar além de Netuno) e ainda sem nome definido.

Até agora não havia uma definição formal: se o astro estivesse girando ao redor de uma estrela e sua imagem no céu fosse um disco, era considerado um planeta. No entanto, os avanços nos instrumentos astronômicos tornaram possível a observação de objetos cada vez menores em regiões longínquas no espaço, o que abriu um debate sobre o status de planeta desses astros.

Fim da controvérsia
A definição de um conceito preciso de planeta põe fim a essa controvérsia e cria critérios precisos para a classificação dos astros. “A decisão dá um caráter científico à definição de planeta, estabelecendo as características físicas necessárias para que um astro corresponda a essa condição”, avalia o cosmólogo Martín Makler, do Centro Brasileiro de Pesquisas Físicas. No entanto, ele não está plenamente de acordo com a definição adotada não é totalmente baseada em princípios científicos. “O que diferencia um planeta de um planeta anão não está claro. Não foi estabelecida uma razão física dessa linha divisória. Na outra definição, esses fatores estavam muito mais claros”, opina.

Na opinião do astrônomo Alexandre Cherman, da Fundação Planetário do Rio de Janeiro, a decisão vai tornar menos subjetiva a classificação de novos astros que venham a ser descobertos no Sistema . Cherman cita o exemplo de Plutão para ilustrar seu argumento. “Desde sua descoberta, ele foi anunciado como um novo planeta, mas não houve tempo suficiente para que os especialistas analisassem a proposta com rigor. Acredito que o marketing colocado no anúncio foi decisivo para que ele alcançasse esse status ”.

Atmosfera de Plutão pode ter duplicado em 14 anos

20 de julho de 2002, Pico dos Dias/MG. Telescópios ajustados, pesquisadores a postos: tudo pronto para a observação do raro momento em que Plutão oculta a estrela P126 . O fenômeno ocorre quando o planeta passa na frente da estrela e oculta sua luz. Essa é a hora ideal para se estudar a misteriosa atmosfera do mais distante planeta do Sistema Solar: ela fica visível nessa ocasião devido à incidência da luz da estrela. Pena que não se faz ciência só com especialistas e equipamentos de última geração. É preciso também sorte -- coisa que os brasileiros não tiveram.

Naquele dia o tempo fechou e não foi possível ver o fenômeno do observatório mineiro, que é mantido pelo Laboratório Nacional de Astrofísica de Itajubá (LNA). Rodrigo Campos, matemático do LNA que opera os telescópios brasileiros, e dois astrônomos -- o francês Stefan Renner e o argentino René Duffard, do Observatório Nacional do Rio de Janeiro -- estavam lá e lamentaram a falta de sorte.

Observatórios no Brasil, Argentina, Peru, Equador, Venezuela e África do Sul formaram uma rede internacional para estudar o fenômeno, sob a coordenação dos astrônomos Bruno Sicardy (Observatório de Paris) e James Elliot (Instituto de Tecnologia de Massachusetts, EUA). No entanto, apenas na cidade chilena de Arica os cientistas conseguiram captar as preciosas imagens da atmosfera de Plutão, até então observada uma única vez, durante a ocultação estelar de 1988.

Os resultados da análise foram publicados em 10 de julho na revista Nature , em dois artigos, um deles com a co-autoria de Campos e Duffard. Os cientistas concluíram que a atmosfera de Plutão dobrou de tamanho nos últimos 14 anos, o que contraria a expectativa de que ela iria congelar e entrar em colapso devido ao afastamento do planeta em relação ao Sol no mesmo período.


"Se Plutão não tivesse atmosfera, o brilho da estrela cairia abruptamente quando ele passasse na frente dela", explicou Duffard à CH on-line . "Na presença de gases atmosféricos, essa queda é gradual porque a luz da estrela é parcialmente barrada." Assim, quanto maior a atmosfera, mais tempo o planeta leva para ocultar o brilho da estrela. Como esse brilho demorou a desaparecer, os cientistas inferiram que a camada atmosférica de Plutão aumentou. No entanto, ainda não há explicação precisa que justifique esse aumento.



Em virtude da distância, do tamanho e da peculiaridade da órbita de Plutão, ainda há muito que descobrir sobre ele. "A variação no desvio da luz estelar dá pistas sobre a espessura, temperatura, pressão e composição da atmosfera", conta Duffard. Porém, tudo o que se pode afirmar até agora é que ela contém nitrogênio, água e metano.
Além de desvendar os mistérios do planeta mais frio e distante do Sol, a possibilidade de Plutão conter características que ajudem a explicar a formação do Sistema Solar tem estimulado a colaboração internacional. O Brasil já conta com cientistas e equipamentos de ponta. Quem sabe na próxima vez que for possível observar uma ocultação o tempo ajude.

segunda-feira, 16 de novembro de 2009

Água na Lua!


Finalmente saíram os primeiros resultados da sonda LCROSS, que se espatifou contra a Lua no dia 9 de outubro. E eles são fantásticos! Como você já leu aqui mesmo no G1, existe sim água na Lua e não é só aquele “orvalho” produzido pelo Sol em quantidades ínfimas, são “baldes e baldes” de acordo com Anthony Colaprete, cientista do projeto.

Se você não se lembra, o último estágio do foguete que lançou a sonda LCROSS se chocou contra a Cratera Cabeus no polo sul da Lua com a intenção de levantar uma pluma de destroços e vapor do material no solo dessa cratera. Nos polos da Lua, algumas crateras, em especial suas beiradas, nunca viram a luz do Sol e a esperança é que nelas existisse água proveniente de impactos de cometas. Como nunca bate Sol por ali, o gelo trazido por esses cometas ainda estaria ali, desde que chegaram, talvez há bilhões de anos.

Com o impacto do estágio do lançador, chamado Centauro, a nuvem de destroços foi estudada por espectrógrafos da nave e dos principais observatórios do mundo. O espectro da nuvem mostrou assinaturas inconfundíveis da presença de água.

Por enquanto, apenas os espectros obtidos pela sonda foram analisados e apenas a água foi reportada. Os espectros no infravermelho obtidos pela LCROSS foram comparados aos espectros de laboratório, onde as amostras continham água. A semelhança entre ambos indicou que deveria haver água.

Mas teria de haver uma confirmação independente: se houvesse água nesta nuvem, deveria haver uma assinatura da presença de hidroxila (OH) proveniente da dissociação dela. E o OH estava lá, desta vez nos espectros do ultravioleta. “Ficamos todos extasiados”, disse Colaprete na sexta-feira (13), que se tornou uma data histórica.

Ainda deve vir mais coisa por aí. As análises por enquanto focavam a detecção de água, objetivo maior do projeto. Mas como o material da cratera é originário de cometas, mais substâncias devem ser identificadas, quem sabe até hidrocarbonetos complexos. Mas isso é chute meu.

A presença de água na Lua traz novas perspectivas para os projetos de se estabelecer uma base permante. Isso porque esse gelo poderá ser usado para abastecer essa base, mas também para se produzir oxigênio e hidrogênio, tanto para os astronautas, como para combustível de foguetes.

Neste ano da astronomia, em que celebramos o trabalho de Galileu, a descoberta não deixa também de ser irônica. Galileu foi o primeiro a afirmar que não havia água na Lua. Até sua época, as manchas escuras da Lua eram tidas como grandes mares de água, tanto que se chamam mares (ou “maris” em latim); a Apolo 11 pousou no Mar da Tranquilidade, por exemplo. Curiosidades à parte, um resultado importantíssimo!

Queda recorde no ritmo do desmatamento foi causada pela crise, diz especialista

Devastação na Amazônia foi de 7 mil km² em um ano, queda de 45%.
Roberto Smeraldi afirma que agropecuária não desmatou nesse período.


A queda de 45% no ritmo de desmatamento da Amazônia, divulgada pelo Inpe (Instituto Nacional de Pesquisas Espaciais) nesta quinta-feira (12), foi causada principalmente pela crise econômica, avalia o diretor da ONG Amigos da Terra – Amazônia Brasileira, Roberto Smeraldi.
Ele comemora os números, mas afirma que a demanda por produtos agropecuários caiu muito, desestimulando fazendeiros a abrir novas áreas na floresta. “A conjuntura do período em que isso [o desmatamento] foi medido foge muito à normalidade. Um ano assim acontece a cada duas décadas.”

O levantamento divulgado pelo Inpe foi realizado entre agosto de 2008 e julho de 2009, e coincide com o período em que a economia brasileira registrou maus resultados por causa da crise econômica.



“Fecharam ou suspenderam as atividades 16 frigoríficos na Amazônia. Outros que funcionam trabalham abaixo da sua capacidade de abate”, afirma Smeraldi.

Entenda melhor:
Desmatamento na Amazônia segue preços de soja e carne, diz Imazon

Segundo o diretor da Amigos da Terra, os 7 mil km² de desmatamento foram causados principalmente por especulação de terras e por assentamentos de reforma agrária. “Há pessoas que desmatam na expectativa de vender a terra, de conseguir regularização fundiária, como ocorre na rodovia BR-163 [Cuiabá-Santarém].”

Smeraldi afirma que cada assentado desmata pouco, mas eles são muito numerosos. “A pessoa desmata para comer o feijãozinho dele. Em geral, é um hectare por ano, ou menos, mas no governo Lula foram levadas aproximadamente 2,2 milhões de pessoas para a Amazônia”, diz.

A exploração de madeira não tem impacto imediato nas estatísticas, segundo o especialista, já que nessa atividade não há destruição total da floresta, fazendo com que o sistema Prodes – que mede a devastação anual – não leve essas áreas em consideração.

Desvio para o Cerrado

O diretor da ONG também alerta para a desvio da devastação para o Cerrado, que estaria perdendo espaço para pastos e plantações. “Não podemos fechar os olhos. Isso pesa em termos de emissão de carbono, de perda de biodiversidade, de [poluição da] água”, afirma.


globoamazonia@globo.com
http://www.globoamazonia.com/

Maior emissora de CO2, Amazônia não tem controle sobre gases poluidores


Para especialistas, controle é essencial para execução de políticas.
Governo anunciou meta de reduzir até 38,9% da emissão de gases.



Os estados da Amazônia não têm informações precisas sobre a emissão de gases de efeito estufa, de acordo com informações fornecidas ao G1 pelos governos estaduais. Segundo estimativa do Fórum Brasileiro de Mudanças Climáticas, a região emite cerca de 60% do dióxido de carbono (CO2) gerado no país.

Nesta sexta-feira (13), o governo federal anunciou que vai se comprometer voluntariamente a reduzir as emissões de gases causadores do efeito estufa entre 36,1% e 38,9% até 2020. O plano será apresentado na Conferência do Clima das Nações Unidas, em Copenhague, Dinamarca, entre 7 e 18 de dezembro.

O CO2 é um dos gases causadores do efeito estufa, que prejudicam o meio ambiente. A Amazônia é uma grande emissora de CO2 por conta do desmatamento e das queimadas. Gases-estufa também estão presentes nas indústrias, na agricultura, na pecuária e na fumaça dos veículos.

O G1 fez um levantamento das ações dos estados da Amazônia Legal (Acre, Amapá, Amazonas, Pará, Rondônia, Roraima, Mato Grosso, Tocantins e Maranhão) para redução de emissão de gases poluidores. Desses estados, a reportagem não conseguiu contato com a assessoria do governo do Amapá.

Também consultou governos de estados com áreas de Cerrado (Goiás, Mato Grosso do Sul, Minas Gerais e Bahia); e alguns dos mais industrializados do país (São Paulo, Rio de Janeiro, Paraná e Rio Grande do Sul). A assessoria do estado de Goiás informou que não dispunha dos dados solicitados.



De todos os 17 estados consultados, somente dois afirmaram ter dados sobre a emissão de gases de efeito estufa: São Paulo e Rio de Janeiro, que dizem ter feito inventários sobre a emissão em 2005. Muitos dos demais, têm planos de realizar inventários no próximo ano.

Na maioria dos casos, o único controle sobre os gases de efeito estufa é uma estimativa sobre a emissão de CO2 com base nos dados de queimadas e de desmatamento.

Para os especialistas consultados pelo G1, a falta de informações precisas prejudica a implantação de políticas públicas e a adoção de metas de redução.

Dados federais

Os dados oficiais mais recentes do governo federal sobre emissão de gases de efeito estufa são de 1994. Uma estimativa foi realizada pelo Ministério do Meio Ambiente recentemente e considera os setores que mais emitem gases. Os dados se baseiam no inventário oficial em produção pelo Ministério de Ciência e Tecnologia que deve ser concluído em 2011.

Na avaliação do coordenador da campanha de clima do Greenpeace, João Talocchi, "não se tem ideia" precisa "do tamanho do problema". "Às vezes essas metas essas metas são políticas, mas não se tem ideia de quanto significa ou como fazer essa redução."

Para Talocchi, o controle por parte do governo é "muito importante". "Tem de controlar chaminés, carros e podem controlar com mais facilidade a emissão se adotarem desmatamento zero. Não significa evitar a derrubada de toda e qualquer árvore, mas ter subsídios para investir na educação ambiental. Quando entender o que tem para fazer, pode trazer benefícios para o país."

Secretário-executivo do Fórum Brasileiro de Mudanças Climáticas, o professor da Universidade Federal do Rio de Janeiro (UFRJ) e diretor do Coppe, Luiz Pinguelli Rosa, disse que o governo consegue ter uma estimativa com base no desmatamento da Amazônia e que a região mais complexa de se obter dados é o Cerrado.

"A maior contribuição do país para emissão é o desmatamento, não a indústria. Dados de 2004 apontam que a Amazônia representava 75% da emissão de CO2. A proporção deve ter diminuído, porque houve diminuição do desmatamento e incremento da atividade industrial. Mas a Amazônia ainda deve representar 60% das emissões", estima Pinguelli.

Para Pinguelli, o controle das emissões por parte dos estados poderia contribuir para melhorar as ações ambientais.

Desmatamento

O controle do desmatamento é apontado como a principal ação dos governos para a redução das emissões de gases.

Dados divulgados na quinta (12) pelo Instituto Nacional de Pesquisas Espaciais (Inpe), revelam uma redução de 45% no desmatamento registrado nos estados que integram a Amazônia Legal. A margem de erro é de 10%, e os números finais devem ser consolidados em março do próximo ano.



No Mato Grosso, o acompanhamento do desmatamento é a forma para contribuir para redução da emissão, segundo Salatiel Alves de Araújo, secretário-adjunto de Qualidade Ambiental. "Formamos um Fórum de Mudanças Climáticas e estamos efetuando levantamento. Mas a correlação entre o que é desmatado e o que é emitido de CO2 é usado para nossa estimativa de emissões."

Na Bahia, o estado está em fase de conclusão de licitação para um zoneamento econômico ecológico para identificar, entre outras coisas, os locais de maior emissão de gases de efeito estufa.



"Como não temos diagnosticado o que está sendo emitido, fica difícil estabelecer uma meta de redução. Como não temos série histórica do número de emissão dos últimos anos, não sabemos quais setores tiveram mais incremento. (...) Mas temos plano com uma série de ações, como avaliar toda matriz energética do estado", afirmou o secretário de Meio Ambiente da Bahia, Juliano Matos.


Em Rondônia, o acompanhamento da emissão de gases de forma global não é feito por conta do alto custo. "Desejamos reduzir o índice de desmatamentos e queimadas, que mais contribuem para emissão. (...) Além disso, temos termoelétricas, cerâmicas, mas o valor de emissão dos setores não é tão significativo que compense o acompanhamento porque são equipamentos caros", disse o engenheiro Arquimedes Ernesto Longo, da Secretaria de estado do Meio Ambiente.

O assessor técnico Cláudio Flores, da secretaria de Meio Ambiente do governo do Pará, concorda que há falta de informações precisas sobre emissão de gases, mas afirma que os estados da Amazônia estão "no rumo certo".

"Na Amazônia Legal temos realidade muito específica ligada a derrubada da floresta e a meta se refere à redução do desmatamento, que leva a redução da emissão de gases."

Flores afirmou que há acordo entre o Fórum de Governadores da Amazônia e cidades norte-americanas sobre redução de emissão de gases causadores do efeito estufa. "É claro que a Califórnia, em função do poder econômico, tem mais ferramenta e tecnologia para calcular a emissão. Mas estamos trabalhando para ter condições de conhecer exatamente qual é nossa situação ambiental."

Setores industriais

Não é somente na região da Amazônia que a falta de informações precisas dificulta as políticas.



No Rio Grande do Sul, a assessora técnica do Fórum Estadual de Mudanças Climáticas, Ana Cruzat, afirmou que a idéia é realizar o inventário "com a maior urgência". "Apesar de sermos estado agrícola e termos zonas industriais fortíssimas, o grande emissor de gases é o veículo."

Segundo Ana Cruzat, o inventário será o mesmo solicitado pelo Conselho Nacional do Meio Ambiente (Conama) para reduzir a poluição dos veículos. "Não temos como estimar quanto vamos reduzir a emissão de gases sem ter uma base de dados."



Em São Paulo há metas e há dados sobre emissão de dados referentes a 2005, mas novos dados são necessários, conforme o secretário estadual de Meio Ambiente de São Paulo, Xico Graziano. "Primeiro precisamos calcular o inventário das emissões, que estará pronto em março, para saber com que quantidade estamos lidando. Depois, vamos abrir os protocolos", explica.



Segundo Graziano, o governo ainda não sabe como vai cobrar o cumprimento da meta de reduzir a emissão de gases.

No Rio de Janeiro, de acordo com Márcia Valle Real, que vai assumir a Superintendência do Clima no Mercado de Carbono do estado, um projeto de lei sobre mudanças climáticas será enviado à Assembleia Legislativa até o fim do mês. A partir de então, os setores da economia serão chamados para discussão de redução de emissão de gases.

"Nosso inventário de 2005 indicou que a indústria é o maior emissor no Rio de Janeiro e vamos começar a discutir o problema com a indústria siderúrgica. Depois, devemos passar para a área de petróleo e petroquímica."

O mundo científico comemora


Responsáveis pelo maior experimento da história da ciência estão entusiasmados e esperançosos após os bons resultados do primeiro dia de experiência.

O segredo do super acelerador de partículas está em um barracão. No local os milhares de tubos que formam o túnel foram montados, testados e resfriados a 273 graus Celsius abaixo de zero, antes de formar o círculo de 27 quilômetros sob os campos da Suíça e da França.

Na manhã desta quarta, dois feixes de prótons giraram no túnel. Um no sentido horário, o outro na direção contrária. E o mundo científico comemorou.

A maior máquina já construída pela humanidade, que custou 14 anos de trabalho e 8 bilhões de dólares, mostrou que funciona.

Mostrou modestamente, com um pontinho branco no computador. Mas quando estiver a toda energia, vai girar os feixes virtualmente na velocidade da luz e fazê-los colidir, reproduzindo em escala menor o Big Bang, a explosão que teria dado início à criação do universo.

E estar a toda energia, significa gastar 200 megawats-hora. O mesmo que uma cidade como Curitiba.

Tanta energia é necessária porque as partículas são aceleradas por um campo elétrico. É só conseguem manter o rumo, graças a milhares de campos magnéticos instalados ao longo do percurso.

Tudo isso é mantido com eletricidade. Eletricidade gera calor e calor provoca perda de energia. Por isso, toda a tubulação é resfriada a 271 graus negativos. Isso é mais frio do que o espaço sideral.

Nas explosões de prótons, a viagem é no tempo. Momentos depois da colisão, sub-partículas que até agora só existem na teoria, devem aparecer.

Como o bósom de higgs, chamado de partícula de Deus. Seria ele que entrega a massa para as outras partículas. Essa fração de segundo pós-explosão pode guardar também o segredo da anti-matéria, e da matéria escura, que compõe 90% do universo e mesmo assim é grande desconhecida da ciência.

A produção de dados será tão grande, que menos de um por cento será guardado para estudo. Ainda assim, foi preciso reinventar a interação de computadores para dar conta do recado.

“Não só conseguimos prover as necessidades dos experimentos”, diz coordenador do projeto, “mas também permitimos que os cientistas trabalhem em suas instituições de origem em condições iguais àqueles que estão em Genebra. Isso dá vida às instituições, permite que eles ensinem seus alunos, tem um retorno para nós. Assim todos ficam satisfeitos”.

E aumenta o impacto tecnológico que esse grande experimento tem sobre todo o mundo.

terça-feira, 10 de novembro de 2009

Universo acelerado sem energia escura?

Há cerca de 10 anos, resultados baseados nas observações de estrelas que chegavam ao final da vida mostraram que o universo não só estava se expandindo, mas fazia isso de modo acelerado. Foi uma descoberta classificada como revolucionária. Esses resultados levaram boa parte dos cosmólogos a admitir que cerca de 70% do universo eram formados pela chamada energia escura, cuja natureza ainda é desconhecida. De lá para cá, muita pesquisa foi feita sobre o assunto.

Agora, dois pesquisadores norte-americanos apresentam um modelo de universo acelerado que dispensa a existência dessa misteriosa forma de energia. Os resultados foram publicados na Proceedings of the National Academy of Sciences.

A observação de que o universo está em expansão, feita pelo astrônomo norte-americano Edwin Hubble (1889-1953), em 1929, é considerada um dos principais marcos da história do pensamento humano. Esse resultado trouxe a cosmologia para o campo das ciências físicas: estavam confirmadas as surpreendentes previsões teóricas do cosmólogo russo Alexander Friedmann (1888-1925) realizadas sete anos antes, baseadas na teoria da relatividade geral, do físico de origem alemã Albert Einstein (1879-1955). Nelas, Friedmann sugeria a expansão do espaço tridimensional cosmológico, que carregaria consigo todas as galáxias nele inseridas – algo que espantou o próprio Einstein.

Hubble mediu também a velocidade com que o espaço se expandia. Desde então, as medidas dessa expansão foram sendo refinadas, e esperava-se que pudéssemos não só obter sua velocidade com maior precisão, mas também sua aceleração. O quadro na mente de todos os cosmólogos era o de um universo se expandindo devido à ocorrência de uma grande explosão no passado, mas que estivesse desacelerando devido à atração gravitacional existente entre os constituintes do universo: afinal, em nossa experiência cotidiana, percebemos que a força gravitacional entre a matéria usual é sempre atrativa.

Para medir essa aceleração (ou desaceleração, como se esperava), precisava-se medir o afastamento de galáxias muito mais distantes (e, portanto, mais afastadas no tempo, pois a luz que elas nos emitem demora mais para nos alcançar). Isso foi obtido por meio da observação, nessas galáxias, da ocorrência de supernovas (explosão altamente luminosa de estrelas bastante massivas no estágio final de sua evolução). O resultado dessa medida foi altamente surpreendente e primeiramente divulgado em 1998: o universo está se acelerando e não desacelerando!

A primeira explicação proposta para esse resultado foi sugerir a existência de um tipo de energia – dominante no universo atual e totalmente diferente daquela que estamos acostumados a observar – que exerceria uma força gravitacional repulsiva, causando essa aceleração. Como não podemos enxergar essa energia, deu-se a ela o nome de energia escura. Vários candidatos a energia escura foram propostos: constante cosmológica, quintessência, campo fantômico etc. Nenhum deles com motivação teórica convincente.

A seguir, pensou-se que a relatividade geral clássica estaria errada nas escalas de distância em que essa aceleração se observa. Foram, então, propostos vários tipos de generalização dessa teoria; a existência de dimensões espaciais, além das três que observamos; efeitos quânticos em larga escala etc. Essas modificações também parecem arbitrárias e, portanto, ainda pouco convincentes.

Finalmente, pensou-se em uma explicação mais conservadora, mas nem por isso menos desafiadora. Na verdade, não haveria problema algum com a relatividade geral, nem existiria energia escura. O problema estaria em assumir que o complexo universo no qual vivemos hoje possa ser representado, mesmo em largas escalas, por um modelo tão simples como o que Friedmann propôs: i) com uma distribuição homogênea de massa; ii) com as mesmas propriedades em todas as direções (ou, dito mais tecnicamente, isotrópico).

Devemos, então, procurar soluções mais elaboradas e complexas das equações da relatividade geral que levem em conta o fato de o universo não ser homogêneo hoje. É nessa linha de raciocínio que Blake Temple, da Universidade da Califórnia, e Joel Smoller, da Universidade de Michigan, também nos Estados Unidos, propuseram um conjunto de soluções das equações da relatividade geral que contém a solução de Friedmann como um caso particular – ou seja, a de um universo homogêneo e isotrópico. Os desdobramentos desses cálculos levaram a termos matemáticos suplementares nas equações propostas por Friedmann que induzem uma aparente aceleração do universo, sem a necessidade de nenhuma energia escura.

O trabalho de Temple e Smoller ocorre paralelamente a outras tentativas de investigar e explicar a aceleração do universo. Esse tipo de linha de investigação é recente e envolve um aprofundamento do estudo de certos aspectos das equações da relatividade geral até então pouco explorados, devido à grande complexidade matemática deles e à consequente dificuldade de aplicá-los à cosmologia.

Qual dessas abordagens poderá responder satisfatoriamente à questão levantada pela surpreendente observação de 1998?

Por enquanto, a hipótese mais investigada e aceita é a da existência da energia escura, pois indicações de sua existência aparecem indiretamente em dados observacionais relativos à radiação cósmica de fundo (um ‘eco’ do universo primordial) ou à evolução de estruturas no universo (galáxias, aglomerados de galáxias etc.).

A nova linha de investigação para a qual contribuiu o trabalho de Temple e Smoller vem atraindo vários cosmólogos, entre outras coisas por uma razão simples: sabe-se que o tempo que o universo levou para se acelerar não é muito diferente daquele que ele levou para formar suas grandes estruturas. E essa coincidência de escalas temporais, denominada coincidência cósmica, não aparece naturalmente nos modelos de universo em que a aceleração é explicada com base na energia escura. Entretanto, na linha de investigação de Temple e Smoller, essas escalas temporais são próximas, porque os novos termos matemáticos propostos – os que induzem a aceleração do universo – aparecem justamente por causa do surgimento dessas grandes estruturas: a coincidência cósmica estaria então naturalmente explicada.

Mas é preciso lembrar que abordagens como a de Temple e Smoller terão necessariamente que explicar dados observacionais relativos à radiação de fundo e à evolução de estruturas no universo. Ou seja, teoria e observação terão que coincidir.

De qualquer forma, o mistério envolvendo a observação de 1998 só poderá ser resolvido com muito trabalho teórico, para obter novas previsões, e com boa dose de esforço observacional, para testá-las, como o que será feito no projeto Dark Energy Survey, do qual participa o Instituto de Cosmologia, Relatividade e Astrofísica, do Centro Brasileiro de Pesquisas Físicas.

Meio crocodilo, meio tatu


Crocodilo-tatu. Esse nome, que parece saído de um conto de fadas, é a denominação do novo réptil pré-histórico brasileiro, o Armadillosuchus arrudai. O animal pertence ao grupo dos crocodilomorfos, parentes dos crocodilos atuais, mas apresenta características nunca antes encontradas nesses espécimes, como uma couraça similar à do tatu e a capacidade de mastigar alimentos, o que sugere uma versão diferente para o clima no fim do Cretáceo, há 90 milhões de anos, quando ele viveu.

Descrito por pesquisadores da Universidade Federal do Rio de Janeiro (UFRJ) a partir de fósseis (cabeça, couraça e pata) encontrados em 2005 pelo professor do Ensino Médio João Tadeu Arruda no município de General Salgado (SP), o crocodilo-tatu foi apresentado ao público hoje na abertura da exposição Visões da Terra, no Museu do Meio Ambiente do Jardim Botânico do Rio de Janeiro. O artigo que descreve o animal foi publicado na revista científica Journal of South American Earth Sciences.

Com cerca de dois metros de comprimento e aproximadamente 120 kg, o A. arrudai apresentava características que lhe conferiam proteção contra os predadores e o ambiente hostil. “Outro crocodilomorfo que vivia nessa área e período era o Baurusuchus salgadoensis, que possivelmente tinha o crocodilo-tatu como presa”, conta um dos autores do artigo, o geólogo Ismar de Souza Carvalho, do Laboratório de Macrofósseis da UFRJ.

A couraça do A. arrudai serviria como proteção contra ataques, mas também ajudaria o animal a não perder umidade. “O clima na bacia de Bauru, onde ele vivia, era quente e árido, com rios temporários que enchiam com chuvas torrenciais e esporádicas”, revela o geólogo. As garras do crocodilo-tatu eram especializadas para cavar, o que lhe permitia se enterrar para evitar os predadores e se proteger das condições ambientais.

O novo crocodilomorfo também tinha dentes fortes e de textura áspera, com disposição similar à dos mamíferos. Segundo os pesquisadores, há ainda evidências de que o A. arrudai tinha capacidade de mastigar, algo desconhecido nos crocodilos atuais. “Tudo isso indica que a sua dieta era bastante variada, incluindo, além de carne, vegetais, raízes de árvores e moluscos”, informa Carvalho.

O geólogo destaca que as adaptações desse réptil a um ambiente árido revelam que as condições no interior do continente permaneciam extremas no fim do Cretáceo. “Nessa época, ocorreu o início da formação do Atlântico e acreditava-se que as temperaturas teriam se tornado mais amenas em todo o continente. Mas o A. arrudai mostra que essa suavização climática parece ter se concentrado na costa.”

Para Carvalho, a descoberta evidencia a diversidade da vida pré-histórica brasileira e permite compreender as transformações dos espaços ecológicos no decorrer do tempo geológico. “O Armadillosuchus arrudai viveu por 10 milhões de anos, tendo sido extinto há 80 milhões de anos, provavelmente devido às mudanças climáticas daquele período”, completa.

Olhar-se no espelho

O clima nas discussões do 33º Encontro da Associação Nacional de Pós-Graduação e Pesquisa em Ciências Sociais (Anpocs) era de reflexão. Além de temas tradicionais – como a conjuntura nacional e a violência urbana –, o debate sobre a própria atividade científica nas ciências sociais esteve bastante presente no evento. Discutiu-se também a inserção dessa área do saber no sistema nacional de ciência e tecnologia e sua presença na mídia.

O encontro aconteceu entre os dias 26 e 30 de outubro em Caxambu (MG) e reuniu cerca de três mil pessoas. No total, foram 21 mesas-redondas, 41 grupos de trabalho, 692 apresentações e 50 livros lançados. A atividade de pesquisa em ciências sociais ganhou uma sessão especial, além de permear trabalhos sobre os mais variados assuntos.
A Anpocs cresceu tanto que a reflexão sobre a institucionalização das ciências sociais se perdeu um pouco”, reflete Maria Alice Rezende de Carvalho, presidente da associação. “Por isso, é muito importante que ela esteja se fortalecendo agora. Essa mesa que realizamos [Política Científica nas Ciências Sociais] foi uma proposta da diretoria para reavivar a discussão.”

A mesa-redonda à qual Rezende de Carvalho se refere teve também a participação do cientista político Renato Lessa, do Instituto Universitário de Pesquisas do Rio de Janeiro (Iuperj), do antropólogo Gilberto Velho, do Museu Nacional da Universidade Federal do Rio de Janeiro, e da socióloga Maria Arminda do Nascimento Arruda, da Universidade de São Paulo.

Lessa questionou as formas de avaliação das ciências sociais na comunidade acadêmica, que, segundo ele, funcionam sob parâmetros matemáticos. “Criou-se, além do homo sapiens, uma espécie de homo lattes”, brincou o cientista político, referindo-se à comum qualificação de um pesquisador com base na quantidade de artigos que ele possui no seu currículo acadêmico.

Já Gilberto Velho mostrou a evolução das ciências sociais desde a ditadura militar e ressaltou a importância de instituições como a Sociedade Brasileira para o Progresso da Ciência (SBPC) e a própria Anpocs. Arruda reforçou o argumento de Velho e discutiu a relevância da integração das instituições de pesquisa em ciências sociais com a comunidade científica como um todo e a sociedade brasileira em geral.

Crescimento na área
Para Rezende de Carvalho, o motivo por trás da valorização da discussão sobre o lugar das ciências sociais é o papel destacado que a sociedade brasileira tem conferido às pesquisas nessa área. Isso se manifesta também na demanda por cursos de graduação e pós-graduação por parte dos jovens que ingressam na universidade, o que exige mais investimentos governamentais e políticas voltadas para o setor.

“É preciso, portanto, que se conheçam os números efetivos dessa expansão, as características desse crescimento, o perfil das novas gerações de cientistas sociais, o aporte do investimento destinado à área, enfim, uma avaliação completa do movimento atual das ciências sociais”, afirma a presidente.

Sinal dessa valorização das ciências sociais foi a assinatura, durante a abertura do evento, de um convênio entre a Anpocs e a Financiadora de Estudos e Projetos (Finep), no valor de R$ 680 mil, para a criação de um portal das ciências sociais brasileiras. O objetivo da página virtual é ampliar a comunicação entre o meio acadêmico e a sociedade brasileira e favorecer, assim, a inscrição das ciências sociais no debate público.

Alguns dos destaques do encontro foram as discussões sobre questões políticas do mundo contemporâneo, que tiveram inclusive a participação de pesquisadores estrangeiros convidados. O antropólogo alemão Florian Mühlfried, do Instituto Max Planck, por exemplo, participou de mesa-redonda sobre as consequências da queda do muro de Berlim, e o sociólogo Hauke Brunkhorst, da Universidade de Flensburg, ministrou uma conferência sobre os fatores que ameaçam a democracia nos nossos dias.

Outros destaques em Caxambu foram as homenagens às antropólogas Manuela Carneiro da Cunha e Lygia Sigaud. Em entrevista à Ciência Hoje, Carneiro da Cunha falou sobre seu novo livro – Cultura com aspas – e discutiu os rumos e a importância das reservas indígenas no Brasil. “O conflito criado entre reservas indígenas e áreas militares é artificial”, afirma ela. E acrescenta: “A presença de índios contribui significativamente com a manutenção das fronteiras, e não o contrário.” A entrevista completa será publicada na edição de janeiro-fevereiro de 2010 da revista.

domingo, 8 de novembro de 2009

Por que envelhecemos?


Podcast discute os processos biológicos por trás do envelhecimento e os limites da longevidade




O envelhecimento e a morte são uma preocupação da humanidade há milhares de anos. Com o avanço da ciência, nossa longevidade vem aumentando constantemente. O Estúdio CH desta semana aborda os processos biológicos envolvidos no envelhecimento dos seres humanos e discute os limites da longevidade.

Em sua estreia como apresentador do nosso podcast, Fred Furtado conversa com o biólogo Emílio Antônio Jeckel Neto, diretor do Museu de Ciência e Tecnologia da Pontifícia Universidade Católica do Rio Grande do Sul. O pesquisador, especialista em biologia do envelhecimento, explica o que leva o nosso organismo a assumir características diferentes à medida que o tempo passa. Segundo ele, isso acontece porque nosso sistema biológico se torna cada vez mais simplificado para desenvolver estratégias para sobreviver a um ambiente em constante modificação.

Jeckel Neto ressalta que há um limite para a longevidade de qualquer ser vivo. Dependendo de suas propriedades intrínsecas para conseguir se adaptar às variações ambientais, os seres alcançam um sucesso maior ou menor no que diz respeito à quantidade de tempo que são capazes de se manter no ambiente.

O biólogo explica que os avanços da ciência em relação à longevidade estão muito mais associados a questões ambientais do que ao organismo em si. A expectativa média de vida aumentou bastante, por exemplo, com o desenvolvimento dos antibióticos e quando os profissionais da área de saúde descobriram que lavar as mãos diminuía o risco de contaminação. Mas não existe uma intervenção científica capaz de aumentar a longevidade máxima do organismo.

Sobre a possibilidade de se intervir nos processos biológicos do corpo para aumentar nossa qualidade de vida, Jeckel Neto diz que esse fator não está associado somente ao indivíduo, mas à sociedade como um todo, que se beneficia da existência de saneamento básico, por exemplo. O biólogo acrescenta que o aspecto individual que mais interfere na longevidade dos seres humanos é a quantidade e a qualidade dos alimentos ingeridos e explica o motivo dessa relação.

Para ouvir a entrevista com Emílio Antônio Jeckel Neto, siga as instruções do quadro abaixo.

O cérebro fabrica maconha


Pesquisadores de São Paulo descobrem novas substâncias canabinoides produzidas pelos neurônios

No início dos anos 1970, uma grande surpresa agitou os farmacologistas, aqueles que estudam o efeito das substâncias químicas sobre os órgãos e sobre as células. É que o neurocientista Solomon Snyder, da Escola de Medicina da Universidade Johns Hopkins, nos Estados Unidos, descobriu que havia no cérebro proteínas capazes de reconhecer a morfina. Eram os receptores opioides, chamados assim em referência ao ópio, que contém grande quantidade de morfina.

Parecia muito estranho que o cérebro tivesse receptores para uma substância analgésica obtida de um vegetal – a papoula (Papaver somniferum)... E ainda mais uma substância fortemente viciante, presente no tradicional narcótico cujo uso remonta a eras e civilizações antigas. No entanto, pouco tempo depois, o mesmo Snyder descobriu as morfinas endógenas, que ficaram conhecidas como endorfinas. Ficamos sabendo então que o nosso cérebro fabrica um tipo de morfina participante dos mecanismos naturais de regulação da dor.


A maconha feita no cérebro

Surpresa parecida causou a descoberta dos receptores canabinoides, capazes de reconhecer as substâncias psicoativas derivadas da maconha (Cannabis sativa). Foi em 1990 que o grupo do farmacologista Tom Bonner, do Instituto Nacional de Saúde Mental, nos Estados Unidos, clonou pela primeira vez um receptor canabinoide do cérebro. A esse feito seguiu-se a descoberta dos endocanabinoides, compostos gordurosos produzidos por neurônios e capazes de serem reconhecidos pelos mesmos receptores da maconha, posicionados na membrana de outros neurônios.

O que faria essa maconha endógena no cérebro? Os anos seguintes mostraram que os endocanabinoides são neurotransmissores não convencionais, pois não são armazenados em vesículas, mas produzidos “sob encomenda”. Ou seja: quando os neurônios do sistema nervoso central são ativados, sintetizam “maconha endógena” para modular as suas próprias sinapses.

Constatou-se que a ação dos endocanabinoides nas sinapses é retrógrada, ou seja, ocorre de trás para frente: sintetizadas no neurônio ativado por uma sinapse, essas substâncias vão atingir o neurônio antecedente da cadeia, sendo reconhecidas pelos receptores nele posicionados, que então freiam a transmissão sináptica que acabou de se iniciar. Uma espécie de marcha a ré da transmissão sináptica. Esse mecanismo é atuante nas regiões cerebrais que regulam o apetite e o humor, além das regiões ligadas à dor e à memória.

Os nossos canabinoides


Com a evolução do conhecimento sobre os endocanabinoides, mais surpresas aguardavam os farmacologistas. A mais recente delas veio de um estudo publicado há poucas semanas, realizado por pesquisadores do Instituto de Ciências Biomédicas da Universidade de São Paulo, da empresa Proteimax, também de São Paulo, e das escolas de medicina Mount Sinai e Albert Einstein, em Nova York, nos Estados Unidos.

O grupo descobriu que os neurônios produzem peptídeos (pequenas proteínas) derivados da hemoglobina que ativam os receptores canabinoides do sistema nervoso – de modo semelhante à maconha. O trabalho envolveu o levantamento proteômico dos derivados da hemoglobina e de sua presença no cérebro, o que levou à identificação de peptídeos com nove aminoácidos e ação canabinoide. Essas substâncias, chamadas hemopressinas, foram encontradas em regiões do cérebro ligadas à regulação do apetite (o hipotálamo) e em outras que atuam na geração de sensações prazerosas (o núcleo acumbente), bem como nos terminais nervosos periféricos envolvidos na dor.

Os pesquisadores então realizaram diversos experimentos para testar a ação das hemopressinas nos receptores canabinoides conhecidos, o que permitiu a identificação da via de ação desses peptídeos.


Hemoglobina e maconha: relação improvável

A nova surpresa que o estudo trouxe, além da identificação de novos canabinoides, foi a sua origem a partir da hemoglobina. O que estaria fazendo no cérebro a molécula mais conhecida do sangue, encarregada de fixar o oxigênio da respiração nas células vermelhas? Na verdade, já se conhecia a presença de hemoglobina, em pequenas quantidades, em outros tecidos, como o endométrio do útero feminino, o cristalino do olho, os glomérulos dos rins e também os neurônios e células gliais do cérebro.

Outro fato que chama a atenção é que dados preliminares anunciados pelos autores do estudo indicam a produção de hemopressina em maiores quantidades quando o cérebro é submetido a condições de isquemia, como nos acidentes vasculares cerebrais. Nesse caso, teria essa “maconha endógena” alguma ação protetora contra os acidentes isquêmicos cerebrais?

A natureza, como se vê, percorre os mesmos caminhos para atender diferentes necessidades. As diversas células do organismo são aparelhadas para sintetizar substâncias semelhantes em órgãos e tecidos diferentes. Mas, em cada um, as mesmas substâncias são utilizadas para funções distintas. Soluções plenas de “racionalidade econômica”, diriam os economistas. Aproveitamento máximo das mesmas soluções em diferentes problemas.

sábado, 7 de novembro de 2009

Experiência pioneira com interface cerebral

Primeiro, um investigador do Hospital / Universidade de Genéve, instalado confortavelmente numa cadeira, com um dispositivo (composto por eléctrodos) na cabeça e um computador na sua frente.

Depois, em Coimbra, no Laboratório do Instituto de Sistemas e Robótica da Faculdade de Ciências e Tecnologia da Universidade de Coimbra (FCTUC), um pequeno robô.

Este é o cenário para a realização de uma experiência de controlo remoto de um autómato por ondas cerebrais (Brain Computer Interface), com um sistema inovador e fidedigno de interacção entre pessoas e máquinas, a decorrer a partir de amanhã, pelas 10h, no Departamento de Engenharia Electrotécnica e de Computadores da FCTUC.

Esta experiência de avaliação e análise da navegação humana é o resultado de um trabalho científico desenvolvido por cientistas portugueses e suíços ao longo dos últimos três anos no âmbito do projecto Europeu BACS – Bayesian Approach Cognitive Systems, sob a coordenação do investigador Jorge Dias, FCTUC.

O novo interface que permite o controlo remoto de um robô, utilizando apenas ondas cerebrais e a visão, terá, a breve prazo, um forte impacto social porque permitirá às pessoas com deficiências motoras muito graves obter mais autonomia, como explica, em linguagem muito simples, o coordenador da investigação.

“Com um simples e discreto dispositivo de eléctrodos, cidadãos com necessidades muito especiais, por exemplo, tetraplégicos ou acamados, terão autonomia para realizar tarefas quotidianas como atender o telefone, pedir ajuda, abrir a porta ou o frigorífico. Este sistema terá, sem dúvida, grande utilidade social”, referiu Jorge Dias.

Quanto à previsão para a comercialização desta tecnologia, “ o conceito está provado e validado. A grande dificuldade foi garantir precisamente uma interface robusta entre os sinais de comando (dados cerebrais) e o robô”, destacou o docente.

“Alguns cientistas tentaram experiências idênticas, mas sem a confiabilidade desejada para um interface deste tipo. Dentro de cinco anos esta nova tecnologia será mais popular porque é financeiramente atractiva e sem dificuldade de manuseamento”, concluiu Jorge Dias

Microsoft cria Cátedra de Investigação para a área da Saúde

A Microsoft Portugal e a Fundação para a Ciência e a Tecnologia (FCT) anunciaram hoje a abertura de um Concurso Público para a atribuição da Cátedra Microsoft de Investigação em Saúde que visa o desenvolvimento de conhecimento no domínio das tecnologias de informação e comunicação aplicadas ao sector da saúde.

A iniciativa será levada a cabo em articulação com instituições de ensino superior universitário e resulta de um investimento conjunto da Microsoft e da FCT que pode ascender a 1,2 milhões de euros, sendo 75 por cento suportado pela Microsoft, durante os próximos cinco anos.

Encontro com a Ciência

Divulgar a Ciência que se faz em Portugal, estimular a cooperação científica e fomentar o diálogo entre os cientistas e a sociedade é o objectivo do III Encontro Ciência em Portugal – Ciência 2009, que tem início hoje, na Fundação Calouste Gulbenkian, em Lisboa, pelas 10h.

Trata-se de uma iniciativa do Conselho dos Laboratórios Associados, em colaboração com o Ministério da Ciência, Tecnologia e Ensino Superior, através da Fundação para a Ciência e a Tecnologia, que decorrerá até amanhã.

Células estaminais usadas para

Estudo pioneiro na Duke University liga Portugal aos EUA

O sangue do cordão umbilical poderá vir a ser usado no tratamento da paralisia cerebral, depois de provas dadas no tratamento de doenças do foro hemato-oncológico e de outras doenças do sistema sanguíneo e imunitário. Para testar a aplicabilidade das células estaminais naquela patologia, está a ser realizado um estudo pioneiro pela pediatra e investigadora norte-americana Joanne Kurtzberg.

sexta-feira, 6 de novembro de 2009

POR QUE SUAMOS AO SENTIR CALOR?

POR QUE SUAMOS AO SENTIR CALOR?
Para refrescar o organismo. Quando o corpo sente calor depois de alguma atividade física ou quando estamos com febre, pequenas glândulas na pele soltam o suor. Ele é um líquido levemente salgado, composto por 99% de água. A água evapora e ajudar a absorver o calor da pele, deixando o corpo mais fresco. Mas se o lugar é quente e úmido, a água não evapora e suor acaba não refrescando.