Folha de S.Paulo

Um jornal a serviço do Brasil

  • Assine a Folha
  • Atendimento
  • Versão Impressa
Seções
  • Opinião
  • Política
  • Mundo
  • Economia
  • Cotidiano
  • Esporte
  • Cultura
  • F5
  • Classificados
Últimas notícias
Busca
Publicidade

Teoria de Tudo

por Rafael Garcia

Perfil Rafael Garcia é repórter de Ciência.

Perfil completo

O que descobri sobre o gás lacrimogêneo

Por Rafael Garcia
21/06/13 20:46

CAROS LEITORES, em primeiro lugar, perdão pela ausência prolongada neste blog. Estive ocupado com uma mudança transcontinental e passei mais tempo do que gostaria sem escrever. Mas voltar ao Brasil é sempre um choque de realidade, e já chego falando de um tema extremamente atual: as bombas de gás lacrimogêneo.

Após a morte de uma gari que inalou a poeira exalada por essa infame arma de efeito moral ontem, em Belém, colegas que estão cobrindo os protestos vieram me perguntar se eu sabia algo sobre a ciência desse artefato. O que é o gás lacrimogêneo? Causa apenas irritação? É perigoso para a saúde? Como combater os efeitos?

Eu não sabia. Mas, depois de procurar um pouco, achei alguns trabalhos científicos sobre o tema e me convenci de que a infame clorobenzalmalonitrila, o princípio ativo do gás lacrimogêneo, é o tipo de coisa que precisa ter um uso mais limitado, ou ser banida, assim como as balas de borracha.

Lágrimas e algo mais

Os efeitos agudos dessa substância (que na verdade é um pó em suspensão, não um gás) são bem conhecidos por qualquer um que já o tenha inalado. Uma forte irritação nos olhos começa de 20 a 60 segundos após a exposição, fazendo a pálpebra contrair e causando as copiosas lágrimas que dão nome à substância. Seu nome em inglês, “CS gas”, é uma referência aos sobrenomes dos químicos Ben Corson e Roger Stoughton, que o sintetizaram pela primeira fez em 1928 em Vermont, nos Estados Unidos.

O uso de cápsulas de gás lacrimogêneo para controle de multidões começou na década de 1950 nos EUA, mas foi só na década de 1960 –quando não faltavam protestos a serem reprimidos– que a prática se consolidou e se espalhou para o mundo. Os sintomas mais evidentes do gás lacrimogêneo cessam em até 30 minutos, mas logo a literatura médica começou a relatar que esse gás causa mais do que lágrimas. Apesar de serem em geral consistentes com a alegação de que o gás é “não letal”, esses estudos logo começaram a relatar vítimas com tosse persistente, excesso de muco, fortes dores de cabeça, tontura, dispneia, falta de ar e queimaduras de pele.

Como o gás lacrimogêneo causa tudo isso? Ao contato com as mucosas úmidas dos olhos, boca e narinas, ele é fragmentado em substâncias tóxicas (derivados de cianetos e tiossulfatos, para quem se interessa). Estas, por sua vez, provocam a liberação de neurotransmissores como a substância P, um mediador de reações inflamatórias também envolvido na sensação de queimadura e no estímulo ao vômito. (Já vi gente vomitando após sair de uma nuvem de gás lacrimogêneo.) Neurônios com o receptor químico TRPA1, envolvido em transmitir dor, também são ativados. E pouco se sabe além disso.

O problema com o vinagre

Para tentar combater esses efeitos, muitos manifestantes carregavam vinagre durante os protestos. Esse ingrediente, que contém ácido acético, pode ajudar aliviar os casos mais graves de contato com o gás: as queimaduras alcalinas na pele. Esse tipo de ferimento, porém, só ocorre em casos mais extremos, quando policiais atiram muitas cápsulas de pó lacrimogêneo no mesmo lugar (algo que eles são treinados para não fazer). Manifestantes que se recusam a sair das nuvens de pó lacrimogêneo também podem ter esse tipo de queimadura.

O ácido acético ( em concentração de 5%), porém, só é útil nesses casos mais raros de queimaduras de pele. Nos últimos dias, alguns manifestantes passavam vinagre no rosto ou bebiam o líquido após terem inalado pó lacrimogêneo. Isso só serve para causar mais irritação nos olhos e na boca. O único antídoto eficaz para a irritação é o vento fresco e, depois, tomar um bom banho com muita água, de preferência fria. Não se deve lavar as roupas expostas usando água quente, que faz o pó lacrimogêneo vaporizar e contamina a lavanderia.

Os efeitos graves

Apesar das descobertas recentes sobre o mecanismo de ação do gás lacrimogêneo, outras reações adversas ainda não são bem exploradas, e alguns médicos já começam a questionar sua classificação de “não letal” e sua segurança no uso de controle de protestos.

“Apesar de não existirem estudos controlados sobre os efeitos de longo prazo da exposição a esses agentes, testes in vitro implicam a possibilidade de efeitos mutagênicos”, diz Malachy Asuku, médico da Universidade Johns Hopkins, dos EUA, que fez pesquisa recente sobre a literatura do tema.

Oftalmologistas são particularmente preocupados, e há estudos sugerindo que o gás pode estimular catarata, hemorragia vítrea, danos no nervo óptico e, sobretudo, glaucoma. No sistema respiratório, o risco maior é de edema pulmonar, sobretudo para quem já tem bronquite ou mal semelhante.

Não existem muitos relatos de efeitos agudos graves do gás lacrimogêneo. Alguns jornalistas especularam que a morte da gari que inalou o gás ontem tivesse algo a ver com ela possuir hipertensão e se tratar com remédios. Não achei literatura médica relacionada diretamente a esse problema, mas há estudos das décadas de 1980 e 1990 sugerindo riscos para pessoas idosas com males cardíacos.

Ainda que não seja possível ligar a morte da gari com o gás, já existe evidência suficiente para defender que esse tipo de arma química passe a ser usado com mais comedimento. Os riscos são muitos. Não falei com especialistas em segurança, e não sei se o banimento total dessa substância seria uma bandeira legítima. Certamente, porém, o gás lacrimogêneo não era o instrumento adequado para lidar com manifestantes que se aproximavam pacificamente do Congresso Nacional na noite de ontem, por exemplo.

PS. Eu tinha esquecido de mencionar que é importante evitar enfrentar nuvens de pó lacrimogêneo com roupas molhadas. A roupa úmida absorve o pó lacrimogêneo e entra em atrito com a pele, podendo causar as tais queimaduras alcalinas. Na hora de tomar banho, é importante usar água corrente, aliás.

___________________________________________________________

BIBLIOGRAFIA:

Beyond Tears: the potential hazards of the O-Chlorobenzyldilene-Malonitrile (CS) Gas Under Scrutiny, Asaku, ME; Milner, SM; Gerold, KB – “Journal of Special Operations Medicine”, Vol. 11, Ed. 4, 2011

Is CS gas dangerous?, Fraunfelder, FT – “British Medical Journal”, Vol. 320, Pág. 458, 2000

CS exposure – clinical effects and management, Worthington, E; Nee, PA – “Journal of Accident & Emergency Medicine”, Vol. 16, Pág. 168, 1999

Treating CS gas injuries to the eye, Gray PE, “British Medical Journal”, Vol. 311, Pág. 871, 1995

Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor

Fator de impacto: o fetiche do cientista

Por Rafael Garcia
21/05/13 15:56

Capas de algumas das revistas científicas indexadas com maior fator de impacto (Imagem: reprodução)

POUCA COISA NO MUNDO é mais imprecisa do que a cientometria, a ciência que usa números para medir a qualidade da ciência. Essa disciplina tem seu mérito e sua utilidade, mas é vítima de uma ironia da condição humana: estudos científicos são trabalhos que buscam construir conhecimento com a maior objetividade possível, mas só podem ser avaliados com justiça quando alguém tem paciência para analisá-los um por um, subjetivamente, sem apelar demais para os números da cientometria.

Apesar de essa afirmação soar paradoxal, a maioria dos cientistas tende a concordar com ela. Os abusos cometidos contra esse princípio, porém, são tão comuns que motivaram agora uma campanha ética na comunidade acadêmica. Um grupo de pesquisadores está querendo acabar com o uso indiscriminado do chamado fator de impacto, o índice cientométrico considerado por muitos a medida da qualidade de uma revista científica.

Num manifesto batizado de DORA (Declaração sobre Avaliação de Pesquisas, acrônimo em inglês), lançado em San Francisco, um grupo de cientistas pede que o fator de impacto das revistas em que estudos são publicados deixe de ser usado em decisões importantes. O documento pede que esse índice seja ignorado em decisões sobre contratação, premiação, promoção e financiamento de cientistas.

Para entender o problema em torno do fator de impacto, é preciso conhecer um pouco melhor a dinâmica das referências que cientistas fazem uns aos outros em trabalhos científicos. A base da cientometria está na análise das redes de citações —as menções que um estudo faz a outros estudos. Trabalhos mais importantes tendem a ser mais citados que trabalhos irrelevantes, e toda a lógica da cientometria se constrói em cima disso. O que ela nem sempre leva em conta, porém, é que cientistas sabem como alavancar artificialmente as citações a seus próprios trabalhos.

Um pesquisador pode pedir a um colega que o cite para depois retribuir o favor. E se um cientista fatiar o resultado de uma pesquisa em vários estudos (em vez de publicar tudo num único trabalho mais completo), pode vir a receber mais citações. Usando essas táticas de mérito duvidoso, um pesquisador pode turbinar sua produtividade e sua aparente influência quando estas forem estimadas partir do número de citações por estudo publicado.

Há alguns métodos estatísticos para impedir que distorções apareçam, mas a eficácia de cada um depende muito da área da ciência à qual é aplicado. Algo que costuma ser aceito como um selo de qualidade de um estudo, porém, é o fator de impacto da revista em que o trabalho é publicado. O fator de impacto é medido pelo número total de citações que uma revista recebe em dois anos dividido pelo número total de artigos publicados no período.

A aceitação em um revista de alto impacto é encarada com um cartão de visitas de gala para um estudo. A disputa para entrar nessas publicações é acirrada, e os comitês que analisam os artigos submetidos costumam ser muito rigorosos. Cientistas com muitos trabalhos publicados  em periódicos como “Science” e “Nature”, por fim, acabam se cacifando para ocupar cargos mais altos e receber verbas maiores.

Mas há uma coisa na ciência que é um segredo de polichinelo: a vasta maioria dos estudos publicados em revistas de alto impacto, na verdade, não é muito influente.

O “Journal of Cell Biology”, uma revista de alto impacto que se comprometeu a adotar as medidas propostas pelo DORA, explica o problema em seu editorial desta semana: “O fator de impacto de uma revista científica pode ser impulsionado por apenas uns poucos artigos altamente citados, mas todos os artigos publicados em uma dada revista, mesmo aqueles que nunca são citados, são tidos como detentores do mesmo impacto.”

O problema em atribuir importância demais às revistas em que um pesquisador publica seus estudos é que isso gera uma cultura de menosprezar outros critérios de avaliação curricular. O DORA ressalta que os resultados da pesquisa científica são muito variados e não se resumem a artigos. Uma pesquisa pode criar bancos de dados, softwares, novos materiais e métodos de pesquisa, além de servir para treinar novos cientistas.

Essa campanha ética começou no campo da biologia celular por ser uma área onde o fetiche do fator de impacto é particularmente nocivo, mas isso se estende por todas as ciências naturais. Outro problema por trás dos fatores de impacto é que áreas da ciência muito concorridas tendem a ver a formação de “panelinhas” de cientistas que dominam algumas das publicações mais disputadas. Isso não é novidade, e todo pesquisador sabe disso.

Um dos problemas apontados no manifesto é que muitos estudos preferem citar artigos de revisão no rodapé, em vez de usarem referências a descobertas originais. Isso prejudica o mérito individual de estudos realmente inovadores e faz com que várias revistas com a palavra “review” no nome adquiram impacto altíssimo.

Justiça seja feita, a culpa de tudo isso não é da cientometria. O fator de impacto foi criado para orientar bibliotecas sobre quais revistas assinar, não para avaliar a qualidade da ciência publicada nelas. A própria Thomson Reuters, empresa que faz o levantamento sobre fator de impacto hoje reconhece isso em sua definição sobre o índice. E uma das recomendações mais diretas do DORA é que revistas deixem de alardear seus fatores de impacto em suas campanhas promocionais.

Resta saber se a campanha contra o fator de impacto vai sensibilizar a comunidade científica. Se o movimento ficar restrito a uma meia dúzia de pesquisadores, instituições e publicações, aqueles que aderirem podem sair prejudicados no fim. Mas algumas grandes revistas já assinaram o manifesto, incluindo a “Science”, que publicou um editorial sobre o assunto. A “Nature” rejeitou o documento, alegando que há itens demais agrupados numa declaração só, o que generaliza demais o problema. Uma demanda do DORA claramente difícil de atender é que a Thomson Reuters abra de graça o banco de dados que usa para calcular o fator de impacto. A “Nature” se declara contrária a abusos no uso do fator de impacto, porém, e já reforçou o ponto em vários editoriais.

Agências de fomento de pesquisa, como o brasileiro CNPq, têm procurado adotar critérios mais específicos e menos cientométricos para conceder suas “bolsas de produtividade em pesquisa”. Mas isso não impede que revisores individuais deixem de ser seduzidos por fatores de impacto maiores.

Pessoalmente, tendo a concordar com alguns argumentos da “Nature” para não assinar o documento. Independentemente do fator de impacto, algumas publicações sempre terão mais prestígio que outras. E é bom que exista um mercado onde diferentes cientistas disputem espaço por mais atenção. Jornalistas sabem que a probabilidade de uma pesquisa importante sair na “Science” é muito maior do que no “Australasian Journal of Applied Nanoscience”.

Com o financiamento à ciência mundial ainda abalado pela crise, não está claro se medidas paliativas como essa vão diminuir o clima de canibalismo e de vale-tudo que está se instaurando em algumas áreas da ciência. Mas se alguém tem de sair perdedor, que pelo menos as regras do jogo sejam mais claras. O DORA tem um mérito importante nesse aspecto.

__________________________________________________________________________

PS. Osame Kinouchi, do blog Semciência, levanta uma questão interessante, pertinente ao universo brasileiro das avaliações acadêmicas: “A CAPES ranqueia os programas de pós-graduação usando o fator de impacto das publicações do programa, o assim chamado QUALIS.  Imagino que aceitar o DORA significa rejeitar o QUALIS. Ou não?”
Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor

O simpático mau humor de Vanzolini

Por Rafael Garcia
29/04/13 14:26

Paulo Vanzolini em cena do documentário “Mapas Urbanos” (Foto: Wladimir Fontes/Reprodução)

COM TANTA GENTE que conhecia bem o biólogo-sambista Paulo Vanzolini, não vou me atrever aqui a escrever um grande perfil. Ele não gostava de dar entrevista, e infelizmente nunca o entrevistei. Nas poucas vezes em que pedi sua opinião para tratar de assuntos marginais, recebi um não como resposta. Recentemente, só alguns poucos jornalistas tiveram o privilégio de falar com ele sobre ciência. Um deles foi meu amigo Eduardo Geraque, repreendido por Vanzolini numa conversa por não saber pronunciar corretamente o nome do biólogo Ernst Mayr.

Após a morte de Vanzolini na noite passada, a lembrança maior que o cantor deixa para mim é mesmo a de sambista. Perdoem-me os herpetólogos. A última vez em que tive a oportunidade de ouvi-lo foi em 2009 no Teatro Fecap, em São Paulo, num show que ele fazia para promover “Tempos de Cabo”, livro de memórias sobre a época em que estava no serviço militar. Não era propriamente um show de Vanzolini. Quem cantava era sua mulher, Ana Bernardo, enquanto o biólogo ficava tomando cerveja numa mesa em cima do palco. Durante o espetáculo, Vanzolini fazia apenas breves interrupções para contar alguns causos e para reclamar quando cerveja estava quente. Aos 85 anos, um pouco debilitado, os músicos temiam exigir esforço demais do compositor ao colocá-lo para cantar.

Em certo momento, uma pessoa da plateia pediu a Ana que cantasse “Capoeira do Arnaldo”. A cantora respondeu que a música infelizmente não estava no repertório do show e que ela não tinha de cor a letra, muito comprida. Quando começou a se preparar para a canção seguinte, porém, foi interrompida pelo marido: “Eu lembro a letra. Deixa que eu canto.” E, sob olhar de reprovação da mulher e dos músicos, o sambista começou a cantar a canção à capela, para delírio do público que lotava o modesto teatro.

Qualquer pessoa que já tenha falado com Vanzolini sabe que ele era um sujeito teimoso e meio emburrado. (Um bom exemplo está nesse perfil do biólogo, que o igualmente carrancudo Claudio Angelo publicou hoje em seu blog.) Quando eu assistia ao show, eu estava impressionado por ver como um cara tão mal-humorado conseguia ser tão cativante.

No caso de Vanzolini, a receita talvez esteja na humildade com que ele sempre apresentou tudo aquilo o que produzia. Ele parecia ter orgulho do valor poético de suas letras, mas nunca se considerou bom músico. Dizia não saber nem a diferença entre tom maior e menor. Na entrevista que eu mencionei mais acima, o biólogo rejeitou a paternidade da “teoria dos refúgios”, trabalho de importância crucial para explicar a biodiversidade da Amazônia. Segundo ele, a “culpa” de esse estudo ter sido alçado à condição de teoria foi do geógrafo Aziz Ab’Sáber, que contribuiu com o trabalho mais tarde.

Vanzolini, que morreu sem nunca ter reivindicado elogios, foi vastamente admirado como compositor e como biólogo. Mas não cobrava favor e não gostava de puxa-saco. É impossível não simpatizar com um sujeito desses em tempos nos quais a música e a ciência parecem estar sofrendo uma onda de narcisismo.

Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor

Patentes de DNA, uma polêmica que envelhece

Por Rafael Garcia
15/04/13 12:51

ATAREFADA EM MEIO A polêmicas como a do casamento gay, a do direito ao voto e a do controle de armas, a Corte Suprema dos EUA começa a analisar hoje um processo que é do interesse de muitos cientistas: as patentes sobre genes. Se os juízes cumprirem o prazo prometido, um veredito que cria jurisprudência inédita sobre o assunto deve sair até junho.

O caso em questão é um processo que duas ONGS movem contra a Myriad Genetics, empresa detentora de patentes sobre os genes BRCA1 e BRCA2, que possuem variantes ligadas ao risco de câncer de mama. O querelante do caso, a Associação de Patologia Molecular dos EUA, alega que genes são entidades naturais que não podem ser submetidas a patentes, pois isso impede o avanço da pesquisa básica e o acesso de indivíduos a informações que estão em seus próprios cromossomos. A Myriad alega que seus genes patenteados usados em diagnósticos não são naturais, mas sim formas alteradas do DNA isoladas e caracterizadas para uso em análises, o que os torna algo peculiar, sujeito à apropriação.

O teor do argumento da Myriad dá uma ideia do tipo de discussão bizantina que deve ocorrer na Suprema Corte nas próximas semanas. Especialistas que têm comentado o assunto dizem que essa polêmica demorou tanto para chegar à última instância nos tribunais que a questão agora não tem efeito muito prático. Citado em artigo na revista Nature, um advogado especializado em propriedade intelectual diz que as patentes em análise na Suprema Corte não cobrem o método para analisar os genes BRCA, e mesmo que a Myriad perca o caso, esses testes genéticos para risco de câncer de mama não se tornariam mais acessíveis ao público geral em razão disso.

Mas mesmo não tendo muita importância prática, talvez a questão tenha alguma relevância ideológica, e cabe aos juízes responder a uma pergunta importante: até que limite uma empresa pode se apropriar de informações sobre a natureza? Vilanizar a iniciativa privada certamente não é o melhor jeito de tratar isso. Uma abordagem mais sensata é tentar determinar o ponto de equilíbrio em que os direitos de propriedade intelectual são sólidos o bastante para incentivar o investimento privado em pesquisa aplicada, e ao mesmo tempo limitados o suficiente para impedir que interesses particulares bloqueiem o desenvolvimento da pesquisa básica. Isso, claro, é mais fácil de dizer do que de fazer.

O ritmo natural do sistema jurídico, tanto no Brasil quanto nos EUA, torna inviável analisar com muito detalhe esse tipo de problema, e aquilo que chamamos de “gene patenteado” pode ter muitas formas diferentes. No caso dos transgênicos, se aplicam a partes do DNA alteradas artificialmente, enquanto nos casos de diagnósticos, se aplicam a mutações que ocorrem naturalmente, mas tomam diferentes formas. E há também as patentes sobre métodos para determinar se um determinado gene está presente. E há os pedidos de patentes sobre técnicas para sequenciar genomas inteiros das pessoas. O que vale, e o que não vale? Quanto tempo os tribunais levariam para criar jurisprudência para cobrir todos esses casos?

Aqui nos EUA, a forte cultura de patenteamento (e o gosto dos americanos por processos jurídicos) levou o caso ao caminho dos tribunais. Mas isso não afeta as empresas que adotam outra estratégia: a do investimento contínuo em inovação. As empresas de biotecnologia que se preocupam em estar sempre à frente de suas áreas não precisam se preocupar em patentear tudo o que veem pela frente. O lucro vem mais de sua preocupação em bater os competidores, e aí cabem apenas patentes sobre coisas que realmente constituem invenções. A ironia dos exageros na proteção jurídica a invenções da iniciativa privada é que ela acaba levando a patentes que atrapalham o próprio ambiente de competitividade, um elemento ideológico tão caro ao capitalismo de mercado dos EUA.

A reportagem do “New York Times” sobre o assunto também levanta um ponto interessante com relação a isso. Mesmo que a Myriad mantenha a patente sobre seu método de análise do BRCA1 e do BRCA2, essa questão vai acabar se esgotando sozinha. Dentro de pouco tempo, é possível que um sequenciamento completo de DNA de uma pessoa passe a custar menos do que os US$ 4.000 que a Myriad cobra para fazer um diagnóstico com seus dois genes. É o caminho natural da inovação: após a invenção da privada, quem vai querer mover mundos e fundos para proteger a patente do pinico?

Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor

O que o mapa do cérebro vai mapear?

Por Rafael Garcia
03/04/13 07:01

Os belos mapas cerebrais de ressonância magnética por difusão ainda não vêem sinapses (Imagem: V. Wedeen)

O PRESIDENTE BARACK OBAMA bem que se esforçou ontem para dar à Iniciativa BRAIN —seu novo pacote de estímulo à neurociência— a cara de um projeto candidato a ser marco histórico na ciência. E o esforço deu certo: a imprensa americana fez muitas referências ao fabuloso programa que dará início a um ambicioso “mapeamento do cérebro”.

Em seu pronunciamento, Obama se postou providencialmente ao lado de Francis Collins,  ex-chefe do famoso Projeto Genoma Humano, para anunciar a novidade. Incluiu a empreitada em sua lista de “Desafios do Século 21”: metas da sociedade que exigem importantes transições de fase na ciência e na tecnologia. Sugeriu até uma possível corrida internacional em em torno do objetivo, prometendo fazer os EUA chegarem na frente dos europeus, que já têm um projeto para simular o cérebro humano em computador.

No final do dia, porém, ficamos sem saber para onde o mapa do cérebro prometido por Obama vai nos levar.

“Mapear as conexões entre neurônios”, “desvendar a mente” ou “simular o cérebro” são expressões que podem ter muitos significados diferentes. Essa falta de objetividade foi alvo de crítica à própria concepção do projeto europeu, o Blue Brain, de Henry Markram. Sua simulação do cérebro humano parte de um conceito que os neurocientistas chamam de “regra de Peters”, segundo o qual alguns aspectos da distribuição das sinapses (conexões entre neurônios) são aleatórios. Esse atalho foi necessário porque mapear efetivamente todas as sinapses antes de fazer uma simulação seria um esforço de escala inimaginável.

Markram certamente conduz um trabalho cuidadoso, mas é alvo de duras críticas por parte de cientistas que defendem outra abordagem. “Qualquer um pode simular um grande número de equações e ‘alegar’ que elas agem como um cérebro”, diz Sebastian Seung, do MIT. “Qual é a prova, então?”.

Seung, que expõe suas críticas no livro “Connectome” diz que faltam ao meio neurocientífico critérios claros para julgar o sucesso de programas que visam esquadrinhar o cérebro por completo. O próprio Markram já havia lançado antes severas críticas a Dharmendra Modha, da IBM, que disse ter simulado um cérebro completo de um gato completo em 2007, prometendo a versão humana para breve.

Segundo Seung, a única maneira de confirmar se simulações do cérebro estão corretas —sejam elas mais complexas, como a de Makram, ou mais simples como as de Modha— é implantando-as num corpo ou em algum aparato físico capaz de interagir. Dessa forma, veríamos se elas se comportam como pensamentos humanos ou não. Pode até ser que esse cyborg seja capaz de se fazer passar por gente, o que seria uma revolução tecnológica em si. Mas isso, claro, ainda está no domínio da ficção científica. Há pesquisadores no campo, como o brasileiro Miguel Nicolelis, que duvidam que o cérebro seja computável.

O núcleo de cientistas de Seung (que também inclui Jeff Lichtman, de Harvard), porém, defende uma abordagem mais mundana para “mapear o cérebro”. Vários deles estavam ontem na plateia do discurso de Obama. A ideia deles é esquadrinhar cada uma das cerca de 100 trilhões de sinapses humanas usando microscópios de alta resolução (falei um pouco da iniciativa neste post e neste outro), apostando que isso trará uma virada qualitativa à neurociência. Mas o próprio Seung reconhece que, apesar de já haver tecnologia para tal, isso é trabalho para um século inteiro. Mapear um cérebro de camundongo, ou uma parte de um cérebro humano, seria uma meta mais realista por enquanto.

Posso estar sendo pessimista, mas quando os líderes da Iniciativa BRAIN atribuírem objetivos mais concretos ao projeto, duvido que eles fixem o conectoma humano completo como meta. Isso não quer dizer, claro, que não possam ser adotados objetivos importantes, como a melhora da resolução da tecnologia por ressonância magnética, usada nos melhores mapas cerebrais de hoje.

Antes que tecnologias como essa deem conta de enxergar as minúsculas sinapses, porém, a “corrida para mapear o cérebro” será apenas uma caricatura daquilo que foi a corrida pelo genoma humano. Até que surja uma tecnologia revolucionária, será uma corrida lenta, bem lenta.

Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor

Cosmologia: vítima do próprio sucesso?

Por Rafael Garcia
02/04/13 07:01

As anomalias na distribuição de temperatura no Universo: a linha branca longa divide o cosmo em duas
metades com temperaturas diferentes, e o círculo mostra a “mancha fria” (Imagem: Planck/ESA)

VOLTANDO AO ASSUNTO dos novos dados que o satélite Planck divulgou sobre a história do Universo, decidi escrever um pouco sobre a paisagem cosmológica vista pelos físicos teóricos, não por aqueles envolvidos diretamente com as sondas de observação. Eu ainda estava um pouco intrigado com a maneira com que a Nasa e a ESA haviam anunciado os novos números, e decidi conversar com um amigo que poderia me abrir uma outra perspectiva.

Era particularmente difícil para mim entender qual seria a importância de a idade do Universo mudar de 13,7 bilhões para 13,8 bilhões de anos, ou de a parcela de energia escura no cosmo mudar de 71,4% para 68,5%. Ainda que esses números sejam importantíssimos para calibrar novas observações cosmológicas, o avanço me parecia meramente incremental do ponto de vista do conhecimento básico.

Descobri que eu não estava sozinho quando falei com Urbano França, do Instituto de Física Corpuscular da Universidade de Valência. Há dois anos, conheci Urbano quando ele era pesquisador visitante do Centro Para Astrofísica de Harvard, e criei o costume de aborrecê-lo com perguntas impertinentes sobre cosmologia. E desta vez, ao que parece, minha implicância não era tão injustificada.

“O Universo, então, é o que todo mundo esperava”, me disse Urbano, sobre os dados do Planck. “Ele é 100 milhões de anos mais velho do que se achava, mas já faz tempo que esse número está dentro da margem de erro do WMAP [o satélite que mapeou o cosmo antes do Planck].”

Mas, se nada mudou, o que deixou os cosmólogos tão empolgados, então?

ANOMALIAS

Para os teóricos, o aspecto mais interessante do novo mapa do Universo, na verdade, não são as minúsculas correções alardeadas pelo projeto, mas sim as sutis anomalias sugeridas pelo WMAP, que o Planck confirmou.

Uma delas é que o cosmo parece ser ligeiramente assimétrico, com mais temperatura distribuída de uma lado do que de outro. “As pessoas esperavam que essa anomalia fosse embora, mas ela não foi”, disse Urbano. Segundo ele, a busca por uma teoria que tente explicar esse aspecto deve se intensificar agora.

Outra anomalia interessante é uma região grande do Universo na qual a temperatura média se aproxima do ponto mais baixo da variação. Ninguém sabe ainda como essa “mancha fria” se formou, e isso também deve passar a ser objeto de especulação teórica mais frequente.

INFLAÇÃO

Uma outra consequência dos dados do Planck será a de eliminar muitos modelos teóricos complicados que tentam explicar a chamada inflação cosmológica: o período de expansão acelerado no universo jovem.

O que a inflação fez foi expandir o cosmo abruptamente a um tamanho dezenas de ordem de magnitude maior. Ao nascer, o universo era basicamente uma nuvem homogênea de matéria e energia, sem estrelas e galáxias intercaladas por grandes vazios. Sem estrutura. A única heterogeneidade que existia eram pequenas “flutuações quânticas”, diferenças desprezíveis na densidade de energia entre um ponto e outro do universo.

Quando a inflação fez o universo crescer extremamente rápido em sua infância, essas flutuações também acabaram se expandindo e ganharam um tamanho apreciável. “Uma vez que a expansão inflacionária do Universo desacelerou, a matéria começou a cair nos lugares que já tinham um pouco de matéria, e essa região continuou atraindo o resto”, explica Urbano.

Há uma infinitude de teorias tentando explicar como a inflação ocorreu. Ela certamente foi alimentada por um campo quântico, uma região dominada por uma força, assim como um campo magnético de um ímã. Ninguém sabe, porém, o que exatamente era esse campo, e o “mercado” de teorias está movimentado agora. A “cotação” de uma teoria sobe quando surgem mais evidências de que ela pode estar certa.

O que deve ocorrer após os resultados do Planck, segundo Urbano, é que a cotação das teorias mais complicadas —que usam vários campos para tentar explicar a inflação— entrará em queda. O mapa revelado pelo Planck, diz, está mais de acordo com uma teoria que se baseie num único campo como motor da inflação cosmológica.

Uma escola teórica que sai perdendo com isso é a da chamada supersimetria —uma teoria que prevê o dobro do número de tipos de partículas elementares conhecidas hoje. A existência de mais classes de partículas implica a existência de mais campos, o que complica ainda mais as explicações para a inflação.

NEUTRINOS

Outro aspecto pouco noticiado sobre o mapa do Planck é que ele parece ir contra novas teorias que preveem a existência de um quarto tipo de neutrino –a partícula elementar fantasma com massa quase desprezível e com carga elétrica neutra.

Além dos três tipos conhecidos de neutrinos, físicos especulavam que haveria outros, cujo papel durante a inflação seria o de tornar o Universo um pouco mais heterogêneo. O mapa revelado pelo Planck, porém, torna essa hipótese desnecessária.

Urbano estava justamente pesquisando aspectos teóricos para tentar impor um limite ao número de tipos de neutrinos existentes, e disse ter ficado feliz com o resultados do Planck, já que uma maior precisão de dados tornará seu trabalho teórico mais preciso também.

“Estou contente que os resultados estejam cada vez mais precisos, mas nem sempre é fácil vender essa ideia e explicar por que é importante investir nisso”, me disse Urbano. Seu temor, explicou, é o de que a cosmologia acabe se tornando “vítima do próprio sucesso”. Será cada vez mais difícil convencer governos a enviarem sondas de € 700 milhões para estudar a radiação cósmica de fundo. Sem notícias bombásticas de grandes viradas científicas, fazendo ciência incremental, esse projetos perdem seu poder de sedução.

Urbano porém, explica que avanços teóricos só serão possíveis se, em algum momento os experimentos forem precisos o bastante para explicar previsões como as das anomalias mencionadas acima. Além disso, comparadas com o custo de um acelerador de partículas gigante, sondas cosmológicas são bem baratas (o LHC custou mais de dez vezes o Planck).

O Planck e o WMAP, afinal, tiveram como importante legado a descoberta de grandes questões (como as anomalias), e não apenas de respostas. Urbano, então, resume seu melhor argumento para continuarmos estudando a radiação cósmica de fundo: “O gasto não é absurdo, e nunca se sabe como a pergunta vai vir”.

Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor

O mapa da matéria

Por Rafael Garcia
22/03/13 15:10

NO MATERIAL QUE publicamos sobre o novo mapeamento do Universo primordial, feito pelo satélite Planck, tivemos de deixar de fora algumas informações novas. O cosmo, afinal, é mesmo grande demais para caber numa folha de jornal. Destaco aqui acima, então, uma das imagens excluídas da reportagem de hoje: o mapa da distribuição de matéria no Universo.

“É uma imagem belíssima, estonteante”, disse ontem Martin White, cientista do projeto que concedeu uma entrevista coletiva a jornalistas em Washington. A declaração causou um certo constrangimento entre leigos, pois a beleza, claro, está nos olhos de quem vê. Para mim, parece um pedaço de tecido jeans desbotado, com uma triha de sujeira no meio. Mas façamos um pouco mais de esforço para enxergar a beleza da figura.

Este mapa do cosmo é diferente do mapa que saiu na reportagem de hoje, que se refere à distribuição de temperatura do universo primordial. O mapa da matéria inclui tanto a matéria bariônica (a matéria comum da qual estrelas, planetas e pessoas são feitos) quanto a matéria escura (uma entidade misteriosa cuja natureza ainda é desconhecida). É um mapa da variação na quantidade de matéria que existe em todo o céu, indo daqui até o limite do Universo visível, em todas as direções.

Fazer o mapeamento requer um truque bastante engenhoso, porque a matéria escura, como seu próprio nome diz, não é visível. Astrônomos só conseguem inferir sua existência por causa da atração que ela exerce sobre a matéria comum. E fazer um mapeamento da massa do Universo sem incluir a matéria escura seria algo meio sem sentido, já que ela representa 84.5% de toda a massa do universo.

Os físicos usaram então uma técnica batizada de “lente gravitacional”, para fazer o mapeamento. Ela consiste em analisar os desvios que a luz sofre quando passa perto de regiões onde há muita massa, e depois remapear a direção de emissão dessa luz. O Planck fez isso com a radiação cósmica de fundo (a luz mais primordial que permeia o universo) e conseguiu obter o mapa acima, onde as partes com mais matéria aparecem branqueadas.

O efeito é extremamente sutil, e anteriormente esse tipo de mapeamento havia sido feito apenas para partes do Universo. O Planck conseguiu fazer a melhor determinação desse efeito até agora para todas as direções do céu, não apenas parte delas. (A única exceção é para a trilha cinza que corta a imagem na horizontal. São as regiões onde o brilho da Via Láctea, nossa galáxia, impede o Planck de enxergar mais longe.)

“A imagem, então, não é apenas bonita”, disse White. “As nossas teorias sobre como as estrelas e galáxias se formam fazem uma previsão sobre como essa imagem deveria se parecer, e quando comparamos a previsão com essa imagem, elas se encaixam de modo espetacular.”

Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor

Nicolelis contra rapa

Por Rafael Garcia
07/03/13 08:01

Miguel Nicolelis (Foto: Fábio Berriel/Folhapress)

ENCONTREI HÁ ALGUNS dias em Boston uma das personalidades mais controversas da ciência brasileira: Miguel Nicolelis, professor de neurociência da Universidade Duke, da Carolina do Norte (EUA). Não conheço nenhum pesquisador que seja ao mesmo tempo tão talentoso e tão irascível quanto este neurocientista paulistano que ficou famoso por suas “interfaces cérebro-máquina”, as próteses robóticas controladas com a força do pensamento, captado por eletrodos no cérebro.

Quem acompanha a carreira de Nicolelis sabe que as notícias sobre o cientista giram em torno de dois temas: relatos de sucesso de seus experimentos mirabolantes e as trocas de acusações com outros pesquisadores.

Os dois últimos episódios são um bom exemplo disso. Logo após publicar um estudo relatando um experimento no qual fez ratos enxergarem radiação infravermelha (luz invisível de baixa frequência), Nicolelis foi acusado por outro cientista de ter se apropriado de uma ideia que não era sua. A disputa ainda não foi solucionada, mas ele nega ter se apropriado da criatividade alheia.

Nicolelis se divorciou de boa parte da comunidade neurocientífica brasileira após o jovem IINN (Instituto Internacional de Neurociências de Natal), centro de pesquisa idealizado por ele, ter sofrido uma cisão. Questionado por restringir o uso de equipamentos por colaboradores de outras universidades, o cientista rompeu com Sidarta Ribeiro, seu ex-orientando, que deixou o cargo de diretor do instituto e levou a maior parte da equipe para a Universidade Federal do Rio Grande do Norte.

Minha rápida conversa com Nicolelis em Boston no encontro anual da AAAS (Associação Americana para o Avanço da Ciência) foi a primeira em mais de dois anos. O cientista estava insatisfeito com a cobertura da Folha sobre os acontecimentos em Natal, mas voltou a conversar conosco sobre seus trabalhos mais recentes. O diálogo foi retomado após outros jornais brasileiros também começarem a acompanhar a controvérsia que ainda se desenrola em Natal. O IINN perdeu a maior parte de sua equipe original e hoje é criticado por ter uma produção científica muito baixa, levando em conta os investimentos que recebeu.

“Isso é típico do Brasil”, disse Nicolelis ao comentar o assunto em Boston. Sua explicação para o caso: “O sucesso incomoda muito.”

AS BRIGAS

A despeito das disputas que Nicolelis trava no Brasil, sua reputação nos EUA parece inabalada. Não é incomum vê-lo falando em eventos como o encontro da AAAS, em jornais de grande circulação e em programas de TV de grande audiência. Foi até ao Daily Show, do apresentador John Stewart. Mesmo nessas oportunidades, porém, a personalidade difícil de Nicolelis transparece.

Em Boston, num debate sobre o futuro das interfaces cérebro-máquina, o brasileiro dirigiu algumas provocações a Todd Coleman, bioengenheiro da Universidade da California que pesquisa o uso de sinais cerebrais externos para controlar próteses. Sua técnica está mais perto de ganhar aplicações porque é menos invasiva do que a usada por Nicolelis (que requer o implante de eletrodos dentro do cérebro), apesar de ser bem menos precisa. Nicolelis criticou Coleman por estar desenvolvendo próteses em parceria com uma empresa.

“Como não tenho empresa, posso complementar sua informação”, disse Nicolelis, interrompendo uma entrevista coletiva. “Haverá aplicações de implantes invasivos, sim, porque eles são muito melhores do que dispositivos de superfície, são ordens de magnitude melhores.”

A afirmação é verdadeira, claro, mas soou um tanto quanto agressiva no momento, e serviu aos presentes como demonstração do temperamento difícil de Nicolelis, um cientista capaz de iniciar um bate-boca com quase qualquer um que encontre pela frente. Pelo pouco que conheço do pesquisador, sei que algo que o deixa bastante alterado são as disputas de autoria por ideias ou realizações científicas.

Em 2008, após publicar uma pequena reportagem sobre neurociência do paladar, recebi um telefonema de Nicolelis, que tinha uma reclamação. Era meu texto, que tinha mencionado um estudo do qual ele era colaborador, mas não citava seu laboratório. Ele exigia que o jornal publicasse uma errata, ainda que minha omissão tivesse sido proposital (quando há pouco espaço para a notícia, evitamos transcrever a lista completa de autores de estudos, mencionado apenas o pesquisador principal). Não atendemos a seu pedido, claro, mas creio que o cientista acabou esquecendo a escaramuça depois.

Na época, ainda antes do racha no IINN, Nicolelis já andava às rusgas com outro grupo de neurocientistas —aliados a Roberto Lent, da UFRJ (Universidade Federal do Rio de Janeiro— que o criticava por ter tido acesso priviliegiado a recursos públicos ao construir o IINN. Foi preciso a Sociedade Brasileira de Neurociência intervir para “apartar” a briga.

É difícil entender se o cientista compra tantas brigas por ter dificuldade para trabalhar em equipe ou por um excesso de zêlo em proteger o mérito de seu trabalho. Qualquer que seja o motivo (certamente não é um só), seu temperamento não o tem ajudado. A controvérsia sobre o estudo com luz infravermelha, porém, parece uma acusação ética mais grave do que as habituais. É difícil julgar para quem está de fora.

O EXOESQUELETO ROBÓTICO

A grande obsessão de Nicolelis agora é concluir um de seus projetos mais ousados, o de ligar uma interface cerebral a um “exoesqueleto”, uma armadura robótica que permitiria um paciente paraplégico caminhar. Buscando atrair atenção para a empreitada, Nicolelis conseguiu cerca de R$ 30 milhões em verbas federais para tocar o projeto e fechou um acordo com a CBF para demonstrar a tecnologia pela primeira vez na Copa do Mundo de 2014. Um paraplégico dará o pontapé inicial no jogo de abertura. O projeto soa um pouco megalomaníaco, mas se a ideia der certo, claro, talvez a publicidade se justifique.

O problema é que a agenda está apertada. Sem ter demonstrado a tecnologia em animais, ainda, completar o projeto em um ano parece difícil. “Estou prestes a fazer isso com macacos agora”, disse Nicolelis, que mostrou em Boston imagens da prótese que ele vai usar nos animais. “Esperamos que ainda neste ano um macaco possa andar com o exoesqueleto.” Se não tiver tempo de aplicar a tecnologia a um voluntário humano até a Copa, ele diz que terá uma segunda chance para a demonstração pública, na Olimpíada do Rio em 2016.

O AVATAR

Na última quinta-feira, ainda sob críticas à baixa produtividade do IINN, o cientista publicou outro trabalho inovador. Usando uma ideia que remete à tecnologia mostrada no filme de ficção científica “Avatar”, conectou a mente de dois ratos, fazendo com que um sentisse aquilo que o outro experimentava. Questionado sobre o IINN, Nicolelis usou esse estudo para rebater as críticas.

“Metade desse estudo foi feito em Natal. Essa é a minha resposta”, disse. “É um trabalho capaz de atingir o mundo inteiro. Nenhum trabalho na ciência brasileira jamais teve essa repercussão”, disse o cientista, antes de o trabalho ser publicado.

Segundo Nicolelis, o estudo sobre o avatar está ligado ao projeto da prótese robótica. “Ele descreve a técnica de treinamento que vamos usar em nossos pacientes”, disse. “Da mesma maneira que treinamos macacos, vamos treinar o paciente para andar de novo.”

Ao fazer piada, também, Nicolelis descamba para a disputa pela primazia de suas ideias. Questionado pelo uso da expressão “avatar”, consagrada pelo filme de James Cameron em 2009, o cientista retrucou. “Eu propus fazer isso em 2002, na revista na Scientific American, num artigo sobre o uso de corpos virtuais”, afirmou. “Estamos muito à frente do filme. Ele é quem deveria pagar royalties para a gente.”

Me despedi de Nicolelis no centro de convenção Hynes, em Boston, debaixo de uma forte nevasca. O cientista estava atrasado para pegar o voo, e questionei sobre se o avião poderia decolar. Otimista, preferiu pegar logo um táxi até o aeroporto e tentar a sorte. Espero encontrá-lo em alguma outra ocasião para saber mais sobre a situação em Natal. Pelo que pude perceber, apesar de questionar o mérito dos críticos, o cientista está se movimentando para reagir.

________________________________________________________________________

PS. Em relação à controvérsia do estudo com luz infravermelha, Roberto Takata, do blog Gene Repórter, esclarece que a escaramuça já está solucionada. Está tudo explicado numa entrevista com Antonio Carlos Roque da Silva Filho.
Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor

O astrofísico que virou purê de ervilha

Por Rafael Garcia
17/02/13 08:01

O super-purê de ervilha criado pelo físico aposentado Nathan Myhrvold (Foto: “Modernist Cuisine”/LCC)

O QUE VOCÊ FARIA de sua carreira depois ter trabalhado como astrofísico ao lado de Stephen Hawking, ter chefiado a divisão de pesquisa da Microsoft e ter publicado trabalhos importantes em climatologia? Quando Nathan Myhrvold se aposentou, foi para cozinha e resolveu testar algumas receitas.

Com a erudição e a criatividade desse americano de Seattle, porém, passar as tardes no fogão não poderia ser qualquer empreitada. Com recursos que acumulou ao longo dos anos, Myhrvold montou em 2007 um grande laboratório para estudar culinária, o Cooking Lab, onde recebia regularmente a visita de chefs e de outros cientistas.

O laboratório ganhou fama entre gourmets mundo afora após a publicação de “Modernist Cuisine“, uma enciclopédia de ciência gastronômica com cinco volumes, baseada em observações e experimentos conduzidos no laboratório.

Tomei contato com o trabalho de Myhrvold pela primeira vez ontem em Boston, onde está acontecendo agora o encontro anual da AAAS (Associação Americana para o Avanço da Ciência). Um dos quatro palestrantes do evento de ciência mais importante dos EUA era o físico-chef. (“Uma vez físico, você nunca deixa de ser físico.”)

Myhrvold diz ter começado a se interessar por cozinha porque a tradição criativa dos grandes chefes sempre foi um processo empírico, e o experimentalismo é um lado natural da ciência.  Diferentemente de cientistas, porém, muitos grandes chefs não se preocupam em entender “por que” um prato é excepcional. Se uma receita dá certo, basta a eles repeti-la para que ela saia boa de novo.

Essa abordagem começou a mudar após inovações introduzidas por chefs como Ferran Adriá, do lendário restaurante catalão El Buli, que experimentava receitas de maneira mais analítica e controlada. Myhrvold certamente não é um Adriá, mas teve o mérito de elevar o experimentalismo culinário ao extremo. E sua obsessão teórica, além disso, não deixou nenhum detalhe de sua pratica culinária escapar de suas análises.

O cientista desvendou até mesmo a física de coisas simples como, por exemplo, por que pães em uma torradeira mal regulada queimam tão facilmente, indo do subtostado ao carbonizado em menos de um minuto. (“O albedo da torrada, sua capacidade de refletir radiação, cresce diminui à medida que ela fica mais escura, então mais radiação é absorvida, e a torrada tosta numa curva exponencial.”)

Em sua palestra, aprendi coisas que nunca terei a oportunidade de fazer, como tratar batata em banho de ultrassom para que fique mais crocante após a fritura. Ou, então, empregar uma centrífuga industrial de alta rotação para fazer purê de ervilha. (O processo separa a parte mais apetitosa da ervilha do amido e do óleo.)

Algumas dicas de sua palestra foram voltadas à cozinha doméstica, mostrando como aprimorar o sabor de comida comum. Criar uma estrutura de papel alumínio ao redor do carvão numa churrasqueira, por exemplo, ajuda a cozinhar a carne de maneira mais homogênenea, uma ideia extremamente simples, mas que nunca vi um churrasqueiro usar.

O melhor conselho de todos, porém, foi o método de Myhrvold para decantar vinho (em linguaguem não enochata: oxigenar a bebida para melhorar seu sabor). Em restaurantes finos, normalmente, os garçons usam um decânter, uma garrafa larga feita especialmente para circular o vinho, num ritual que costuma ser cheio de pompa. O cientista, porém, aplicou seus conhecimentos de físico-química para criar um método muito mais eficiente (e menos elegante) de decantar a bebida: bater o vinho no liquidificador, não importa quão caro seja.

“Isso faz melhorar drasticamente o sabor de vinhos tintos jovens”, disse o cientista, recomendando o método à plateia. “Mas minha parte preferida é olhar para a cara de horror das pessoas quando eu ponho um Bordeaux no liquidificador.”

Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor

Obama e o dilema do oleoduto

Por Rafael Garcia
30/01/13 16:40

Exloração de petróleo em areias betuminosas de Alberta, no Canadá (Foto: Dru Oja Jay/Dominion/CC)

BARACK OBAMA INICIOU seu segundo mandato há uma semana com uma mensagem ambiental forte no discurso de posse, prometendo “reagir à ameaça da mudança climática” para não “trair nossas crianças e suas futuras gerações”. Se o presidente americano tem intenção de traduzir suas palavras em ações concretas, porém, a melhor oportunidade de todas está em suas mãos agora: a decisão sobre o oleoduto Keystone XL.

Essa obra de infra-estrutura, alvo da principal disputa de ambientalistas contra o governo Obama hoje, é aquela que cria uma nova ligação entre a região das areias betuminosas de Alberta, no Canadá, com as refinarias do Golfo do México. É uma obra de extensão relativamente pequena dentro do Sistema de Oleodutos Keystone, que já atravessa os EUA de cima abaixo, mas permitirá aos Estados Unidos dobrarem o processamento desse tipo de petróleo.

Obama já tomou algumas medidas incrementais para tentar reduzir as emissões de gases do efeito estufa no país, como novas regras exigindo que motores de carros e usinas termelétricas sejam mais eficientes. É provável, porém, que o impacto dessas medidas seja desprezível diante do aumento de emissões que seria causado pela aprovação do oleoduto.

Paremos para pensar nos números. O físico Myles Allen, da Universidade de Oxford, estimou num célebre estudo que a maior quantidade de carbono que podemos jogar na atmosfera neste século, antes de aniquilarmos todas as chances de o aquecimento global ultrapassar níveis perigosos (+2°C acima da média pré-industrial), é de 1 trilhão de toneladas de carbono. A essa altura, a contagem já passou dos 566 bilhões.

As areias betuminosas de Alberta compõem uma das das maiores reservas de carbono do mundo, guardando 133 bilhões de barris de petróleo. Fazendo as contas de acordo com taxas de conversão da EPA (Agência de Proteção Ambiental) essa quantidade representa em média 15 bilhões de toneladas de carbono em emissões. O processo de extração e refinamento do óleo de areias betuminosas, porém, é um dos mais sujos do mundo, e acaba resultando em emissões que são quase o triplo aquelas do petróleo normal.

Imaginemos, então, o que representam 45 bilhões de toneladas de carbono: isso é 4,5% de tudo aquilo que podemos emitir. Para esse carbono todo ir parar na atmosfera, porém, ele precisa ser levado até um polo de refinarias que dê conta de processá-lo e enviá-lo para consumo. É exatamente isso que o Keystone XL pretende fazer ampliando a conexão entre Alberta e o Texas. Alguém pode alegar que essas areias betuminosas serão exploradas de um jeito ou de outro, mesmo que o escoamento da produção seja lento. Mas se a queima desse petróleo se estender ao longo de décadas, parte do carbono teria algum tempo para ser reabsorvido.

Depois de fazer essas contas nas costas de um envelope, comecei a duvidar da confiabilidade sobre o número que obtive. Não achei nenhum estudo sério que fornecesse um número categórico, ainda, mas há vários trabalhos estimando o tamanho do estrago em outras unidades. Se essa conta tiver algum erro ou alguma aproximação indevida, creio que pelo menos o resultado está na ordem de grandeza correta. Em declaração à revista Scientific American, o engenheiro John Abraham, da University de St. Thomas no Minnesota, que estudou as reservas de Alberta, dá uma ideia da dimensão do problema. Ele afirma que se toda a reserva já tivesse sido refinada e consumida, o aumento da  temperatura média do planeta teria tido um acréscimo de 0,4°C, cerca de metade do que se viu até agora.

Isso nos faz retornar ao dilema de Obama, que está na iminência de dar sinal verde ao Keystone XL. Obama tinha adiado a decisão sobre o projeto no início do ano passado, mas por outro motivo. O traçado original do oleoduto cruzava lençóis freáticos importantes na Dakota do Sul e no Nebraska, e vazamentos poderiam ter impacto grave sobre reservas de água potável e sobre biodiversidade. Agora o mapa do oleoduto foi reprojetado, e o Congresso, estimulado pelo lobby do petróleo, começou a fazer pressão. Uma carta assinada por 53 senadores (44 republicanos e 9 democratas) exige que o presidente libere a obra o quanto antes.

Normalmente, o governo federal não teria o poder de vetar esse tipo de projeto com uma simples canetada. Como o Keystone XL integra uma rede de oleodutos que atravessa a fronteira do país, porém, a obra precisa de aval do secretário de Estado e do presidente dos EUA. Contra o lobby do petróleo está a comunidade científica, que pediu o veto ao projeto numa outra carta, assinada por 18 dos climatólogos mais importantes do país.

Um eventual veto ao oleoduto, evidentemente, não vai resolver todo o problema do clima mundial e não necessariamente colocará os EUA numa trajetória de redução de emissões. Uma aprovação do Keystone XL, porém, representaria um retrocesso em relação ao pouco que Obama fez pelo clima até agora. Seria um sinal claro de que Washington não possui vontade política para lidar com a mudança climática, apesar do discurso.

Mais opções
  • Google+
  • Facebook
  • Copiar url
  • Imprimir
  • RSS
  • Maior | Menor
Posts anteriores
Posts seguintes
Publicidade
Publicidade
  • RSSAssinar o Feed do blog
  • Emailrafael.garcia@grupofolha.com.br
  • FacebookFacebook
  • Twitter@rafagarc

Buscar

Busca
Publicidade
  • Recent posts Teoria de Tudo
  1. 1

    Mudança interna: o blog vira coluna

  2. 2

    Sobre o fim do hiato no aquecimento global

  3. 3

    A árvore onde nasceu a epidemia de ebola

  4. 4

    Aquecimento de 2°C: a conta que não fecha

  5. 5

    O cinema 3D chega à biologia celular

SEE PREVIOUS POSTS

Blogs da Folha

Publicidade
Publicidade
Publicidade
  • Folha de S.Paulo
    • Folha de S.Paulo
    • Opinião
    • Assine a Folha
    • Atendimento
    • Versão Impressa
    • Política
    • Mundo
    • Economia
    • Painel do Leitor
    • Cotidiano
    • Esporte
    • Ciência
    • Saúde
    • Cultura
    • Tec
    • F5
    • + Seções
    • Especiais
    • TV Folha
    • Classificados
    • Redes Sociais
Acesso o aplicativo para tablets e smartphones

Copyright Folha de S.Paulo. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização escrita da Folhapress (pesquisa@folhapress.com.br).