Teoria de Tudo

por Rafael Garcia

Perfil Rafael Garcia é repórter de Ciência.

Perfil completo

O centenário do foguete espacial

Por Rafael Garcia
21/07/14 16:58
O foguete de propulsão a combustível líquido inventado por Robert Goddard (Foto: Instituição Smithsonian)

O foguete de propulsão a combustível líquido de Robert Goddard (Foto: Instituição Smithsonian)

QUEM VISITA pela primeira vez o fabuloso Museu Nacional do Ar e do Espaço, em Washington, dificilmente reserva alguns segundos para olhar um punhado de tubos velhos e enferrujados junto da entrada sul do prédio. Ao se depararem com o famoso o módulo de comando da Apollo-11, as hordas de crianças que entram naquele saguão não costumam parar antes para ver aquelas ferragens que, se estivessem em cima de um telhado, poderiam facilmente ser confundidas com chaminés de cozinha.

Essa modesta geringonça, porém, é um dos foguetes originais de Robert Goddard (1882-1945), o inventor da tecnologia que efetivamente levou o homem até a Lua. É compreensível, então, que enquanto o mundo inteiro celebra o aniversário de 45 anos da chegada do homem à Lua, pouca gente se lembre de uma efeméride mais redonda: o centenário das primeiras patentes de Goddard para o foguete movido a combustível líquido.

Em 1914, foguetes não eram uma grande novidade em si, uma vez que chineses usavam versões movidas a pólvora desde o século 13. O emprego desse tipo de propulsão com fins de transporte já era uma proposta antiga, também, só que ninguém tinha conseguido fazer a ideia “decolar”.

Materiais sólidos em geral não eram opções práticas para tornar foguetes um meio de transporte manobrável, pois não é fácil cessar a queima de combustível sólido uma vez que ela começa. Foi o esquema de Goddard para uso de combustível líquido que finalmente deu uma autonomia razoavelmente longa para foguetes. A nova tecnologia dispensava o uso de tanques sob alta pressão e tornava possível ligar e desligar foguetes. (Combustíveis sólidos voltaram a ser usados em alguns tipos de veículos para exploração espacial, mas essa é outra história).

Goddard começou a trabalhar em sua ideia em 1913, quando recebeu um diagnóstico de tuberculose e teve de deixar seu emprego de pesquisador na Universidade de Princeton, em Nova Jersey. Ironicamente, a nova situação de ócio é que lhe conferiu tempo para trabalhar no projeto pelo qual tinha mais apreço após voltar para Massachusetts, seu estado natal. Seu novo foguete foi descrito numa patente em 1914, mas só após muito preparo e planejamento é que o cientista foi realizar seu primeiro experimento. Em 1926, ele fez decolar um foguete movido a gasolina, que entrava em cobustão ao ser misturada com oxigênio líquido, armazenado em outro tanque.

Eu só fui me dar conta da efeméride do foguete espacial hoje, após ler um ótimo post no blog do jornalista Cory Powell, contando sobre a recepção fria que as ideias de Goddard tiveram em sua época. Em 1920, Goddard publicou um livro intitulado “Um método para atingir altitudes extremas”, no qual especulou diversas possíveis aplicações para seu foguete. Uma delas era justamente conseguir chegar à Lua. (Goddard não chegou a propor o envio de astronautas, mas sim detonar um míssil no satélite natural da Terra, de forma que a explosão pudesse ser vista daqui, validando a tecnologia.)

Como conta Powell, não foram só as crianças que deixaram de se impressionar com a perspectiva futura dos foguetes que ele construía. Um editorial do “New York Times” sobre seu livro ridicularizou a ideia de que foguetes seriam capazes de acelerar no vácuo do espaço. “Isso contraria uma lei fundamental da dinâmica, algo que apenas o Dr. Einstein e outra dúzia de eleitos, poucos e qualificados, estão licenciados a fazer”, dizia o jornal.

Após a chegada de Neil Armstrong à Lua, justiça seja feita, o Times publicou uma impagável errata. Reconheceu que o ceticismo em relação à ideia de Goddard se baseava não apenas em uma compreensão equivocada das ideias de Einstein como também das de seu predecessor no rol de grandes gênios da física, Isaac Newton. Naquele ano, enfim, o foguete de Goddard entrou para o rol das coisas impossíveis que se tornaram possíveis.

A copa que abalou Marte

Por Rafael Garcia
08/07/14 15:56
Quando o jipe Curiosity pousou em Marte, foi a maior comemoração. Uma vitória dos EUA teria levado a mesma empolgação (Foto: JPL/Nasa)

Quando o jipe Curiosity pousou em Marte, em 2012, foi a maior comemoração na sala de controles da missão. Uma vitória dos EUA na copa teria gerado a mesma empolgação? (Foto: JPL/Nasa)

UMA SEMANA ATRÁS, na noite do dia em que a seleção dos Estados Unidos perdeu para a Bélgica e foi eliminada da Copa do Mundo, cientistas e engenheiros da Nasa que trabalham no projeto Mars Science Laboratory, do jipe-robô Curiosity, receberam um e-mail com o seguinte texto:

“Caros integrantes da equipe do Mars Science Laboratory,

Para evitar que a rede de computadores sai do ar da mesma forma que ocorreu na última vez em que a seleção dos EUA jogou, por favor sejam solidários com a equipe tática e não assistam a jogos por streaming em seu PC ou Mac. Caso queiram assistir a outra partida, por favor dirijam-se a uma das áreas comuns onde há transmissão por TV.

Obrigado,

James Erickson

Gerente de projeto – Mars Science Laboratory

JPL (Laboratório de Propulsão a Jato da Nasa)”

Se alguém duvida que o Brasil esteja sediando a “Copa das Copas”, está aí a prova de que até os americanos foram contagiados pela febre do futebol. E, mesmo entre os americanos, até o estereótipo cientista/nerd/engenheiro passou a ser um sujeito que não consegue perder uma partida.

No e-mail acima, que circulou entre engenheiros e depois vazou para a imprensa, não ficou claro se algum aspecto da missão do Curiosity foi comprometido por causa da queda da rede no JPL. Se alguma coisa atrasou por causa disso, creio, foi por uma boa causa. Marte pode esperar.

O homem mais inteligente do mundo

Por Rafael Garcia
23/06/14 13:31
Flávio de Carvalho Serpa (1948-2014) em seu hábitat natural (Foto: reprodução/Facebook)

Flávio de Carvalho Serpa (1948-2014) em seu hábitat natural (Foto: reprodução/Facebook)

QUANDO EU AINDA era um novato na cobertura de ciência, numa conversa com minha colega Martha San Juan França, ouvi ela se referir ao físico e jornalista Flávio de Carvalho Serpa como “o homem mais inteligente do mundo”. Com essa reputação entre os colegas, evidentemente fiquei curioso para conhecê-lo.

Na primeira vez em que o encontrei, num encontro informal de jornalismo científico, ele se revelou um cara totalmente despretensioso, quase a antítese do título que os amigos tinham lhe conferido por brincadeira. No bar, não fazia nenhum esforço para parecer um gênio. Na verdade, adorava desviar o assunto de ciência para falar bobagem.

Seu título honorário, fui descobrir depois, era mais do que merecido. Conheci pouca gente capaz de se intrometer tão a fundo nos afazeres da física. Conseguia extrair as observações mais pertinentes e as sacadas mais bacanas para fazer o público leigo entender assuntos cabulosos como o bóson de Higgs, a teoria das cordas e as dimensões extras de espaço.

Ele conversava com esses monstros da física como se estivesse batendo papo com um colega de redação. E sempre que alguém publicava uma matéria sobre física ou algum assunto de ciência mais intricado, logo em seguida aparecia o Flávio com um texto melhor. Devorava livros de ciência como se fossem best-sellers de banca. Sempre escrevia as melhores resenhas.

Com a morte dele nesta madrugada, aos 66 anos, todo mundo que o conhecia ficou muito triste e meio chocado. Foi muito cedo. É uma sensação ruim pensar que fiquei tanto tempo sem bater papo com ele. Ainda ontem, o Humberto Werneck, do Estadão, estava torcendo para ele melhorar. Agora, lendo o blog do Flávio, vejo quanta coisa ele escreveu e eu ainda não li. Ele fez o favor para a gente de deixar um portfólio legal de matérias que podemos fuçar quando estamos tentando entender algo inexplicável. Universos múltiplos? Computação quântica? Ele encarava tudo.

Eu não sei se o Flávio era realmente o cara mais inteligente do mundo, mas se não era ele conseguia enganar a gente muito bem. O que eu sei é que agora, sem termos ele para nos ajudar a compreender toda sorte de coisas complicadas, nós, leigos, estamos um pouco mais desconectados da ciência.

O espetáculo da ciência

Por Rafael Garcia
12/06/14 20:58
Juliano Pinto usa o exoesqueleto robótico para dar o pontapé inicial da Copa (TV Globo/reprodução)

Juliano Pinto usa o exoesqueleto robótico para dar o pontapé inicial da Copa (TV Globo/reprodução)

O NEUROCIENTISTA Miguel Nicolelis trabalhou duro nos últimos meses produzindo a interface cérebro máquina e o exoesqueleto usados pelo jovem paraplégico que deu o pontapé inicial simbólico na abertura da Copa. Trabalhou, porém, num ambiente de segredo, o que gerou um bocado de desconfiança. O feito a ser mostrado no Itaquerão seria só uma encenação para fins de espetáculo ou seria a demonstração real de um avanço científico relevante?

O pontapé inicial, finalmente, foi executado pelo jovem Juliano Pinto, 29. Como espetáculo, o evento decepcionou um pouco. Quanto à ciência, pode ser que haja motivo para comemoração, se Nicolelis adotar mais transparência com a imprensa e com a comunidade científica a partir de agora. Seria interessante ver mais detalhes de uma tecnologia cuja eficácia só foi demonstrada com imagens ambíguas.

É verdade que a frustração sobre a apresentação no Itaquerão foi em grande medida culpa da TV, que mostrou poucos segundos de filmagem. Mas a extensão do avanço científico representado pelo feito ainda é uma incógnita.

A promessa inicial de Nicolelis era a de usar eletrodos implantados no cérebro de um voluntário vítima de lesão medular para que este realizasse movimentos precisos com as pernas. Ilustrações de divulgação do projeto mostravam uma paraplégica entrando em campo numa cadeira de rodas, levantando-se dela, caminhando até a bola no meio do campo e chutando-a.

Hoje, pelas imagens de TV e fotos na internet, o que se viu foi um rapaz vestindo uma armadura pesada, apoiado por duas pessoas, chutando levemente uma bola posicionada bem à sua frente, na lateral do campo. Juliano não andou até lá. Foi levado por um carrinho motorizado.

Antes do início de Brasil x Croácia, Nicolelis já comemorava o feito, em inglês, no Twitter: “We did it!” (Nós o fizemos!). No Facebook, começou a despejar vídeos das sessões de teste do exoesqueleto em seu laboratório em São Paulo, realizadas nas últimas semanas. As imagens mostravam alguns voluntários movimentando as pernas e se deslocando, mas com pouco controle motor, pendurados numa espécie de guindaste. Alguns voluntários dão depoimentos emocionados.

SINTONIA FINA

Não é exagero dizer, porém, que a proposta de controle fino dos movimentos, a rigor, ainda não foi demonstrada. Nicolelis pode argumentar que ofereceu uma prova de princípio da viabilidade de sua tecnologia, e que o controle preciso é uma meta futura. Mas atingir um controle fino de movimentos não é apenas um avanço incremental neste caso. É a diferença entre vermos uma pessoa controlando uma prótese robótica e uma prótese robótica controlando uma pessoa, conforme argumentei aqui.

Provavelmente Nicolelis atingiu algum avanço no desenvolvimento do exoesqueleto, mas não está claro o quanto isso significa diante da meta de fazer uma pessoa paralisada “andar de novo”. Chutar uma bola a 15 cm de distância equilibrado por duas pessoas é uma tarefa relativamente simples comparada à promessa inicial de caminhada independente e chute controlado.

Juliano usava uma touca de captação de eletroencefalografia conectada à veste robótica, em vez de uma interface com eletrodos conectados ao cérebro, originalmente prometida pelo cientista. A tecnologia mais invasiva, dizia Nicolelis, proporcionaria mais precisão. A razão da mudança nunca ficou muito clara. O cientista nunca mencionou se houve receio de tentar aprovar às pressas no Conep (Comissão Nacional de Ética em Pesquisa) o uso de eletrodos invasivos em seus voluntários.

Com uma bola colocada junto a seu pé, talvez fosse mais fácil Juliano chutá-la do que fazer qualquer outra coisa. Será que um sinal de eletroencefalografia truncado, ou mesmo um ruído, poderia desencadear um chute depois de algumas tentativas? Nicolelis teve chance de afastar esse ceticismo sobre o mérito da demonstração no Itaquerão, mas não o fez. Conduziu toda a fase de testes humanos de seu exoesqueleto sem publicar qualquer relato formal sobre o desempenho da tecnologia. Diferentemente do que é praxe na comunidade científica, o projeto Andar de Novo foi transformado numa demonstração teatral antes de ser avaliado por outros cientistas.

Mas, se Nicolelis realmente atingiu o objetivo inicial do projeto, terá muitas oportunidades de dobrar a língua dos céticos. Terminado o jogo de abertura, não há mais a pressão do prazo e a necessidade de guardar surpresas para festa nenhuma. Seria de bom tom, para um projeto que consumiu R$ 33 milhões em investimento público, começar a submeter artigos científicos a periódicos de prestígio, que coloquem cada detalhe sob questionamento de revisores. Uma entrevista coletiva e uma visitação a seu laboratório aberta à imprensa mais crítica também seriam um gesto desejável.

Uma regra sagrada da metodologia científica, refraseada pelo astrônomo Carl Sagan, indica que “alegações extraordinárias requerem provas extraordinárias”. Sob este mandamento, Nicolelis ainda está em dívida com a comunidade científica e com o público.

A estatística da bola e o relinchar da zebra

Por Rafael Garcia
12/06/14 07:30
Zebra no Portobello Resort, em Mangaratiba (RJ), onde a seleção da Itália se hospeda (Ricardo Moraes/Reuters)

Uma zebra em Mangaratiba (RJ), no hotel onde a seleção da Itália se hospeda (R. Moraes/Reuters)

ONTEM À TARDE, 24 horas antes do início da Copa, entreguei minhas apostas para o bolão da redação da Folha. Dei os meus palpites na raça, juro, sem apelar para as novas ferramentas da indústria das apostas, que tem inspirado vários modelos estatísticos para prever qual será a seleção campeã mundial de 2014.

Se depender da matemática, ao que parece, o Brasil já é hexacampeão. Dois dos modelos que mais estão dando o que falar na internet indicam que a chance de a seleção canarinho ganhar a Copa é praticamente de 1 para 1: um cara-ou-coroa. Estou me referindo aqui às projeções do jornalista e estatístico Nate Silver (45% de chance para o Brasil) e à do banco de investimentos Goldman Sachs (48,5%).

Um modelo estatístico totalmente brazuca, feito pela Fundação Getúlio Vargas, parece ser menos otimista, apontando 28% de probabilidade. Ainda assim, é uma projeção que nos dá bastante vantagem em relação à segunda seleção com mais chances, a Espanha, 15%.

Outros dois modelos criados por especialistas do mercado financeiro também apontam o Brasil como principal candidato ao título, mas com chances bem mais modestas. São o da empresa de auditoria KPMG (22% de chance para o Brasil) e do serviço de notícias financeiras Bloomberg (19,9%).

Todas essas previsões contam com modelos berm detalhados, que processaram um bocado de dados. O da FGV, por exemplo, foi alimentado com o resultado de todos os jogos envolvendo seleções nos últimos quatro anos. Os números foram usados para prever a força de ataque e defesa de cada seleção, e o modelo rodou 100 mil simulações.

O modelo do Goldman Sachs foi alimentado com os resultados de todos os jogos oficiais entre seleções realizados desde 1960. (Existe algum banco de dados para isso? Ou o Goldman empregou um exército de estagiários para tabular todos esses resultados?) Os números foram usados depois para fazer o que os estatísticos chamam de análise de regressão.

A Bloomberg, que também aplicou regressão em seu modelo, apresentou-o com um interessante gráfico interativo, interpolando todos os possíveis cruzamentos entre equipes da Copa.

Se reconhecermos que existe algum rigor científico nessas previsões, não é impressionante que o Brasil seja apontado como campeão virtual em todas elas. O que eu acho mais curioso é que, apesar de todo o verniz metodológico, esses trabalhos produzam resultados tão diferentes quando se leva em conta os números erm si. Uma probabilidade de 19%, afinal de contas, é bem inferior a uma de 48%.

A MALDIÇÃO DO FAVORITO

Toda essa numeralha derramada pelos estatísticos às vésperas da Copa me fez lembrar de um estudo bem mais modesto, sobre o qual escrevi em 2009. Naquele trabalho, o astrofísico Gerald Skinner, da Nasa, usou como base de dados apenas os resultados da Copa de 2006 (em outras palavras, não precisou colocar nenhum estagiário no Excel).

Para fazer sua análise, ele adotou um abordagem diferente. Decidiu contar as instâncias em que acontecia um triângulo de derrotas em conjuntos de três equipes. Essas são as combinações de resultado onde time A vence time B, time B vence time C, e time C vence time A. Isso é uma situação na qual há ao menos uma partida em que o time favorito perdeu. E aplicando esse “coeficiente zebra” à estrutura de torneio da Copa, por fim, o cientista concluiu que a melhor equipe do mundo, não importa qual seja, corre 72% de risco de ser eliminada antes de se tornar campeã.

Se levarmos isso em conta, o resultado da simulação da FGV é a que mais se aproxima de uma projeção realista. Isso, claro, assumindo que a seleção do Brasil seja indubitavelmente a melhor, algo que está longe de ser consenso. Até onde eu sei, também, ninguém calculou ainda qual é a média histórica do “coeficiente zebra”. A copa de 2006 pode ter sido uma em que o equídeo listrado apareceu mais vezes do que o habitual.

Minha genial e original conclusão aqui, então, é que futebol é mesmo uma “caixinha de surpresas”. E deixemos que tudo se decida dentro das quatro linhas. Se esse pessoal do mercado financeiro fosse tão bom em prever futebol, afinal, talvez também fosse mais eficaz em prever bolhas financeiras e crises econômicas.

‘Big Science’ na floresta

Por Rafael Garcia
26/05/14 14:22
O projeto de enriquecimento de CO2 para árvores na Carolina do Norte (EUA) (Foto: Universidade Duke)

O projeto de enriquecimento de CO2 para árvores na Carolina do Norte (EUA) (Foto: Universidade Duke)

SE ALGUM DIA você estiver sobrevoando a Amazônia ao norte de Manaus, com alguma sorte, poderá observar estruturas semelhantes a estas acima, emergindo do dossel de uma floresta na Carolina do Norte. Vistas de longe, não dão muita pista sobre o que podem ser. Seriam vestígios de alguma antiga civilização avançada que habitou a região? Algum sinal de presença extraterrestre na região?

Essas torres ordenadas em círculos são certamente prova de que há vida inteligente ali, mas de um tipo mais trivial: cientistas tentando entender como funciona a floresta. No ano que vem, entrará em operação o primeiro conjunto de torres do experimento Amazon Face, que tentará descobrir como o excesso de gás carbônico atmosférico (o CO2, que hoje causa o efeito estufa) afetará a vida da mata.

Não é uma questão simples. Apesar de o efeito estufa ser a causa do aquecimento global, que levará mais secas à Amazônia, o CO2 em si serve como alimento para plantas. Ele pode permitir que elas ganhem mais massa, mesmo num clima onde as chuvas serão mais escassas, e ajude as árvores a enfrentarem o estresse hídrico.

No experimento, torres como as mostradas acima servirão para bombear CO2 sobre conjuntos restritos de árvores e ver como elas se saem comparadas a outras sob menor concentração do gás, conforme explicamos em reportagem publicada no mês passado. O experimento, o primeiro do tipo em uma floresta tropical, passou uma década de planejamento e só agora recebeu confirmação de financiamento (US$ 11 milhões) para sua fase inicial, bancada sobretudo por recursos públicos federais e estaduais.

Outra parte do orçamento sairá do BID (Banco Inter-Americano de Desenvolvimento). Alguém pode se perguntar por que uma instituição que financia projetos econômicos e sociais está ajudando a bancar um experimento de ciência básica. A resposta está na quantidade de projetos de infra-estrutura –sobretudo hidrelétricas– que o banco costuma fomentar na região. A saúde da floresta, que corre o risco de ressecar e virar savana sob o aquecimento global, é de interesse vital para o desenvolvimento regional: sem árvores a floresta não reteria a água necessária para mover turbinas de tantas hidrelétricas.

SECAS E QUEIMADAS

Mas mesmo um mega-experimento como esse não é suficiente para elucidar a questão. Tentativas de simular o futuro da Amazônia em computador indicavam inicialmente a savanização era algo a se temer, mas agor os melhores modelos computacionais sobre a dinâmica da floresta parecem pender para o outro lado. Para resolver esse dúvida, o resultado do Amazon Face precisará ser analisado em contraposição a outros projetos. São experimentos importantes, que ressecaram trechos de floresta propósito, feitos nas florestas nacionais de Caxiuanã e do Tapajós, ambos no Pará. E grandes experimentos de incêndios florestais, como o realizado na fazenda Tanguro, em Mato Grosso, também serão importantes.

O clima amazônico, afinal, não deverá revelar de maneira fácil os segredos sobre seu futuro. Como ainda é impossível realizar um experimento de grande escala que produza ao mesmo tempo aumento na concentração de CO2 e escassez hídrica, quem tentará fornecer respostas sobre o risco de savanização serão os próprios modelos computacionais, realimentados com informações dos próprios experimentos.

Além disso, como a floresta é um sistema complexo, não necessariamente os efeitos da mudança climática sobre esse a Amazônia podem ser replicados em pequenos pedaços de floresta, como aqueles que abrigaram os experimentos de ressecamento e o Amazon Face. Para isso, pesquisadores devem continuar estudando em diversos pontos da floresta o fluxo de água, gás carbônico e outras substâncias da mesma forma que o LBA (Experimento de Grande Escala da Biosfera-Atmosfera na Amazônia), o maior projeto de pesquisa em ecologia da região, que reinou impávido na ciência amazônica durante duas décadas. O projeto espalhou diversas de suas torres de medição de fluxo de gases por toda a Amazônia, e parte da infraestrutura usada ainda pode ser aproveitada.

MEGA-TORRE

Mais pesquisas de monitoramento devem agregar dados para responder à questão da mudança climática na floresta, porém. Em 2015 também deve finalmente começar a deslanchar para valer o projeto Atto (Amazon Tall Tower Observatory), que sofreu um certo atraso. A ferramenta central dessa iniciativa será uma torre de 320 metros –quase o dobro da altura do Edifício Itália– a 133 km de distãncia de Manaus. O projeto vai monitorar a atmosfera amazônica com um recorte vertical sem precedentes, e permitirá observações num raio de mais de 1.000 km.

O entusiasmo investido em todos esses projetos de ‘Big Science’ agora –além do dinheiro– reflete de certa forma a urgência com que é preciso estudar os efeitos do desmatamento e da mudança climática na Amazônia. Dados mais relevantes sobre a região como os coletados pelo LBA, por exemplo, levaram mais de 20 anos para produzirem um conhecimento mais relevante. O Amazon Face, por sua vez, está programado para durar 12 anos. Se cientistas demorarem muito mais para tentar entender o que acontecerá com a Amazônia –e se o mundo tiver de enfrentar os piores cenários previstos para o aquecimento global–, corremos o risco de ver os fatos atropelando as previsões.

O IPCC vai ao semiárido

Por Rafael Garcia
17/05/14 08:01

NO INÍCIO DESTA semana tive uma rápida conversa rápida com Chris Field, presidente do grupo de trabalho 2, do IPCC (painel do clima da ONU), responsável por mapear os impactos do aquecimento global. O climatologista, na ocasião, aguardava a saída de seu avião no aeroporto de Fortaleza, onde tinha ido participar do ciclo de conferências Adaptation Futures.

O evento, organizado pelo Inpe (Instituto Nacional de Pesquisas Espaciais), discutiu como diferentes regiões do Brasil devem se preparar para a chegada da mudança climática. Na breve entrevista que concedeu por telefone, Field, diretor do Departamento de Ecologia Global da Instituição Carnegie (EUA) deixou algumas impressões sobre o que foi discutido na conferência.

*

FOLHA – O sr. foi a Fortaleza num ano em que o Nordeste brasileiro foi particularmente afetado pela seca. Uma das previsões do IPCC para o local é justamente a recorrência mais frequente desse tipo de evento. Isso foi debatido conferência?

CHRIS FIELD – O encontro em Fortaleza se concentrou especificamente em adaptação, que é uma agenda muito importante. Em meus quatro dias em Fortaleza assisti a diversas apresentações, com muitos dados sobre impactos no Brasil.

Eventos de seca nesta parte do Brasil têm importância histórica. O relatório do Grupo de Trabalho 2 do IPCC dá um peso importante a encontrar maneiras de reduzir riscos, manejar riscos. A seca que vem acontecendo aqui deixa claro que já estamos nos deparando com riscos relacionados ao clima que não estão sendo bem manejados. Isso, mais do que nada, mostra o valor de se estar bem preparado para lidar com os riscos climáticos.

Quando se fala em adaptação, muita gente pensa em obras grandiosas como diques para deter o aumento do nível do mar em áreas costeiras. O que o IPCC gostaria de ver sendo feito em áreas interioranas, como o semiárido que vai sofrer com a seca, o que pode ser feito?

A maneira mais justa de responder a isso seria dizer que o IPCC gostaria de ver os especialistas locais se reunirem e tentarem descobrir quais são os impactos mais prováveis em situações específicas. Entre os tipos de opções que devem ser discutidas são conservação de água para a agricultura, uso de culturas apropriadas para recursos hídricos e quais tipos de instalações para gestão e armazenamento de água são compatíveis com o ambiente local. A principal mensagem do IPCC não é que a estratégia A, B ou C seja a melhor. Nossa mensagem é que, ao reconhecermos que existe um problema, isso deve ser um estímulo para reunir especialistas de todas as partes envolvidas num diálogo para decidir qual estratégia é a melhor em uma dada situação.

O sr. discutiu a questão da transformação da Amazônia em savana no encontro? O último relatório do IPCC apresenta essa questão como algo que ainda não se tem muita certeza sobre se vai ocorrer ou não.

Foram apresentados alguns estudos sobre florestas e sobre a Amazônia, mas eu infelizmente não pude ficar para acompanhar todos. Não sei se há grandes novos insights sobre o assunto, isso continua a ser uma das preocupações centrais numa escala que envolve todo o sistema terrestre.

Após a queda do desmatamento no Brasil nos últimos anos, nossa maior fonte de emissão deixou de ser o corte de árvores. Hoje as atividades de agropecuária em si são os maiores emissores. Quais mudanças precisam ocorrer na agricultura diante do aquecimento global?

É importante distinguir entre medidas de adaptação, que permitam agricultores e pecuaristas se saírem o melhor possível diante das condições climáticas, e medidas de mitigação, medidas para reduzir a quantidade de mudança climática que ocorre.

Entre as medidas de adaptação que discutimos estão mudanças em tipos de cultura e em revezamento de culturas. Já quando se fala em reduzir a emissão de gases do efeito estufa, algumas das medidas mais eficazes são mudanças no manejo de fertilizantes. Alguns dos gases-estufa mais potentes têm como origem a fertilização excessiva. Então, com mais cuidado com o momento, a quantidade e a posição em que é usado o fertilizante, é possível adotar meios efetivos de minimizar a emissão de gases-estufa na agricultura.

Outro assunto importante é o corte raso de florestas. É preciso comentar que o Brasil teve um sucesso incrível em reduzir a perda de floresta nos últimos anos, ainda que com cautela, pois essa tendência parece ter cessado ou se revertido recentemente.

Muito do investimento em adaptação precisa ser feito em países em desenvolvimento, e países ainda debatem como arranjar uma maneira de fazer as nações industrializadas fornecerem esse dinheiro. O sr. acredita que estamos mais perto de tornar isso realidade?

Essa questão é importante e difícil. Minha sensação é a de que, no relatório do IPCC, identificamos muitas maneiras de investir em adaptação que têm baixo custo e trazem benefício de curto prazo, e precisamos aproveitar o máximo possível dessas oportunidades. Mas, ao fim, restarão outras medidas que não são tão baratas e podem requerer cooperação internacional. Eu gostaria de lhe dizer algo sobre perspectivas de sucesso em cooperação internacional, mas simplesmente não conheço nenhuma.

Superbactérias: um produto da economia de mercado

Por Rafael Garcia
06/05/14 07:01
Países que relataram ao menos um caso de tuberculose multirresistente, em vermelho (Imagem: OMS)

Países que relataram ao menos um caso de tuberculose multirresistente, em vermelho (Mapa: OMS)

NA SEMANA PASSADA, tive uma interessante conversa com a epidemiologista brasileira Carmem Lúcia Pessoa-Silva, chefe do programa da OMS (Organização Mundial da Saúde) para combate a micróbios resistentes a antibióticos. Publicamos uma reportagem sobre o novo trabalho do grupo, um relatório que eleva o problema das chamadas “superbactérias” a uma crise global.

Uma das coisas que mais me impressionou na entrevista que tive com essa médica, uma das grandes responsáveis por dar o tom de urgência ao problema, foi sua preocupação com o fracasso da indústria farmacêutica em lidar com o problema. É basicamente uma falha de mercado, pois desenvolver antibióticos hoje em dia já não interessa a nenhuma instituição com fins lucrativos. Por outro lado, instituições independentes não tem tido como arcar com os custos de desenvolvimento desse tipo de droga.

Para Pessoa-Silva, os antibióticos têm de ser vistos como um bem público. “Nós deveríamos desconectar os custos de desenvolvimento e de fabricação do retorno financeiro com as vendas”, diz. É para projetar essa transição que a OMS está promovendo agora diálogos com a indústria farmacêutica e a indústria alimentar. Esta outra é uma das grandes responsáveis pelo surgimento de bactérias resistentes, também por uma falha da economia de mercado que permite o uso de antibióticos para engorda na pecuária, para prejuízo da medicina humana.

Longe de mim querer pedir o fim do capitalismo por causa disso (tenho grande apego a meus bens materiais), mas fui persuadido de que será necessária uma intervenção governamental para resolver essa crise. Leia abaixo íntegra da entrevista com Pessoa-Silva:

*

FOLHA – A crise da resistência a antibióticos já vem se desenhando há algumas décadas. O que o relatório da OMS traz de novo?

CARMEM LÚCIA PESSOA-SILVA - Pela primeira vez, uma avaliação tão completa foi realizada. É claro que você já existem muitos relatos e estudos isolados, mas é a primeira vez que a OMS faz uma avaliação sistemática com informações oficiais dos países sobre a situação das bactérias multirresistentes.

Esse relatório é sobre resistência antimicrobiana como um todo. A categoria dos micróbios engloba bactérias, vírus, protozoários. Isso inclui parasitas como o plasmódio da malária e o HIV, mas o relatório põe foco sobre o problema das bactérias, apesar de também apresenta um breve resumo da situação de outras formas de resistência microbiana.

E o relatório confirma o que se suspeitava com base em relatos mais pontuais: a situação da resistência antimicrobiana existe em todos os países investigados. Estamos chegando ao ponto em que o tratamento para infecções causadas por algumas bactérias já é praticamente impossível.

A OMS escolheu sete bactérias como foco dos problemas mais graves. Quais foram os critérios para avaliar isso?

Nós escolhemos essas sete bactérias porque elas tem uma gênese de infecção tanto nas comunidades quanto nos hospitais. Um exemplo de uma infecção que geralmente é adquirida na comunidade é a gonorreia. Ela é um problema crescente no mundo, e é claro que, em primeira instância, precisamos tentar evitar a transmissão, mas o que estamos verificando é que cada vez mais surge uma forma de gonorreia que não responde a nenhum tratamento disponível. Isso é muito grave.

Nós também estamos verificando que o Staphylococcus aureus está sendo cada vez encontrado em formas resistentes, tanto nas comunidades quanto nos hospitais. E, mais grave ainda é uma forma de resistência que ocorre em enterobactérias, como a Klebsiella. O Brasil teve um surto recente de Klebsiella resistente a todos os antibióticos. Estamos agora no limite de não ter nenhuma droga eficaz para essas infecções.

Entre os medicamentos perdendo eficácia, quais são aqueles que mais preocupam a comunidade médica? São as drogas de último recurso, como ciprofloxacina?

Durante algumas décadas havia uma certa ilusão e uma pretensão de a humanidade seria capaz de descobrir um novo antibiótico mais potente a cada vez que uma forma de resistência surgisse. Só que nós estamos chegando no limite. Há mais de 20 anos não ocorre o descobrimento de uma nova classe de antibióticos. Existem dificuldades científicas para isso, e existem dificuldades do ponto de vista de mercado para descobrir novas drogas. A crença de que sempre vai ser descoberto um novo antibiótico, que vai vir para resolver o problema, é uma falácia. Nós aprendemos depois de quatro décadas que a resistência aparece, um antibiótico após o outro. Nós avaliamos a situação de antibióticos de última linha, como a fluoroquinolona e a ciprofloxacina. É preocupante.

Veja o caso das infecções urinárias, por exemplo. No curso de uma gestação, é extremamente frequente que a grávida tenha uma, duas ou mais infeções urinárias. E é uma infecção frequente na mulher, mesmo fora da gravidez. Nós estamos verificando que, na maior parte do mundo, a resistência a drogas orais, como a ciprofloxacina, já atinge níveis em que ela não é mais eficaz nem em 50% dos tratamentos.

Para outras drogas de última linha, como os carbapenêmicos e as cefalosporinas, haviam sido observadas bactérias resistentes a essa geração de medicamentos, mas aí criamos os carbapenêmicos, e havia esperança de que eles poderia controlar isso. Qual nada. Estamos observando que as enterobactérias não estão mais respondendo a carbapenêmicos que estão na última das últimas gerações. Estamos chegando ao ponto em que infecções frequentes, sejam na comunidade seja no ambiente hospitalar, estão no limite de não serem mais passíveis de tratamento com os antimicrobianos existentes.

Quem deve levar a culpa por isso? É o uso indiscriminado de antibiótico para uso humano? É o uso de antibióticos na agropecuária?

É importante compreender que as bactérias existem no planeta desde muito antes da humanidade, e que elas sempre encontraram formas de sobreviver às adversidades do ambiente. O antibiótico agride as bactérias, e é natural que elas venham a desenvolver resistência aos antibióticos. Mas elas só desenvolvem essa resistência à medida que são expostas aos antibióticos.

Se o uso é abundante e maciço, vai haver uma aceleração da seleção de bactérias multirresistentes. Quanto mais a gente usa antibióticos, mais rápido vamos perder essas drogas. E nós precisamos mudar nossa forma de usar os antimicrobianos, seja no uso para tratar infecções em humanos, seja no uso em agropecuária.

No caso dos humanos, frequentemente uma pessoa tem uma febre que não passa, supõe que a febre esteja sendo causada por uma bactéria e começa a tomar antibióticos. Isso é feito sem procurar atendimento médico para um diagnóstico mais preciso, para saber se aquilo uma infecção bacteriana e requer mesmo um antibiótico ou não.

Há um uso indiscriminado tanto em saúde humana quanto na indústria alimentar. O uso de antibiótico em animais, principalmente o uso não terapêutico, para crescimento e engorda, precisa ser evitado. Existe um uso maciço hoje na ração e na água de animais de corte e também na piscicultura –em criações de camarão e peixes.

Esse tipo de uso é uma parte importante da pauta de discussões da OMS com a FAO (Organização das Nações Unidas para Alimentação e Agricultura). É um dos tipos de uso que deveríamos evitar. Estamos discutindo também com a OIE (Organização Mundial de Saúde Animal) a possibilidade de se diminuir o uso indiscriminado e o uso não terapêutico na produção de animais de corte.

A indústria alimentar muitas vezes usa o antibiótico misturado ao alimento dos animais. Em alimento comprado de fábrica, já existe uma certa quantidade de antimicrobianos, em baixas doses, o que é até pior em termos de seleção de germes multirresistentes. Existe também o uso de antibiótico na água dos animais.

Além de combater esse tipo de prática, o que pode ser feito contra as bactérias que já desenvolveram resistência? Existe uma via alternativa aos antibióticos para uso como medicamento. Uma década atrás, falava-se muito em resgatar o uso de vírus bacteriófagos como terapia, mas pouco se publica sobre isso agora.

O que precisa ser feito é adotar uma estratégia com duas linhas de ação. A primeira linha é ganhar tempo, evitando a infeção. No final das contas o nosso objetivo não é apenas preservar a capacidade de tratamento das infecções. O nosso objetivo fundamental é evitar que as pessoas adoeçam em primeira instância. Temos que promover mais os métodos que previnem a ocorrência das infecções, com melhorias das condições sanitárias das comunidades, com melhoras nas práticas de higiene doméstica, na lavagem de alimentos e das mãos, para evitar infecções de uma forma geral. Dessa forma se evita a necessidade de usar antimicrobianos.

Nos hospitais, é fundamental e urgente melhorar as condições de prevenção e controle de infeção. Os hospitais hoje em dia estão funcionando como fontes geradoras de resistência antimicrobiana.
E também é preciso melhorar a capacidade de diagnóstico para ter diagnósticos mais rápidos e mais precisos, para usar antimicrobianos com base nesses diagnósticos mais precisos.

Se de um lado temos de evitar infecções e promover o controle de infecções em hospitais, na outra parte precisamos promover o desenvolvimento tecnológico –novos métodos de tratamento, novas vacinas etc.– que vão ajudar a prevenção de infecção. E também novas alternativas terapêuticas. Podem ser novos antibióticos, mas não só. Existe ainda um campo enorme para ser explorado com novos antibióticos, mas há caminhos interessantes como alternativa ao uso de uma molécula antibiótica. Os fagos [bacteriófagos, vírus que infectam bactérias] foram explorados começo do século 20. Alguns estudos se iniciaram depois, mas é muito questionável. É uma área que não é bem conhecida, mas precisa ser estudada.

Existem outras estratégias que estão sendo estudadas, como a convivência ecológica. O Projeto Microbioma Humano, por exemplo, analisa bactérias “do bem”, que nos ajudam a nos defender das bactérias que causam infecção. Nós carregamos milhões de bactérias, e a maioria delas, na verdade, é necessária a nossa existência. Elas estão na pele, no tubo gastrointestinal e em outros lugares. Nós precisamos dessas bactérias. Hoje há muitas pesquisas para entender essas bactérias e como elas poderiam nos ajudar.

Por que o novo relatório da OMS deu menos destaque a outras formas de resistência microbiana, como para HIV ou malária?

O relatório apresenta um resumo da situação em malária tuberculose, HIV e influenza, porque já existem outros relatórios da OMS que falam especificamente dessas doenças de uma forma global, incluindo o problema da resistência. Por isso nesse relatório a OMS só apresentou um resumo, para demonstrar que a situação de resistência antimicrobiana afeta todos os germes.

A OMS já consegue estimar o impacto de saúde e o impacto econômico da resistência bacteriana?

Nesse relatório há um capítulo onde é feita uma análise para três das sete bactérias mais preocupantes. Queríamos saber se, ao estar infectada pela versão multirresistente dessas bactérias, em comparação à bactéria susceptível, uma pessoa teria maior risco de morte. Será que isso aumenta o tempo de hospitalização? Aumenta os custos de tratamento? Fizemos uma análise minuciosa de toda a literatura médica existente e demonstramos que o risco de morte para muitas das bactérias resistentes é pelo menos duas vezes maior quando comparado com uma bactéria susceptível a antibióticos. Existe um aumento real no risco de morte.

Mas nós estamos falando, por enquanto, de uma limitação de tratamento. Essas bactérias são multirresistentes, mas ainda há algum tratamento contra elas. O tratamento que resta são combinações tóxicas de drogas caras, e ainda assim o risco de morte continua elevado.

Os custos elevados de tratamento, porém, são apenas uma fração mínima do impacto econômico. Existem poucos estudos nessa área, mas estimamos que são em torno de um quarto do impacto está nos custos diretos. Os outros três quartos são custos indiretos, como a diminuição da produção no trabalho pelas pessoas infectadas.

O relatório de riscos mundiais do Fórum Mundial de Economia, de Davos, destacou em janeiro do ano passado um dos temas como a resistência aos antibióticos. A estimativa nesse relatório é a resistência a antibióticos pode ocasionar perdas de 1,4% a 1,6% do PIB. Isso é um impacto enorme. Nós estamos conduzindo estudos na OMS agora para avaliar esse impacto econômico com mais detalhes, mas os dados do Fórum Econômico Mundia já são interessantes para reflexão.

A sra. mencionou que há problemas de mercado para incentivar o desenvolvimento de novos antibióticos. O que a indústria farmacêutica pode fazer contra isso?

Esse é um problema que precisa ser discutido em colaboração entre os grandes laboratórios, o governo e a comunidade científica. De forma geral, é claro que a indústria produz para gera lucro; não é uma atividade filantrópica. Quando eles produzem um medicamento contra hipertensão, por exemplo, e o medicamento funciona, a pessoa começa a tomar aquele remédio, e toma para o resto da vida. É um uso crônico, prolongado. Eles gastam dinheiro para desenvolver o produto, para a produção e para o marketing, mas depois o investimento é recuperado e segue dando lucro durante anos, retornando muito mais dinheiro em relação ao que foi gasto.

Com os antibióticos no tratamento de uma infecção bacteriana, porém, o uso é curto. Eles em geral estão tratando infecções agudas. Além disso, como o surgimento de resistência é um fenômeno natural para as bactérias, com o passar dos anos, os antibióticos que um laboratório desenvolveram já não funcionam mais, e o retorno financeiro se acaba. É um mercado ingrato.

Além disso, quando se produz um antibiótico eficaz, o ideal é preservá-lo, e não fazer marketing para que ele seja usado maciçamente, pois quanto mais intensamente ele é usado, mais rápido vamos perdê-lo.

Essa equação para a fabricação de antibióticos precisa ser revista. O antibiótico, então, não pode mais ser visto como um bem comercial. Tem de ser visto como um bem público. Nós deveríamos desconectar os custos de desenvolvimento e de fabricação do retorno financeiro com as vendas.

Para isso, a OMS está trabalhando em negociações com a indústria farmacêutica e tentando descobrir qual seria um novo modelo econômico para equacionar, resolver e nos tirar desse beco sem saída no qual nos encontramos. A indústria não busca mais a produção de antibióticos porque ela não dá retorno, e nós estamos numa situação sem ter novos antibióticos eficazes para combater bactérias resistentes. Essa discussão está ocorrendo nesse instante, e envolve a OMS no centro, junto com governos, cientistas, buscando uma nova forma para equacionar custos de produção e decidir como reembolsar os custos dessa produção.

O principal recado da OMS agora, então, é que o problema têm de ser tratado como prioridade global?

Nós estamos diante de uma crise maior. Se nós não tomarmos medidas agora, nossos filhos, netos e as gerações futuras não vão ter tratamento para doenças comuns.

E não se trata apenas de voltar para a era pré-antibióticos na qual infecções simples podiam matar. Nós também corremos o risco de perder a medicina moderna. Pense num tratamento de câncer, por exemplo, no qual as pessoas ficam vulneráveis à infecção. Pense no tratamento de recém-nascidos prematuros. E cirurgias. Não teremos condições de manter tudo isso, porque essas situações são aquelas em que a pessoa fica vulnerável a infecções.

Cai um tabu: robô supera humano em reconhecer faces

Por Rafael Garcia
23/04/14 17:47
Marilyn Monroe, por Andy Wharhol

A Marilyn de Andy Wharhol; cientista usou fotos de famosos para criar programa (Imagem: divulgação)

UM ESTUDO PUBLICADO por uma dupla de cientistas de computação chineses sem muito barulho acaba de derrubar um tabu da inteligência artificial. Pela primeira vez, um computador conseguiu superar os humanos na tarefa de reconhecer faces, relatam os autores do artigo que descreve a façanha.

A maneira com que GaussianFace, o software criado pelos autores Chaochao Lu e Xiaoou Tang, da Universidade Chinesa de Hong Kong, atingiu essa meta é interessante por si só. Antes de falar sobre isso, porém, cabe explicar por que o trabalho deles (descrito num artigo ainda sem revisão independente) tem tudo para ser um marco se for confirmado por outros cientistas.

A inteligência artificial é um campo de pesquisa fascinante, mas também uma fonte de decepção para incautos, que entram na área cheios de idéias e saem cheios de frustrações. O ícone experimental disso é o do teste de Turing, no qual um computador precisa se fazer passar por humano numa dada tarefa. Há muitas versões do teste, e poucas são aquelas em que realmente um robô já é capaz de bater um espécime de Homo sapiens.

Uma divisão particularmente difícil da inteligência artificial é aquela que busca dar a computadores e capacidade de reconhecer formas e padrões com a mesma sofisticação que o sistema visual humano. Ao contrário do que muita gente pensa, a comparação das retinas de nossos olhos com uma CCD o sistema de captação de imagens de uma câmera eletrônica não se sustenta. O olho dos mamíferos e nosso sistema de processamento de imagens são muito, muito, muito mais complexos do que qualquer câmera.

A neurociência começou a se dar conta disso com os primeiros experimentos de Torsten Wiesel e David Hubel, em 1959, mostrando que o cérebro possui circuitos específicos para reconhecer formas (diferenciando, por exemplo, linhas horizontais de verticais). Desde então, cientistas enumeraram diversos mecanismos cerebrais associados a padrões específicos de visão. O mais notável talvez seja a chamada área facial fusiforme, descoberta por Justine Sergent e Nancy Kanwisher. É um pedaço do cérebro especializado em detectar faces.

Emular o funcionamento desses mecanismos orgânicos porém, sempre foi um desafio, afirmam Chachao e Xiaoou [pausa para os ocidentais rirem da combinação de nomes]. Segundo os cientistas, humanos têm em média uma taxa de acerto de 97,53% em reconhecer fotos de fisionomias que já lhes foram apresentadas. O DeepFace, o assustador sistema de reconhecimento facial do Facebook, tinha chegado quase lá, mas empacou na marca de 97,25%. Agora, o GaussianFace finalmente ultrapassou esse limite, atingindo 98,52%.

O novo programa foi construído sobre um banco de dados de 13 mil fotos retratando 6.000 diferentes celebridades. O programa localizava as faces automaticamente e as recortava em uma imagem de 150 por 120 pixels, uma resolução supreendentemente pobre, mas que otimiza o poder de processamento do computador responsável por rodar o algoritmo. Depois, o software recortava esses pedaços ainda mais em fragmentos de 20 pixels que se sobrepunham uns sobre outros. A interação entre esses, computados como uma média, é que geravam a “assinatura” de cada face na memória do computador. Testado no banco de dados, o Gaussian Face finalmente superou os humanos.

Pessoalmente, acho que o impacto social desse tipo de tecnologia, para o bem ou para o mal, ainda nem começou a desabrochar. Possivelmente terá aplicações mais impactantes do que simplesmente “etiquetar” fotos de amigos no Facebook. Imagine, por exemplo, o tipo de ferramenta de vigilância que pode ser construída sobre um algoritmo como o do GaussianFace. Futurologia à parte, acho que é preciso reconhecer que, desta vez, a inteligência artificial conseguiu romper uma barreira que não era nada trivial. O que pode ser mais macabro em um teste de Turing do que um computador que reconhece você e te chama pelo nome?

Pequeno glossário IPCCês-português

Por Rafael Garcia
12/04/14 07:01
Escultura do artista plástico Isaac Cordal ilustra a discussão do acordo do clima (Imagem: Divulgação)

Escultura do artista plástico Isaac Cordal ilustra a discussão do acordo do clima (Imagem: Divulgação)

A ÚLTIMA GRANDE reunião para a confecção do 5 relatório de avaliação do IPCC (painel do clima da ONU) termina hoje em Berlim, e tudo indica que será em clima de certo desânimo. O tomo do grupo de trabalho 3 da entidade, que fala de cortes de emissão de gases-estufa e outras formas de mitigação do aquecimento global, não traz notícias nada boas.

Em reportagem sobre a abertura do encontro, delineamos o conteúdo do “sumário para formuladores de política” do relatório, com base em uma cópia do documento que vazou para a imprensa há alguns meses. O texto final desse documento é o que será definido hoje, após representantes de governos debaterem o conteúdo os autores do relatório.

As conclusões principais do documento, que dificilmente devem mudar, possuem certo tom derrota. Enquanto o quarto relatório do IPCC, de 2007, se dedicou em grande parte a delinear o que seria preciso fazer para evitar um aquecimento médio de 2°C do planeta, o relatório atual reconhece tacitamente que praticamente já não há tempo para tal.

O LIMITE DE 2°C

A obsessão dos estudiosos do clima com esse limite –ou seja, o acréscimo de 2°C na temperatura média do planeta em relação à que existia na era pré-industrial– é compreensível. Existe um consenso razoável de que além disso, é provável que a mudança climática afete em algum grau cada aspecto de nossa economia: água, saúde, produção de alimentos, ocupação da terra, energia, crescimento econômico e até segurança.

O IPCC afirma que seu relatório “não recomenda metas específicas de mitigação, mas avalia as opões disponíveis”. É importante o painel esclarecer que não pretende interferir em decisões dos governos e reconhecer a soberania de quem tem mandato para tal. Mas, na prática, sua mensagem aos governos é algo como: “esta é nossa última chance, e só há um caminho a seguir”.

CONCENTRAÇÃO DE CO2

Esse caminho significa cortar emissões rápido para manter a concentração de CO2 abaixo de 480 ppm (partes por milhão) no final do século. Já estamos em 400 ppm, e subindo rápido, o que torna isso uma missão praticamente impossível, porque o dióxido de carbono se acumula na atmosfera com grande rapidez. Mas é só nesse caso que o evitar o aquecimento perigoso se torna um objetivo “provável”. Falando em IPCCês, isso quer dizer uma chance maior que 66%.

Uma outra opção,–mais arriscada mas um pouco mais realista, dado o andar da carruagem– é segurar a concentração abaixo 530 até 2100. Isso faz com que a chance de ficar abaixo dos 2°C seja “mais provável do que improvável”, ou seja, maior que 50%. Isso seria equivalente a definir o futuro do clima terrestre no cara-ou-coroa. É ruim, mas aparentemente é o melhor que seremos capazes de fazer. Mesmo assim, não poderíamos exceder o limite de 530 ppm em nenhum momento deste século, mesmo que o baixássemos depois.

O PREÇO

O IPCC determina até mesmo um preço para tal. Seriam precisos US$ 147 bilhões por ano de investimento em energia renovável até 2030, e “várias centenas” de bilhões investidos em eficiência energética. É caro, mas levemos em conta que os prejuízos de uma mudança climática acentuada seriam muito maiores, como sugere o relatório do grupo 2 do IPCC. É o mantra “mitigar é mais barato que adaptar”. O valor de US$ 147 bilhões também não inclui o “desconto” que receberíamos por cortar US$ 30 bilhões anuais de investimento em combustíveis fósseis.

Na prática, em termos de quantidade de CO2 jogada no ar, esse investimento serviria para reduzir as emissões globais de 40% a 70% antes de 2050. Isso nos dá a impressão ilusória de que temos tempo suficiente. Na conta do climatólogo americano Michael Mann, porém, se negligenciarmos o problema, temos a possibilidade de selar a ruína de nosso sistema climático já em 2036.

O (DES)ACORDO

A parte mais desanimadora da história é que qualquer uma das opções de corte listadas acima requer um esforço maior do que aquele empenhado atualmente nas negociações globais para o próximo acordo do clima. No novo relatório há uma crítica ao “Compromisso de Cancún”, o estagio atual das negociações de um possível acordo global para reduções de emissões.

“O Compromisso de Cancún para 2020 é maior do que os níveis de emissão de gases do efeito estufa vistos nos cenários que atingem concentrações de CO2 entre 430 ppm e 530 ppm em 2100 sob os menores custos globais”, afirmará o IPCC amanhã cedo, se esse trecho do relatório vazado não for modificado. O painel também alerta que o Compromisso de Cancún “corresponde a cenários que explicitamente adiam a mitigação até 2020 ou além”.

O relatório divulgado amanhã, porém, trará um conteúdo muito maior do que a discussão de metas de emissões. Ele separa todos os cenários de emissões por setores da economia e por grupos de países. Isso deve tornar mais organizada a tarefa de projetar planos nacionais e um eventual acordo global para corte de emissões. Mas a mensagem principal continua sendo a de impor limites ao que se pode fazer com o clima do planeta. Essa é uma conta difícil de fazer, e só a estrutura do IPCC pode estabelecer algo próximo de um consenso científico, ainda que a margem de incertezas permaneça alta.

Publicidade
Publicidade
Publicidade

Folha Shop