Teoria de Tudo

por Rafael Garcia

Perfil Rafael Garcia é repórter de Ciência.

Perfil completo

Cai um tabu: robô supera humano em reconhecer faces

Por Rafael Garcia
23/04/14 17:47
Marilyn Monroe, por Andy Wharhol

A Marilyn de Andy Wharhol; cientista usou fotos de famosos para criar programa (Imagem: divulgação)

UM ESTUDO PUBLICADO por uma dupla de cientistas de computação chineses sem muito barulho acaba de derrubar um tabu da inteligência artificial. Pela primeira vez, um computador conseguiu superar os humanos na tarefa de reconhecer faces, relatam os autores do artigo que descreve a façanha.

A maneira com que GaussianFace, o software criado pelos autores Chaochao Lu e Xiaoou Tang, da Universidade Chinesa de Hong Kong, atingiu essa meta é interessante por si só. Antes de falar sobre isso, porém, cabe explicar por que o trabalho deles (descrito num artigo ainda sem revisão independente) tem tudo para ser um marco se for confirmado por outros cientistas.

A inteligência artificial é um campo de pesquisa fascinante, mas também uma fonte de decepção para incautos, que entram na área cheios de idéias e saem cheios de frustrações. O ícone experimental disso é o do teste de Turing, no qual um computador precisa se fazer passar por humano numa dada tarefa. Há muitas versões do teste, e poucas são aquelas em que realmente um robô já é capaz de bater um espécime de Homo sapiens.

Uma divisão particularmente difícil da inteligência artificial é aquela que busca dar a computadores e capacidade de reconhecer formas e padrões com a mesma sofisticação que o sistema visual humano. Ao contrário do que muita gente pensa, a comparação das retinas de nossos olhos com uma CCD o sistema de captação de imagens de uma câmera eletrônica não se sustenta. O olho dos mamíferos e nosso sistema de processamento de imagens são muito, muito, muito mais complexos do que qualquer câmera.

A neurociência começou a se dar conta disso com os primeiros experimentos de Torsten Wiesel e David Hubel, em 1959, mostrando que o cérebro possui circuitos específicos para reconhecer formas (diferenciando, por exemplo, linhas horizontais de verticais). Desde então, cientistas enumeraram diversos mecanismos cerebrais associados a padrões específicos de visão. O mais notável talvez seja a chamada área facial fusiforme, descoberta por Justine Sergent e Nancy Kanwisher. É um pedaço do cérebro especializado em detectar faces.

Emular o funcionamento desses mecanismos orgânicos porém, sempre foi um desafio, afirmam Chachao e Xiaoou [pausa para os ocidentais rirem da combinação de nomes]. Segundo os cientistas, humanos têm em média uma taxa de acerto de 97,53% em reconhecer fotos de fisionomias que já lhes foram apresentadas. O DeepFace, o assustador sistema de reconhecimento facial do Facebook, tinha chegado quase lá, mas empacou na marca de 97,25%. Agora, o GaussianFace finalmente ultrapassou esse limite, atingindo 98,52%.

O novo programa foi construído sobre um banco de dados de 13 mil fotos retratando 6.000 diferentes celebridades. O programa localizava as faces automaticamente e as recortava em uma imagem de 150 por 120 pixels, uma resolução supreendentemente pobre, mas que otimiza o poder de processamento do computador responsável por rodar o algoritmo. Depois, o software recortava esses pedaços ainda mais em fragmentos de 20 pixels que se sobrepunham uns sobre outros. A interação entre esses, computados como uma média, é que geravam a “assinatura” de cada face na memória do computador. Testado no banco de dados, o Gaussian Face finalmente superou os humanos.

Pessoalmente, acho que o impacto social desse tipo de tecnologia, para o bem ou para o mal, ainda nem começou a desabrochar. Possivelmente terá aplicações mais impactantes do que simplesmente “etiquetar” fotos de amigos no Facebook. Imagine, por exemplo, o tipo de ferramenta de vigilância que pode ser construída sobre um algoritmo como o do GaussianFace. Futurologia à parte, acho que é preciso reconhecer que, desta vez, a inteligência artificial conseguiu romper uma barreira que não era nada trivial. O que pode ser mais macabro em um teste de Turing do que um computador que reconhece você e te chama pelo nome?

Pequeno glossário IPCCês-português

Por Rafael Garcia
12/04/14 07:01
Escultura do artista plástico Isaac Cordal ilustra a discussão do acordo do clima (Imagem: Divulgação)

Escultura do artista plástico Isaac Cordal ilustra a discussão do acordo do clima (Imagem: Divulgação)

A ÚLTIMA GRANDE reunião para a confecção do 5 relatório de avaliação do IPCC (painel do clima da ONU) termina hoje em Berlim, e tudo indica que será em clima de certo desânimo. O tomo do grupo de trabalho 3 da entidade, que fala de cortes de emissão de gases-estufa e outras formas de mitigação do aquecimento global, não traz notícias nada boas.

Em reportagem sobre a abertura do encontro, delineamos o conteúdo do “sumário para formuladores de política” do relatório, com base em uma cópia do documento que vazou para a imprensa há alguns meses. O texto final desse documento é o que será definido hoje, após representantes de governos debaterem o conteúdo os autores do relatório.

As conclusões principais do documento, que dificilmente devem mudar, possuem certo tom derrota. Enquanto o quarto relatório do IPCC, de 2007, se dedicou em grande parte a delinear o que seria preciso fazer para evitar um aquecimento médio de 2°C do planeta, o relatório atual reconhece tacitamente que praticamente já não há tempo para tal.

O LIMITE DE 2°C

A obsessão dos estudiosos do clima com esse limite –ou seja, o acréscimo de 2°C na temperatura média do planeta em relação à que existia na era pré-industrial– é compreensível. Existe um consenso razoável de que além disso, é provável que a mudança climática afete em algum grau cada aspecto de nossa economia: água, saúde, produção de alimentos, ocupação da terra, energia, crescimento econômico e até segurança.

O IPCC afirma que seu relatório “não recomenda metas específicas de mitigação, mas avalia as opões disponíveis”. É importante o painel esclarecer que não pretende interferir em decisões dos governos e reconhecer a soberania de quem tem mandato para tal. Mas, na prática, sua mensagem aos governos é algo como: “esta é nossa última chance, e só há um caminho a seguir”.

CONCENTRAÇÃO DE CO2

Esse caminho significa cortar emissões rápido para manter a concentração de CO2 abaixo de 480 ppm (partes por milhão) no final do século. Já estamos em 400 ppm, e subindo rápido, o que torna isso uma missão praticamente impossível, porque o dióxido de carbono se acumula na atmosfera com grande rapidez. Mas é só nesse caso que o evitar o aquecimento perigoso se torna um objetivo “provável”. Falando em IPCCês, isso quer dizer uma chance maior que 66%.

Uma outra opção,–mais arriscada mas um pouco mais realista, dado o andar da carruagem– é segurar a concentração abaixo 530 até 2100. Isso faz com que a chance de ficar abaixo dos 2°C seja “mais provável do que improvável”, ou seja, maior que 50%. Isso seria equivalente a definir o futuro do clima terrestre no cara-ou-coroa. É ruim, mas aparentemente é o melhor que seremos capazes de fazer. Mesmo assim, não poderíamos exceder o limite de 530 ppm em nenhum momento deste século, mesmo que o baixássemos depois.

O PREÇO

O IPCC determina até mesmo um preço para tal. Seriam precisos US$ 147 bilhões por ano de investimento em energia renovável até 2030, e “várias centenas” de bilhões investidos em eficiência energética. É caro, mas levemos em conta que os prejuízos de uma mudança climática acentuada seriam muito maiores, como sugere o relatório do grupo 2 do IPCC. É o mantra “mitigar é mais barato que adaptar”. O valor de US$ 147 bilhões também não inclui o “desconto” que receberíamos por cortar US$ 30 bilhões anuais de investimento em combustíveis fósseis.

Na prática, em termos de quantidade de CO2 jogada no ar, esse investimento serviria para reduzir as emissões globais de 40% a 70% antes de 2050. Isso nos dá a impressão ilusória de que temos tempo suficiente. Na conta do climatólogo americano Michael Mann, porém, se negligenciarmos o problema, temos a possibilidade de selar a ruína de nosso sistema climático já em 2036.

O (DES)ACORDO

A parte mais desanimadora da história é que qualquer uma das opções de corte listadas acima requer um esforço maior do que aquele empenhado atualmente nas negociações globais para o próximo acordo do clima. No novo relatório há uma crítica ao “Compromisso de Cancún”, o estagio atual das negociações de um possível acordo global para reduções de emissões.

“O Compromisso de Cancún para 2020 é maior do que os níveis de emissão de gases do efeito estufa vistos nos cenários que atingem concentrações de CO2 entre 430 ppm e 530 ppm em 2100 sob os menores custos globais”, afirmará o IPCC amanhã cedo, se esse trecho do relatório vazado não for modificado. O painel também alerta que o Compromisso de Cancún “corresponde a cenários que explicitamente adiam a mitigação até 2020 ou além”.

O relatório divulgado amanhã, porém, trará um conteúdo muito maior do que a discussão de metas de emissões. Ele separa todos os cenários de emissões por setores da economia e por grupos de países. Isso deve tornar mais organizada a tarefa de projetar planos nacionais e um eventual acordo global para corte de emissões. Mas a mensagem principal continua sendo a de impor limites ao que se pode fazer com o clima do planeta. Essa é uma conta difícil de fazer, e só a estrutura do IPCC pode estabelecer algo próximo de um consenso científico, ainda que a margem de incertezas permaneça alta.

De volta ao geocentrismo

Por Rafael Garcia
08/04/14 15:18

“The Principle” Documentary Trailer

EM ALGUM MOMENTO da existência da editoria de Ciência desta Folha, por volta da virada do século, recebemos a interessante carta de um leitor que, em mensagem escrita de próprio punho, apresentava uma teoria com potencial para abalar toda a ciência. Na carta de português empolado, o missivista declarava ter descoberto que… Galileu Galilei estava errado e, na verdade, é o Sol que gira em torno da Terra, e não o contrário.

O texto da carta era tão incrível que o editor que ocupava o cargo na época o afixou na parede. Lamentavelmente, durante uma reforma na redação do jornal, a parede foi derrubada, e essa relíquia se perdeu. Hoje, quando conto essa história para colegas, eles olham para mim com aquela cara de “ah, tá bom, então”, de quem acha que eu estou inventando coisa.

Felizmente (ou infelizmente), para provar que ainda existe gente adulta que não entende a organização básica do Sistema Solar, acaba de ser anunciada nos EUA a estréia de “The Principle”, um documentário defendendo a ideia do geocentrismo.

O filme é uma piada involuntária, claro, mas não duvido que conquiste alguns incautos, dada a quantidade de gente que acredita em qualquer coisa. Não poderia faltar no filme claro, uma dose de teoria conspiratória: “a Nasa está tirando do ar páginas de sites com pistas e evidências para o geocentrismo”, diz o trailer (veja vídeo acima).

Essa peça de apresentação meio confusa, porém, mostra o documentário menos como um filme sobre o Sol estar girando em torno da Terra do que sobre o chamado “princípio antrópico” (daí o título). Esse é o nome dado à ideia geral de que o Universo foi criado com a intenção de produzir humanos conscientes.

Princípio antrópico e geocentrismo, claro, são coisas diferentes. É a diferença entre debater uma ideia pseudo-científica mal fundamentada e debater uma ideia tão absurda que não faz sentido para mais ninguém desde 1632.

Mas, há motivo para suspeitar que o filme, produzido pelo teólogo Robert Sungenis, esteja sim, contestando o beabá da astronomia. Além de o palavrão “geocentrismo” ser mencionado abertamente no trailer, Sungenis é um apóstolo de longa data do geocentrismo ptolomaico, que defende em seu blog. E também é campeão de outras ideias que, por educação, eu chamaria apenas de imbecis. Entre as tese que dfende está a de que o Holocausto foi uma mentira.

O maior absurdo cometido pelo filme, porém, não é o de disseminar um conceito completamente errado com motivações religiosas torpes. O que realmente surpreende é ele ter usado para isso entrevistas de cientistas sérios como Michio Kaku, Max Tegmark, Lawrence Krauss e George Ellis.

A julgar pelo que Krauss descreve em seu blog, as declarações dos cientistas foram incluídas no filme sem que os entrevistados soubessem qual era a tese defendida pelo produtor. No trailer, o resultado é um mosaico de citações fora de contexto (Kaku diz, por exemplo, que a cosmologia está em crise), fazendo parecer que cientistas notáveis endossam o que Sungenis tem a dizer.

Por fim, eu queria terminar esse post recomendando aos leitores que não assistam o filme, mas confesso que agora eu mesmo estou curioso para vê-lo. Deve ser um notável exemplo de quão longe vai a estupidez humana.

Quando o calor mata

Por Rafael Garcia
05/04/14 08:00

O novo relatório do grupo de trabalho 2 do IPCC (painel do clima da ONU) está pronto, e confirma que, de modo geral, o aquecimento global será uma coisa bem ruim para praticamente todo o planeta.

Um aspecto importante do documento é que ele é cuidadoso o suficiente para avaliar os dois lados da questão, em cada um dos aspectos. Há casos como o dos impactos na agricultura, por exemplo, em que foi preciso pesar prós e contras. Alguns tipos de plantação terão vantagens de curto e médio prazo com o aquecimento global. Ainda assim, a maiora dos cultivares será impactado negativamente.

No capítulo do relatório que fala sobre os impactos à saúde humana, o trabalho feito foi o mesmo. E os resultados também apontam para pouquíssimos benefícios, e muitas coisas prejudiciais. Como de costume, alguns estudos recentes acabaram ficando de fora do escopo do relatório, que considera literatura científica publicada apenas até certa data. E de estudos ainda não compilados pelo IPCC já surge um interessante ponto de virada no conhecimento.

Acreditava-se que uma das poucas coisas boas que o aquecimento global poderia trazer para o mundo é a redução das mortes por frio, em geral mais numerosas que as mortes por calor nos países temperados.

Tome-se com exemplo um estudo do sanitarista Shakoor Hajat, da Escola de Higiene e Medicina Tropical de Londres, publicado em fevereiro (que infelizmente ficou de fora do relatório do IPCC deste ano). Estudando um banco de dados sobre óbitos na Inglaterra e em Gales, o pesquisador se deparou com um linha de base de 41.000 mortes por problemas relacionados ao frio (de doenças respiratórias a hipotermia) enquanto os problemas exacerbados pelo excesso de calor (de hipertensão a febres altas) estavam ligados a apenas 2.000 mortes anuais.

Diante desse cenário, parece desejável um deslocamento da faixa de temperaturas em relação a um maior calor. Mas uma projeção de Hajat usando dados do IPCC mostra que as consequências não são tão óbvias assim.

À medida que a temperatura média da Terra sobe, a Inglaterra tende a receber sua cota de calor na forma de alguns poucos dias extremamente quentes, em vez de uma elevação mais homogênea da temperatura ao longo do ano. E os dias muito frios, por outro lado, não serão necessariamente serão menos numerosos.

Hajat, então, projetou o que deve acontecer dentro de um cenário de mudança climática e concluiu que, enquanto as mortes ligadas ao frio teriam uma diminuição de 2%, as mortes por causas ligadas ao frio teriam elevação de 257%. Façamos a conta: estaríamos salvando 820 pessoas para deixar outras 7.140 morrerem.

Isso é a notícia mais otimista sobre esse tema.

A pessimista é que em países tropicais, onde pouca gente morre de frio, o saldo dessa conta será provavelmente muito pior. Ninguém sabe porém, qual é a dimensão desse impacto, porque as séries históricas sobre dados não são tão completas quanto os registros britânicos usados no estudo de Hajat.

O novo relatório do grupo 2 do IPCC reconhece que pode haver um enorme risco embutido aí, além de todos os outros problemas sanitários trazidos com o aquecimento global, como o espalhamento de doenças transmitidas por mosquitos.

No Brasil, o grupo do patologista Paulo Saldiva, da USP, que se juntou às meteorologistas Samya de Araújo Pinheiro e MIcheline Coelho, tem se interessado por questões como essa, mas ainda não teve como produzir uma projeção similar à dos britânicos, que contam com um corpo de dados bem melhor em seu país. De qualquer forma, talvez os dados do Serviço de Verificação de Óbitos de São Paulo possam trazer algum insight sobre a consequência da onda de calor em janeiro e fevereiro de 2014. Pelo que Micheline e Samya me disseram, porém, esse deve ser um tópico de alto interesse nos próximos anos.

Outro problema apontado pelo IPCC é o do envelhecimento da população mundial, que terá uma porcentagem muito maior de idosos à medida que países mais pobres estão se desenvolvendo. Pessoas mais velhas são particularmente mais vulneráveis a ondas de calor, e aqueles com problemas respiratórios ou hipertensão podem ter um pico de estresse fisiológico que marque a diferença entre a vida ou a morte em determinado dia. É conhecido o impacto do calor extremo na probablidade de infartos entre hipertensos, por exemplo.

Samya e Micheline atentam para a importância de acesso a medidas de “adaptação”, o termo adotado pelo IPCC, que neste caso significaria, por exemplo, aparelhos de ar-condicionado. Nem toda a parcela da população tem condições em investir nesse tipo de equipamento. Será que populações mais pobres, além de serem aquelas que mais se concentram em áreas de risco por eventos climáticos extremos, como enchentes, também são mais vulneráveis ao impacto fisiológico pelo calor?

As mortes por estresse térmico, enfim, são um tema importante para o qual o IPCC ainda não traz respostas definitivas, mas já realça questões importantes.

Um Universo que não cabe no Nobel

Por Rafael Garcia
19/03/14 06:30
O mapa da radiação cósmica de fundo no Universo, com as pertubações da ondas gravitacionais (Imagem: Bicep2)

O mapa da radiação de fundo do Cosmo, com as pertubações de ondas gravitacionais (Image: Bicep2)

MUITA GENTE que não é cientista, mas se interessa por ciência, passou alguma parte da segunda-feira tentando entender os resultados anunciados pelo projeto Bicep2, que mostrou uma evidência direta para a teoria da inflação cosmológica. Não foi tarefa trivial. A descoberta foi feita por meio de marcas deixadas por ondas gravitacionais na radiação cósmica de fundo –uma série de conceitos difíceis de entender para um leigo.

O esforço, porém, vale à pena. Raras vezes podemos testemunhar um avanço científico palpável que nos deixa mais perto de entender o que foi o Big Bang, a explosão que fundou o cosmo.

Para quem nunca ouviu falar, a inflação cosmológica é a teoria segundo a qual o universo passou por uma fase de expansão violenta, com o espaço crescendo a uma taxa superior à velocidade da luz, durante as primeiras frações de segundo.

Essa hipótese foi criada para explicar por que o Universo parece ser extremamente homogêneo. Para qualquer lado que se aponte os telescópios, é possível ver mais ou menos a mesma concentração de galáxias e aglomerados de galáxias, algo que é um pouco inesperado para os físicos. Se a matéria e energia contida em todo o universo estavam interagindo num espaço minúsculo logo após o Big Bang, era de se esperar que essa bagunça fosse resultar num universo mais heterogêneo hoje.

Os resultados do Bicep2 são provavelmente a notícia mais importante da cosmologia desde 1998, quando foi descoberta a energia escura, a força que faz o universo crescer em ritmo acelerado. E, assim como ocorreu com a energia escura, todos esperam que a confirmação da inflação cosmológica resulte em um Prêmio Nobel de Física.

OK. E O NOBEL VAI PARA…

A pergunta que não quer calar é: quem deve ficar com o prêmio? Levei essa dúvida ontem ao físico Raul Abramo, da USP (Universidade de São Paulo), um dos cosmólogos mais experientes do Brasil e grande conhecedor da teoria da inflação, e me surpreendi um pouco com a resposta.

Primeira coisa: é verdade que o Bicep2 provavelmente levará a um prêmio Nobel, mas não é para já. “A razão é que os dados do BICEP são ainda polêmicos”, diz Abramo. “Vários experimentos (ACT, SPT, PolarBear, e outros) estavam procurando por esse sinal, mas ninguém chegou nem perto do que o Bicep atingiu. Enquanto esse resultado não for confirmado por outro experimento, eu duvido que saia um Nobel.”

Segunda coisa: a maior parte dos jornalistas (me incluo aí) citou Alan Guth, do MIT, como o criador da teoria, mas a história é mais complexa. Guth deu forma à teoria e batizou o fenômeno de inflação, mas o primeiro a lançar a ideia foi Alexei Starobinsky, do Instituto de Física Teórica de Landau. Além dele, outro russo, Andrei Linde, da Universidade Stanford (Califórnia), teve papel crucial em criar a forma mais aceita da teoria do universo inflacionário.

E a lista de nobeláveis não para por aí. “Quem de fato mostrou que a inflação leva ao padrão observado de flutuações na temperatura e polarização da radiação cósmica de fundo foi o Viatcheslav Mukhanov”, lembra Abramo, que foi orientando desse outro físico russo, hoje radicado na Alemanha. Esses estudos foram feitos antes mesmo de Guth cunhar o termo inflação. “Por fim, há ainda outros nomes que poderiam ‘jogar no ringue’, como o Paul Steinhardt e até o Stephen Hawking, que tiveram, na minha opinião, papéis menores nessa história.”

Os prêmios Nobel, porém, adotaram a regra de repartir cada prêmio em no máximo três pedaços. Quando o comitê do prêmio de física se reunir algum dia para discutir que premiar pela inflação cosmológica, então, vai se ver numa situação bastante difícil. Ao menos um nome importante ficará de fora.

E AS ONDAS GRAVITACIONAIS?

Muita gente aproveitou a descoberta anunciada anteontem também para comemorar a detecção de ondas gravitacionais. Esse é o nome dado às perturbações de espaço-tempo que Einstein previu que aconteceriam na presença de corpos com campo gravitacional muito forte interagindo de perto (é o caso do Universo logo após o Big Bang).

Algumas notícias chegaram até a citar os dados do Bicep2 como uma detecção “direta” de ondas gravitacionais, o que não está correto. A evidência é indireta, e não é a primeira, esclarece Abramo. Uma observação anterior, em 1974, de um pulsar binário que está espiralando e perdendo energia devido à emissão de ondas gravitacionais, rendeu um prêmio Nobel ao Russell Hulse e ao Joseph Taylor Jr, em 1993.

“O que essas últimas observações do Bicep2 parecem indicar são evidências fortíssimas de uma era de inflação, via ondas gravitacionais ‘primordiais’”, explica Abramo. “Elas são evidências indiretas de ondas gravitacionais, mas constituem um ‘smoking gun’ para a inflação, quase como uma evidência ‘direta’ desses modelos. Daí parece ter surgido alguma confusão.”

Existe pelo menos uma dezena de experimentos hoje tentando fazer a detecção direta de ondas gravitacionais. Se algum deles tiver sucesso, ao que parece, há espaço para outro Nobel de Física, sem relação com o prêmio cobiçado pelos criadores da inflação cosmológica. A ver.


Se você ainda não viu, veja agora o vídeo em que um físico do Bicep2 aparece de surpresa na porta da casa de Andrei Linde para anunciar a descoberta. Foi o melhor momento da segunda-feira.

Sobre o Robocop do Itaquerão

Por Rafael Garcia
28/02/14 13:13
No Robocop de Padilha, a máquina controla o homem ou o homem controla a máquina? (Foto: MGM)

No Robocop de Padilha, a máquina controla o homem ou o homem controla a máquina? (Foto: MGM)

Acaba de entrar em cartaz nos cinemas o novo “RoboCop“, filme do diretor José Padilha. É o remake de um clássico da década de 1980 que povoa o imaginário de toda a pessoa que foi criança na época. (Quem nasceu só depois disso se lembra ao menos de uma pérola do cancionário popular brasileiro na qual os Mamonas Assassinas fazem referência à obra.)

Não quero estragar a surpresa para ninguém que deseje ver a nova versão (spoiler alert: o mocinho vence no final), mas acho que o roteiro do filme, mesmo meio sendo uma ideia meio manjada, merece uma reflexão. “RoboCop” reestreia num momento em que a ciência retomou o debate do qual o filme trata: pode o pensamento criado no cérebro humano ser realmente convertido em sinais computacionais?

No filme, essa questão se abre em discussões sobre livre arbítrio e consciência humana: o protagonista luta para não deixar sua mente ser dominada pelo computador. Na vida real, a ciência está longe de criar um dilema dessa magnitude. Mas é exatamente essa questão, em uma versão menos drástica, que tem motivando críticas à mais avançada iniciativa de ICM (interface cérebro-máquina) que existe na vida real.

No início do mês, publicamos uma reportagem sobre o projeto “Andar de Novo”, do neurocientista Miguel Nicolelis, que promete fazer uma demonstração espetacular no jogo de abertura da Copa, no estádio Itaquerão. O pontapé inicial da partida será dado, promete o cientista, por um jovem portador de lesão de medula espinhal que terá movimentos restaurados por uma armadura robótica conectada a seu cérebro.

Diferentemente do corpo de RoboCop, a prótese cibernética de Nicolelis não deverá controlar o estado de consciência de quem vesti-la. Sua única finalidade é captar impulsos elétricos do córtex motor, área do cérebro responsável por controlar movimentos, e enviá-los à armadura robótica. Isso seria o suficiente para fazer com que a prótese se mova da mesma forma que nossos músculos, reagindo a impulsos nervosos.

Mesmo realizando a simples tarefa de caminhar, porém, não está claro quanto dos movimentos da armadura robótica serão efetivamente controlados pelo cérebro dos voluntários e quanto estará “pré-programado” na eletrônica da prótese. Em outras palavras: nessa demonstração, é o homem que controlará a máquina, ou a máquina que controlará o homem?

Uma coisa é certa: a interface cérebro-máquina do projeto “Andar de Novo” não tem meios de simular *todos* impulsos nervosos que comandam a perna de uma pessoa. Em qualquer prótese que se imagine, é preciso que um reducionismo seja feito. Isso não é necessariamente um problema, mas qual é o limite para esse reducionismo?

BITS POR SEGUNDO

Para responder a essa questão, vale a pena pensar em termos de informática. Suponhamos que a interface de Nicolelis seja capaz de extrair apenas 0,1 bps (0,1 bit por segundo)*. Isso seria o suficiente, por exemplo, para acionar um sistema que execute os movimentos de caminhada automaticamente, fazendo o indivíduo que a comanda andar alguns metros, e então parar, dez segundos depois, após emitir outro comando. Se for esse o caso, será que nos atreveríamos a dizer que um cientista “devolveu os movimentos” a um paraplégico?

Sem dúvida isso seria a prova de princípio de que é possível criar aplicações interessantes para uma interface cérebro-máquina, mas ainda está muito longe de permitir a criação de uma armadura robótica que substitua uma cadeira de rodas de maneira robusta.

O problema com a taxa de bits por segundo de informação é o calcanhar de aquiles das pesquisas em interfaces cérebro-máquina. Ed Tehovnik, o cientista que agora acusa Nicolelis de fazer uma demonstração “prematura” na copa, é o principal de uma abordagem de fluxo de bits para discutir o assunto. Ele fez um levantamento da literatura científica na área e constatou que as melhores interfaces cérebro-máquina atingem uma velocidade de apenas 0,1 bps, o mesmo valor do exemplo acima. Estudos anteriores constataram que uma velocidade razoável para a realizaçção de movimentos bem simples, como mover um objeto de um lugar a outro da mesa, seria dez vezes maior.

Nicolelis acusa Tehovnik de promover um ataque pessoal, e evita falar de pormenores de seu trabalho. Não é impossível que o pesquisador americano tenha mesmo antipatia pelo brasileiro, seu ex-colaborador. Tehovnik, hoje trabalha na Universidade Federal do Rio Grande do Norte, num grupo que reúne os remanescentes de uma cisão sofrida pelo IINN (Instituto Internacional de Neurociência de Natal), lar do projeto “Andar de Novo”. (Já escrevi em outra ocasião um resumo das escaramuças em que Nicolelis se envolveu.)

A crítica de Tehovnik –um pesquisador remanescente do prestigiado MIT, que tem em seu currículo um bocado de estudos publicados sobre fluxo de informação– não se limita ao trabalho de Nicolelis. É dirigida a todo o campo de interfaces cérebro-máquina. E Tehovnik não é o único a expor uma visão mais cética sobre essa linha de pesquisa.

MODELO SIMPLISTA

Na semana passada conversei também com Mike Graziano, da Universidade de Princeton (EUA), que tem apontado alguns problemas no campo de pesquisa.

“Os modelos [de informação cerebral] que as pessoas estão usando são muito simplistas, mas têm conseguido produzir algum movimento”, diz o pesquisador. “Essa coordenação limitada sem dúvida é útil para pessoas que praticamente não podem se mover, mas não é algo que as aproxime de uma funcionalidade normal.”

A essência do problema, diz Graziano, é que os cientistas que tiveram algum sucesso em interfaces cérebro-máquina até aqui adotaram uma abordagem pragmática, que abriu mão da teoria sobre o que são as informações lidas pelo cérebro.

“Quando voce tira sinais diretamente do córtex motor e tenta controlar um robô, você está contornando uma grande parte do sistema nervoso, e isso é um problema”, explica o pesquisador. Um bocado da coordenação de movimento é feita, por exemplo, pela medula espinhal, o que significa que a informação do córtex motor não é completa. “Ninguém sabe exatamente o que são esses sinais no córtex motor e o que eles significam.”

Um dos problemas, afirma Tehovnik, é que descobertas recentes mostram que neurocientistas tem usado como sinais neuronais de comando os impulsos elétricos que são gerados no cérebro pelo feedback de braços e pernas em movimento, e não os sinais enviados a esses membros. Se isso for constatado, os comandos de exoequeletos atuais só funcionariam em pacientes que ainda têm algum movimento residual, e não naqueles com uma perda de função mais severa.

PRONTO PARA A COPA?

O grande desafio para Nicolelis, porém, talvez seja o prazo que ele tenha imposto a si próprio para apresentar uma prótese robótica funcional. O cientista ainda não demonstrou nem sequer uma prótese robusta aplicada a um de seus macacos. Não é meio cedo para que uma prótese em humanos esteja para operar em junho?

Nicolelis insiste em dizer que seu projeto está com a agenda em dia para a grande demonstração na abertura da Copa do Mundo, mas tem trabalhado de uma maneira estranhamente sigilosa para um pesquisador que recebeu US$ 15 milhões de investimento público brasileiro em seu projeto.

No mês passado, quando Nicolelis veio a São Paulo e deu uma palestra em um colégio, jornalistas foram impedidos de entrar no evento. Seus assessores afirmaram que a apresentação tinha informações que ainda deviam ser divulgadas amplamente. Quais serão esses segredos de Polichinelo que precisam ser escondidos dos jornalistas, mas podem ser divulgados a uma plateia de ensino médio. O pesquisador já tem mostrado diversas imagens do projeto em sua página no Facebook.

Graziano, de Princeton, diz acreditar “no objetivo e na direção” adotados por Nicolelis, apesar de constatar que o progresso tem sido “mais lento do que se esperava”. O exagero no peso de promessa dado à pesquisa já tem irritado algumas pessoas na comunidade de cadeirantes, como meu colega Jairo Marques.

Já Tehovnik é bem incisivo em suas críticas, acusando toda a comunidade de pesquisa em próteses robóticas de de excesso de propaganda misturado à falta de transparência.

“Existe um bocado de corrida por dinheiro nesses programas, mas ninguém quer falar sobre quem são os pacientes”, diz. “Acho que o dinheiro corrompeu um pouco o campo de pesquisa, que deixou de ser ciência e se tornou mais um negócio de vender um conceito e uma ideia.”

Se a crítica for válida, talvez seja justo reconhecer que a indústria do cinema já superou a ciência nesse quesito. O “Robocop” de Padilha custou US$ 100 milhões, mas já levantou US$ 145 milhões só com a bilheteria do primeiro mês.

A ilustração usada pelo projeto Andar de Novo para de divulgação do evento na Copa

A ilustração usada pelo projeto Andar de Novo, de Nicolelis, para divulgação do evento na Copa

Não tente comparar as interfaces cérebro-máquina com a velocidade da internet em banda larga. Extrair informação digital do sistema nervoso ainda é um processo muito, muito mais lento.

O tamanho (e o preço) de um monstro

Por Rafael Garcia
13/02/14 08:01
Círculo tracejado mostra o tamanho do futuro acelerador de partículas do Cern, comparado ao LHC

Círculo tracejado mostra o tamanho do futuro acelerador de partículas do Cern, comparado ao LHC

O ACELERADOR DE partículas LHC, experimento de proporções gigantescas que descobriu o bóson de Higgs, ainda tem muito trabalho a fazer. Desligado desde fevereiro de 2013, o laboratório está agora passando por melhorias técnicas que o permitirão funcionar com o dobro da energia com que operou até agora.

A partir do início do ano que vem, o LHC volta a funcionar com o dobro da energia, e as colisões de prótons que ele promove poderão jogar luz sobre teorias interessantes, como a supersimetria –que, se for comprovada, dobra o número de partículas elementares existentes– ou a natureza da matéria escura, o tipo mais abundante (e misterioso) de matéria do universo. E há outros fenômenos interessantes a se estudar.

Ninguém sabe, porém, se a nova energia de 14 TeV (tera-elétron-volts) produzida pelo acelerador de partículas será suficiente para atingir esses objetivos experimentais (ou para descartá-los enquanto hipóteses). Além de aumentar a força, o laboratório prevê um aumento na “luminosidade” do acelerador, ou seja, a quantidade de colisões que o LHC é capaz de realizar num mesmo intervalo de tempo.

Em 2015, a luminosidade do LHC será dez vezes maior do que aquela atingida anteriormente. O que está previsto pelo Cern, o laboratório pan-europeu que abriga o LHC, é que depois disso o acelerador opere sem parar até 2022, quando um novo fechamento ocorrerá para reparos que vão turbinar a luminosidade dos experimentos: ela passará então a ser cem vezes maior.

FUTURO ILUMINADO

O aumento de luminosidade é importante porque muitas descobertas em física de partículas são feitas com análise estatística de um grande número de colisões. O próprio bóson de Higgs não foi descoberto de uma hora para outra, foi preciso acumular um grande número de eventos no acelerador até que os cientistas tivessem confiança em dizer que a nova partícula existe.

Mas ninguém sabe ainda em que faixa de energia e de luminosidade se encontram as próximas grandes descobertas a serem feitas. Há alguns físicos pessimistas que veem o bóson de Higgs como a última grande descoberta da física de partículas experimental desta geração de cientistas.

Para a próxima geração, porém, o Cern já estuda produzir novos aceleradores de partículas, porque o LHC terá chegado ao limite do que pode produzir em termos de ciência inovadora.

Aumentar inda mais a força das colisões no LHC seria muito difícil. Seria preciso aprimorar os ímãs supercondutores que fazem os prótons dentro do colisor andarem na trajetória correta dentro do túnel. Não há, agora, tecnologia que produza força magnética mais eficaz do que aquela usada no LHC. Mas há quem acredite que seja possível elevar a energia das colisões do acelerador a 33 TeV, mais de quatro vezes a energia atingida à época da descoberta do Higgs.

Uma solução mais dispendiosa para isso seria construir um novo acelerador de partículas. Um colisor em linha reta, com túnel diferente do anel circular do LHC, já está em fase avançada de projeto. O ILC (International Linear Collider), uma vez aprovado pelos estados financiadores, deve ser construído pelo Cern em parceria com americanos e japoneses. (O Japão é candidato favorito a abrigar o acelerador).

Aceleradores lineares, porém, não são muito bons para conferir energia a partículas pesadas como prótons. A ideia do ILC é acelerar elétrons e pósitrons, partículas mais leves. Apesar de não proporcionarem choques tão energéticos, essas partículas quando em colisão, produzem eventos mais “limpos”, onde a bagunça de partículas criadas é menor e mais fácil de estudar.

Ninguém se arrisca a dizer, porém, quais objetivos da física de partículas ainda estarão além do alcance dos experimentos quando LHC parar de operar, lá por 2030. Pode ser que seja mais interessante construir um outro acelerador circular, maior que o LHC, em vez de um superacelerador linear. Seria outro colisor de hádrons.

APOSTA CIRCULAR

É aí que o bicho pega. Com o LHC a um custo da ordem de US$ 8 bilhões, a física de partículas experimental começa a adquirir preços proibitivos para os governos que a financiam. Ninguém se arrisca a chutar quanto custaria um acelerador que tenha, digamos, o dobro do tamanho. É por isso que o Cern iniciou ontem a realização de um estudo exploratório sobre a viabilidade técnica e o orçamento de um acelerador circular de até 100 km de circunferência. Seria um anel com mais de três vezes o tamanho do LHC, 27 km.

Ninguém sabe se uma monstrosidade dessas esbarraria em barreiras físicas ou financeiras, e chega a ser surpreendente que o Cern ouse até mesmo pensar num projeto desse tamanho. O anel maior na imagem acima, para dar uma ideia de seu tamanho, seria capaz de contornar a baía de Guanabara inteira.

Projetos dessa magnitude envolvem uma prospecção de longo prazo (o próprio LHC levou três décadas para ficar pronto) e mesmo com bom planejamento podem fracassar. Um fantasma que ronda a história da física de partículas é o do SSC, um acelerador circular com 87 km de circunferência, que começou a ser construído nos EUA e acabou abandonado em 1993, mesmo após US$ 2 bilhões terem sido gastos. O Congresso dos EUA achou que a empreitada estava começando a ficar cara demais e decidiu enterrar o projeto, mesmo que isso significasse o desperdício do dinheiro gasto até então.

Justiça seja feita, o Cern já mostrou que tem uma capacidade de administração muito melhor que a dos físicos dos EUA. Isso não garante que governos aceitarão bancar um mostro dessa proporção. Será interessante ver qual caminho será apontado para as próximas décadas da física de partículas. Até lá, porém, o LHC ainda tem muito trabalho pela frente.

O penoso clima de 2013, em vídeo

Por Rafael Garcia
30/01/14 17:01

A Year of Weather 2013

Um dos exemplos mais incríveis que já vi sobre como opera o clima global é este vídeo acima, produzido pelo climatologista Mark Higgins, da Eumetsat, agência europeia de satélites meteorológicos. O filme é uma composição de dados de satélites com visão infravermelha –que monitoram nuvens de tempestades– e montagens fotográficas do projeto Blue Marble, da Nasa –que mostra a Terra sem nuvens. A junção dos dois bancos de imagem produz um retrato fiel do ciclo anual do clima.

É um retrato fiel de 2013, porém, que não foi um ano muito típico. Segundo a Noaa (agência atmosférica dos EUA), pode ter sido o quarto ano mais quente da história humana. O impacto disso é visível no mapa: no mês de setembro [5m30s], quando a cobertura de gelo no polo Norte chega ao mínimo. Foi o sexto pior derretimento registrado na história.

Outros fenômenos atípicos se destacam no vídeo de oito minutos, notadamente o tufão Haiyan [6m45s], o mais letal da história das Filipinas, com mais de 6.000 mortes contabilizadas até agora. Ainda não há estudos que liguem as temperaturas de 2013 especificamente à formação do Haiyan, mas já existe uma evidência estatística razoável de que o aquecimento global deve elevar o número de tufões e furacões mais fortes.

Mudanças climáticas à parte, é interessante notar também no vídeo os ciclos diários do clima global, visíveis sobretudo pelas nuvens que brotam na linha do equador como se fossem cuspidas por uma maria-fumaça. São as chuvas de fim de tarde de zonas equatoriais. (As nuvens mostradas no vídeo, em razão da detecção infravermelha, são aquelas mais altas e mais frias, o que oferece uma correlação razoável com tempestades.)

Essas nuvens perto do equador a chamada zona de convergência intertropical, onde ventos do sul se encontram com ventos do norte, forçam ar úmido a subir e geram tempestades tropicais. A linha da zona de convergência se move um pouco para o norte no meio do ano [4m05s], em razão da inclinação diferente da Terra em direção ao Sol.

Outro fenômeno fácil de notar é o fluxo de grandes tempestades se movendo de oeste para o leste. O fenômeno é mais visível ao longo do sul dos oceanos, mas é espelhado pelo movimento de outras tempestades, no hemisfério norte.

Essas são tempestades geradas pela ação das chamadas correntes de jato, que trafegam acima da estratosfera. Elas são uma consequência natural da rotação da Terra e do choque do ar aquecido da região tropical com o ar frio das regiões polares.

Por causa da rotação do planeta, esse choque de ar tende a formar tempestades em espiral, que eventualmente evoluem para furacões e tufões, como o Haiyan.

Correntes de jato percorrem os círculos polares numa trajetória ondulada, como uma cobra, uma movimentação possível de ver no vídeo em algumas partes. Esse padrão ondulado permite a penetração de mais ar frio em zonas tropicais e mais ar quente em zonas temperadas, levando a extremos climáticos como a onda de calor do ano passado nos EUA.

Ainda não há, aparentemente, muitos estudos ligando a mudança climática a essas correntes de jato mais onduladas e tortuosas, que bagunçam todo o clima mundial, principalmente no hemisfério norte. Meteorologistas como Jeff Masters, do site Weather Underground, porém, relatam que esse padrão tem sido cada vez mais comum.

Independentemente desse evento específico, porém, é razoável dizer que o aquecimento global já é um fenômeno visível aos satélites. Se o que falta aos céticos da mudança climática é “ver para crer”, uma sequência de vídeos como esse da Eumetsat ofereceria uma baita revelação.

O guardião do Museu Britânico

Por Rafael Garcia
25/01/14 07:00
O saguão principal do Museu Britânico (Foto: Chris Robinson/CC)

Vista geral do saguão principal do Museu Britânico, em Londres (Foto: Chris Robinson/CC)

ALGUNS DIAS ATRÁS, escrevi uma pequena resenha sobre “A História do Mundo em 100 Objetos”, do diretor do Museu Britânico, Neil MacGregor. É um bom livro, mas um pouco torturante de ler (e ver) para quem não mora em Londres. Apreciadores de arqueologia que só têm a oportunidade de visitar o museu uma ou duas vezes na vida se dão conta de que é preciso uma outra vida para ver tudo o que há de interessante lá.

MacGregor assumiu a direção da instituição em 2002. Naquele ano, estava no auge a campanha de governos de países que questionavam a posse britânica de alguns objetos. Os casos mais famosos são o da Pedra de Roseta e das esculturas do Partenon, retiradas de suas locações em contexto de guerra e nunca retornada. O recém empossado diretor do museu, porém, foi categórico ao negar os pedidos e manter a posição de que as peças eram “patrimônio global”.

Neil MacGregor (Foto: Museu Britânico)

Neil MacGregor, historiador
(Foto: Museu Britânico)

Por razões legítimas ou não, a polêmica sobre quem deve deter esses objetos arrefeceu após a crise econômica da Grécia e a crise política do Egito. Foi com a poeira assentada que MacGregor e a BBC produziram uma série de programas de rádio em 2010, o trabalho que deu origem ao livro que sai agora em português.

Em entrevista à Folha, por e-mail, o historiador fala sobre como surgiu a ideia de narrar a trajetória de nossa espécie usando apenas cem objetos e defende o status do Museu Britânico como guardião da história da humanidade.

 

*

Folha – De onde surgiu a ideia de contar a história do mundo usando 100 objetos num programa de rádio? O livro já estava nos planos quando o programa foi ao ar?

Neil MacGregor - A série foi resultado de conversas com a BBC, elaborada conjuntamente. Começamos discutindo quantos objetos seriam necessários para contar a história mundial e chegamos a um acordo de que eram cem.

 

Foi difícil chegar a um acordo? Quantas pessoas no museu e na BBC se  envolveram no projeto?

O projeto foi o trabalho de um grande número de pessoas, mas a lista em si foi desenvolvida por mim e por um pequeno número de curadores no museu. Nós poderíamos debater por muitos anos sobre o que incluir e o que deixar de fora, mas o cronograma da série nos obrigou a tomar decisões muito rápido.

 

O sr. chegou a receber cartas de pessoas reclamando da ausência de algum objeto na lista? Particularmente, senti falta de algo que pudesse ser diretamente relacionado à Segunda Guerra Mundial.

A série e o livro foram deliberadamente propostos como “uma” história, e não “a” história do mundo, já dando a entender que era uma escolha subjetiva. Seria possível selecionar um conjunto de cem objetos totalmente diferente e contar uma história totalmente diferente. Ouvintes e leitores, claro, tinham suas próprias opiniões sobre o que incluir, e nós encorajamos o público a enviar suas sugestões por meio do site da série.

Mas a intenção ao longo do projeto era contar uma história que representasse o mundo todo, sem um foco estreito na Europa, desde os tempos primordiais até hoje. Ao representar todo século 20 em cinco objetos, tivemos de ser bastante seletivos.

 

O sr. têm uma noção precisa de quantos itens o museu possui?

A coleção do museu possui cerca de 8 milhões de objetos, mas isso inclui muitos itens que formam parte da coleção de estudos –milhões de fragmentos arqueológicos, pedras lascadas e cacos de cerâmica, por exemplo–, que é de interesse vital para estudantes e acadêmicos.

Para o projeto, nós precisávamos encontrar um número de objetos que nos permitisse cobrir uma faixa de tempo muito longa, mas que também fosse compreensível para ouvintes e leitores. Precisávamos encontrar um número de itens grande o bastante para cobrir toda a história humana, mas não tão grande a ponto de ser intimidante. Acreditamos que cem era o número correto.

 

A lista de cem objetos pode formar um excelente roteiro para pessoas que visitam o museu pela primeira vez e têm apenas algumas horas. Vocês publicaram algum material para ajudar os visitantes a localizar esses objetos na coleção?

Durante a veiculação da série de programas de rádio, desenvolvemos uma versão do mapa do museu que destacava a localização dos objetos. Como alguns dos objetos são sensíveis à luz, não foi possível mantê-los todos em exposição pública desde então. Mas ainda é possível ver cerca de 60 desses objetos da seleção original em exibição nas galerias permanentes. E todos os objetos ainda podem ser vistos online.

 

Alguns dos objetos selecionados para o livro são peças cuja posse é reivindicada pelos governos dos países onde foram achadas. Os exemplos mais famosos são a pedra de Roseta, retirada do Egito, e as esculturas do friso Partenon, da Grécia. Há outros objetos da lista tendo sua posse reivindicada?

Eu acredito que a série e o livro mostram o enorme valor da existência de uma coleção global que esteja em exposição gratuita para o mundo todo no Museu Britânico. É por causa dessa coleção que podemos contar a história mundial de 2 milhões de anos atrás até hoje. É uma coleção única, que nos permite comparar e contrastar culturas para entender o passado, o presente e nosso lugar no tempo.

 

O museu está expondo os objetos mais recentes mencionados no livro, como o cartão de crédito e a lanterna movida a energia solar? Os visitantes não estranham encontrar um cartão de crédito exposto dentro de uma redoma de vidro no meio das outras peças do museu?

Nós estávamos expondo os objetos mais recentes durante a veiculação dos programas. Visitantes acolhiam bem os objetos modernos misturados a outros mais antigos. Para que o Museu Britânico seja uma coleção dinâmica, é importante que ele represente tanto o mundo contemporâneo quanto o mundo antigo.

Disque “V” para voar

Por Rafael Garcia
21/01/14 08:01
Os íbis-eremitas fotografados em experimento sobre voo em "V" na Itália (Foto: Markus Unsöld)

Os íbis-eremitas fotografados em experimento sobre voo em “V” na Itália (Foto: Markus Unsöld)

EM UMA VIAGEM que fiz em 2012 para a costa de Maryland, no nordeste dos EUA, testemunhei pela primeira vez na vida um grupo de patos voando numa formação em “V”, com uma ave liderando o trajeto na frente e duas filas de indivíduos seguindo atrás. Uma amiga que nos acompanhava me perguntou por que as aves voavam daquele jeito, mas eu não tinha uma resposta na ponta da língua. Mal sabia eu que, dois anos atrás, nenhum cientista tinha ainda uma resposta clara.

Eu já sabia que existiam teorias de aerodinâmica explicando o fenômeno, e sabia que as aves se revezam na dianteira da formação. Mas nunca havia buscado informação para entender por que elas o fazem. Já tinha ouvido falar também de tentativas alternativas de explicar o fenômeno. Uma delas seria a de que o animal na dianteira é o único a prestar atenção à rota, deixando os outros “descansarem o cérebro”, hipótese que sempre achei estranha. Outra tese falava em uma “estratégia contra predadores”.

Agora, finalmente, um estudo na revista “Nature” descreve um fabuloso experimento com um grupo de íbis-eremitas, uma ave do Mediterrâneo, oferecendo evidência experimental para a teoria puramente aerodinâmica da formação em “V”. No trabalho, cientistas treinaram um grupo de aves para seguir um biólogo pendurado num ultraleve, como se ele fosse o “líder do bando”.

Os cientistas, liderados por Steven Portugal, da Universidade de Londres, conseguiram gravar um vídeo de 43 minutos dos íbis sobrevoando colinas na Toscana. No trajeto recolheram evidências que comprovaram uma teoria aerodinâmica específica sobre a formação em “V”.

A resposta? Quando a aves que segue na frente batem suas asas, o movimento cria um vórtice de ar girando para fora. Uma ave que siga esta outra ave alinhada com a ponta da asa da líder pode aproveitar uma breve corrente de ar direcionada para cima, em um trecho específico do vórtice. Esse fluxo de ar ajuda a sustentar a ave em voo, sem que seja necessário bater as asas com tanta força para vencer a força da gravidade.

Uma teoria parecida com essa também explica a vantagem da formação em V para aviões de guerra, com exceção de que em aeronaves –que não batem as asas– a física por trás do fenômeno é bem mais simples. De um jeito ou de outro, as peças do quebra-cabeças estão unidas agora.

A divisão de jornalismo da “Nature” produziu o excelente vídeo abaixo sobre o experimento com os íbis. Vale a pena ver.

Come fly with me

Publicidade
Publicidade

Folha Shop