Entrevista com James Gleick
24/06/13 03:46CONVERSEI ALGUNS DIAS ATRÁS com James Gleick, autor de um dos melhores livros que li recentemente, “A Informação: Uma História, uma Teoria, Uma Inundação” (Companhia das Letras). Conhecido do público leitor de ciência desde 1987, quando publicou um best-seller que apresentava a teoria do caos para leigos, Gleick encarou desta vez um desafio similar, descrevendo outra ideia científica de consequências abrangentes.
Como conto em texto para a Ilustrada de hoje, o herói de sua nova história é Claude Shannon, que com sua “teoria da informação” acelerou o desenvolvimento das redes de telefones, dos computadores e de praticamente tudo o que torna o mundo atual tão comunicável.
Segue abaixo o texto da entrevista que fiz com Gleick, na qual ele conta um pouco do seu processo de criação para o novo livro:
*
FOLHA – O sr. vê alguma similaridade entre a teoria do caos e a teoria da informação, ou no modo com que ambas parecem penetrar todas as áreas da ciência?
JAMES GLEICK – Sim. É uma boa questão. Devo começar dizendo que nunca achei que tivesse de escrever sobre disciplinas científicas individuais como tópicos. Mas há conexões especificas entre o caos –a nova ciência do caos, sobre a qual comecei a escrever nos anos 1980– e a ciência da informação. Há até mesmo uma pequena referência em meu livro “Caos” sobre a teoria da informação, pois foi naquela época que ouvi pela primeira vez que existia uma coisa com esse nome. Foram aqueles caras que me contaram pela primeira vez sobre Claude Shannon, o matemático dos Laboratórios Bell que criou essa coisa chamada teoria da informação.
Eu achava estranho (e ao mesmo tempo maravilhoso) que houvesse toda uma ciência sobre algo chamado informação. Primeiro, porque informação não me parecia ser um assunto para a ciência –talvez até menos do que o caos. Segundo, porque eles a estavam usando para estudar sistemas físicos. Eu quis então entender qual podia ser a conexão entre esse conceito abstrato, que conhecemos como informação, e um sistema físico.
Essa conexão existia e tinha algo a ver com entender a diferença entre ordem e desordem. Você mencionou que ela parece permear todas as áreas da ciência. Isso ocorre porque ela é um princípio fundamental de nosso olhar sobre o mundo, é algo que vai além das divisões artificiais que aplicamos às ciências.
Dizer que a física é algo em oposição à biologia é artificial. É apenas uma consequência da maneira com que damos nomes às coisas. Ha muita sobreposição entre a física e a biologia. O mesmo vale para outras disciplinas nas quais dividimos a ciência.
Mas, dizer que você esta interessado em estudar a diferença entre ordem e desordem significa automaticamente dizer que você está olhando para todas as partes do mundo. Isso é o que, para mim, parecia ser empolgante sobre o caos. Era algo que os cientistas estavam fazendo e que se aplicava a tudo. Aplicava-se à economia, aplicava-se à meteorologia e a todo o resto.
A coisa assustadora de escrever um livro sobre informação, também, era que ele teria de ser praticamente sobre tudo. A tese do meu livro é a de que a informação é um conceito essencial a tudo aquilo que nós humanos apreciamos, dentro e fora da ciência.
Então, de novo, eu havia chegado a um tópico que me levaria a muitas áreas diferentes. Eu sabia disso, e por causa disso levei muito tempo para escrever o livro.
Mas, independentemente disso, havia algumas conexões profundas entre caos e teoria da informação, e há alguns trechos do livro sobre informação em que faço algumas referências ao caos.
O sr. conta no livro que o físico John Wheeler especulava que o bit, a unidade básica da informação, seria um elemento da realidade ainda mais profundo do que as partículas elementares. É estranho pensar que exista hoje uma ciência que tenta engolir a física, porque os físicos sempre acreditaram estar lidando com as entidades mais fundamentais da realidade. Ernest Rutherford dizia que “toda ciência é física, ou então é apenas coleção de selos”. Se até mesmo a física está emergindo de algo mais profundo, seria o caso de dizer agora que toda ciência é informação?
Sim. Isso é o que Wheeler estava dizendo, mas, de novo, precisamos lembrar que os nomes das ciências são arbitrários, são construções humanas. Acho que a maioria dos biólogos se sentiria ofendida com essa declaração de Rutherford. Dizer isso nos corredores de uma universidade é o mesmo que dizer que as únicas pessoas fazendo trabalho sério ali são os físicos. E não é esse o caso.
Mas acredito que essa declaração tem algo de legítimo. É legítimo que os cientistas tentem separar o que é fundamental daquilo que emerge de outras coias. E, frequentemente, físicos conseguem tomar para si as coisas mais fundamentais do universo. Estudar a estrutura celular é algo válido, mas na base da estrutura celular há uma camada de coisas subjacentes: células são construídas de moléculas. E para entender as moléculas, é preciso entender os átomos, que são feitos de partículas subatômicas ainda menores. Precisamos entender essas coisas, e elas são mais fundamentais.
Mas há um perigo aí. É arriscado pensar que as partes das coisas são necessariamente mais importantes do que as propriedades coletivas que emergem por sobre elas. Essa também é uma descoberta central do princípio da teoria do caos: comportamentos coletivos não podem ser entendidos simplesmente pelo estudo de suas comportamentos de suas partes. Não é possível estudar a consciência, algo que emerge no cérebro, tentando-se descobrir apenas o que neurônios individuais fazem, pois a consciência é um comportamento coletivo.
Por outro lado, se você estuda comportamentos coletivos, pode encontrar toda uma gama de princípios gerais que são independentes das partes em si.
Essa é uma maneira longa de dizer sim à sua questão. Quando analisamos a teoria informação, passamos a descobrir que esses esses princípios gerais que se aplicam a sistemas de grande escala em geral têm a ver com informação. Acho que isso é o que Wheeler estava dizendo.
O sr. é jornalista e escreve livros para leigos sobre física e matemática, uma área do mercado editorial que é mais procurada pelos próprios cientistas do que por jornalistas de ciência. O sr. aprendeu matemática por conta própria? Ainda costuma telefonar muito para especialistas para conseguir entender estudos?
É exatamente assim que eu trabalho: eu faço questões estúpidas. Sempre me considerei, antes de tudo, um repórter. Comecei trabalhando em jornais. E para qualquer coisa sobre a qual um repórter de jornal escreve, ele parte de um estado de relativa ignorância. É claro que repórteres de jornal desenvolvem expertise em quaisquer que sejam suas áreas, mas é saudável ter em mente que você é uma pessoa com o dever de fazer perguntas.
Eu sempre fui fascinado por ciência, tinha alguma aptidão para ciência e me deixei levar pela ciência como tema sobre o qual escrever. Mas toda vez que começava num novo assunto, eu encarava uma curva de aprendizado muito íngreme. Então, precisava engolir meu orgulho, telefonar para pessoas e pedir ajuda.
Felizmente, quando se escreve sobre a obra de um dado cientista, ele em geral gosta de explicar seu trabalho. Não é sempre, mas é o mais comum. Eles sentem um certo alívio ao perceber que finalmente há mais alguém interessado naquilo que fazem.
Mas o sr. acaba aprendendo matemática para valer quando procura essas pessoas?
Bom, certamente aprendo algumas coisas nessas oportunidades, mas muitas as vezes eu aprendo, escrevo sobre elas, e depois acabo esquecendo. Eu não passaria numa chamada oral sobre todos os assuntos dos quais já escrevi.
Mas neste livro foi diferente. Talvez você não concorde com isso, mas ele não é exatamente um livro sobre ciência. Fiquei surpreso quando vi algumas livrarias colocarem-no em suas seções de ciência. Ele não foi concebido primariamente como um livro de ciência, porque muito do papel da informação em nossas vidas não é estritamente científico. Mas no cerne do livro há essa ciência da teoria da informação que eu precisava entender, e eu não poderia tê-la entendido sem a ajuda de um bocado de gente que entrevistei.
Uma boa parte do livro se refere a histórias passadas de pessoas que já estão mortas, sem que tivesse sobrado ninguém para entrevistar. Nesses casos, tive de ler um bocado de coisas, mas ficou nítida, especialmente no final do livro, a quantidade de ajuda eu tive de pessoas inteligentes como Gregory Chaitin, Charles Bennet e outros que estão trabalhando ativamente no campo agora.
O sr. acha que a teoria da informação foi necessária para que a tecnologia da informação se desenvolvesse mais rápido? Um bocado de coisas em tecnologia de informação, como telégrafos, telefones etc. estavam sendo criados antes de Shannon consolidar sua teoria. A história teria sido muito diferente sem Shannon aparecer?
Sim, teria. Acho que seria muito diferente. Mesmo que eu concorde com o que você disse –a tecnologia se desenvolve por si própria, com engenheiros criando tecnologia sem que muitos deles estejam particularmente preocupados com teoria–, a relação entre os teorizadores e os construtores é sempre complexa e interessante.
A maneira com que esta história evoluiu é particularmente interessante, porque esses dois tipos de pessoa estavam no mesmo lugar. Não é uma coincidência Claude Shannon ter feito seu trabalho teórico dentro dos Laboratórios Bell, que eram um centro de engenharia com a missão de ajudar pessoas a resolver problemas práticos do interesse de uma empresa de telefonia.
Os Laboratórios Bell tinham muito mais engenheiros elétricos, que punham a mão na massa e resolviam tecnicalidades, do que matemáticos. Mas, de certo modo, era até peculiar que eles tivessem um matemático sequer. E é justamente isso o que os tornava especiais.
Logo no início, uma geração antes da de Shannon, eles criaram um pequeno departamento de matemática. E isso acabou se revelando necessário para resolver problemas de chaveamento nas redes mais antigas. Já havia uma tradição nos Laboratórios Bell de considerar a teoria algo útil para ajudar engenheiros.
No caso da teoria da informação, ela se desenvolveu na mente desse estranho gênio com uma coleção peculiar de interesses, e isso era parte da história que eu queria contar. Por que Claude Shannon, entre todas as pessoas, foi a pessoa que apareceu com esse conjunto de ideias costurado sob o nome de teoria da informação? Ele não a chamava, na verdade, de teoria da informação, mas de “teoria matemática da comunicação”.
Por que ele deu a essa teoria essa forma particular? Assim que o fez, ele imediatamente criou uma nova ferramenta. Era uma nova maneira de pensar e um kit de ferramentas matemáticas que engenheiros poderiam usar. Podemos ver como aquilo foi útil para as pessoas, ano após ano.
O simples fato de se poder medir aquilo com o que eles estavam trabalhando, entender que eles estavam trabalhando com essa coisa abstrata, dar um nome a ela, chamando-a de informação e medi-la em termos de uma unidade fundamental, o bit, foi muito útil. Eles podiam então calcular quantos bits eles precisariam transmitir pelos fios, resolver problemas de compressão de dados, de correção de erros e uma série de coisas que não poderiam ser resolvidas sem esse arcabouço teórico.
E, depois, isso começou a ser útil para pessoas em outras disciplinas. Essa é a história do livro, a história de como as ideias em teoria da informação começaram a vazar e serem aplicada a campos da ciência distantes, como a biologia molecular.
Existe hoje um bocado de nostalgia nos Estados Unidos com relação à maneira com que os Laboratórios Bell financiavam pesquisas teóricas e ciência básica. Seu livro tem um pouco disso. O sr. acha que essa necessidade de incentivar a ciência pura dentro da iniciativa privada está sendo preenchida hoje por empresas de tecnologia da informação como Google e Apple?
Acho que não, mas acho que elas tentam fazer isso.
Além dos Laboratórios Bell, a IBM criou um corpo fantástico de laboratórios de pesquisa que por muito tempo fez muita pesquisa pura não necessariamente dando retorno a seu negócio primário. Por muito tempo eles bancaram Benoit Mandelbrot, o geômetra de fractais, e fizeram isso sem se preocupar muito sobre se ele os ajudaria a fazer computadores melhores. A Microsoft também criou um laboratório com a ideia explícita de financiar um pouco de pesquisa pura, e esse laboratório existe.
A Apple e o Google, claro, sustentam vários tipos de pesquisa, mas tenho a impressão de que essas instituições não apoiam cientistas puros nem lhes dão o tipo de liberdade que os Laboratórios Bell lhes dava dava naquela época. Acho que é justo dizer que há uma sensação de nostalgia. Algo se perdeu no mundo da ciência.
Mas não sei dizer por que, naquele período, era possível fazer com que essas corporações insensíveis e com fins lucrativos destinassem recursos à ciência pura. Hoje as empresas são muito mais eficientemente concentradas em suas finalidades do que eram naqueles dias. Mesmo corporações como o Google e a Apple, que até compreendem o valor da pesquisa, sentem um bocado de pressão por parte dos seus acionistas.
O sr. fala muito no livro da enxurrada de informação dentro da qual vivemos hoje. Temos toda a informação do mundo à disposição na internet, mas às vezes isso mais nos atrapalha do que nos ajuda a nos concentrar naquilo que é mais importante. Isso vai emburrecer a humanidade? O sr. é mais pessimista ou mais otimista?
Minha visão pessoal é algo no meio disso. Não paro nem em um extremo nem no outro.
Quando ouço pessoas dizerem que isso é uma nova utopia, que o universo eletrônico vai nos tornar super-homens e que seremos mais capazes e mais felizes do que jamais fomos quando estivermos usando nosso Google Glass, eu reajo visceralmente a isso. Digo a elas: vocês não estão percebendo todos os perigos óbvios que estão bem na nossa frente. Não percebem que, na verdade, não estamos ficando mais espertos por ter essas informações na ponta dos dedos. Somos as mesmas criaturas tolas que sempre fomos.
No outro lado, ouço gente lamentar que as crianças de hoje estão constantemente distraídas e imersas em seus aparelhos, que muitas perderam a capacidade de memorizar poesia, de ouvir musica clássica calmamente e de pensar grandes pensamentos. Eles têm saudades dos bons e velhos tempos, quando as pessoas eram mais sós. Eu também reajo negativamente a esse tipo de pessimismo. Na verdade, acho que estamos indo bem.
Em meu próprio livro, então, tento evitar os dois extremos. Talvez, no saldo final, eu esteja até sendo bem otimista. Mas a inundação é a última parte do subtítulo de meu livro, e isso não é um acidente. A inundação de informações não é uma coisa boa, e nós temos a sensação de estarmos sendo afogados justamente por aquilo ao qual damos tanto valor: a informação. Isso cria estresse, gera confusão e há um bocado de ignorância se misturando ao conhecimento.
Como indivíduos, porém, acho que estamos conseguindo achar nossas soluções para isso. Contanto que mantenhamos os olhos abertos e tenhamos em mente que alguns dos desafios que enfrentamos agora sempre estiveram aí, podemos encontrar um equilíbrio em nossas vidas.
Interessante a entrevista. Leva-nos a refletir que estamos num momento em que a informação invade fronteiras que criamos para os diversos segmentos da ciência.
Fronteiras imaginárias que estão sendo rompidas pela inundação de informações.
A velocidade desta inundação está desordenando, ao menos por enquanto, as informações básicas que foram construídas segmentadamente pelos diversos ramos da ciência. Isto deve implicar em novos ordenamentos da informação e do conhecimento.
Li um pedaço no jornal e, agora, compartilhei no Face. Vi o livro e fiquei interessado. Excelente entrevista!