sexta-feira, 21 de setembro de 2018

Solidão: a história de um problema ocidental

Compartilho abaixo a tradução que fiz do interessante artigo One is the loneliest number: the history of a Western problem, publicado no site AEON no dia 12 de Setembro de 2018 pela historiadora britânica Fay Bound Alberti, que é co-fundadora do Centro para a História das Emoções da Universidade Queen Mary de Londres e autora de diversos livros, dentre eles A Biography of Loneliness, que será lançado em 2019.


"Deus, a vida é solitária", declarou a escritora Sylvia Plath em seus diários privados. Apesar de todos os gracejos e sorrisos que trocamos, ela disse, apesar de todos os opiácios que usamos: "quando você finalmente encontra alguém em quem seria capaz de derramar sua alma, você é incapaz de continuar, chocada com as palavras que pronuncia – elas são tão desbotadas, tão feias, tão sem sentido e débeis por terem passado tanto tempo em uma escuridão estreita dentro de você". 

No século 21, a solidão tornou-se onipresente. Os comentaristas chamam de "uma epidemia", uma condição semelhante à "lepra" e uma "praga silenciosa" da civilização. Em 2018, o Reino Unido chegou ao ponto de nomear um Ministro da Solidão. No entanto, a solidão não é uma condição universal; nem é uma experiência interna puramente visceral. É menos uma simples emoção e mais um conjunto complexo de sentimentos, composto de raiva, luto, medo, ansiedade, tristeza e vergonha. A solidão também tem dimensões sociais e políticas, transformando-se através do tempo de acordo com concepções relativas ao self, a Deus e ao mundo natural. A solidão, em outras palavras, tem uma história.  

O termo loneliness (solidão) surge pela primeira vez na língua inglesa por volta de 1800. Antes disso, a palavra mais próxima era oneliness, simplesmente o estado de estar sozinho. Assim como solitude - do latim 'solus' que significava 'só' - a oneliness não foi caracterizada pela ausência de emoções. A solitude ou a oneliness não eram patológicas ou indesejáveis, mas, acima de tudo, entendidas como um espaço necessário para a reflexão com Deus, ou com os pensamentos mais profundos. Já que Deus estava sempre por perto, uma pessoa nunca estava realmente sozinha. No entanto, dando um salto de um século ou dois, o uso do termo loneliness - sobrecarregado de associações com as ideias de vazio e falta de conexão social -  ofuscou completamente o termo oneliness. O que aconteceu?

A noção contemporânea de solidão deriva de transformações culturais e econômicas que ocorreram no Ocidente moderno. A industrialização, o crescimento da economia de consumo, o declínio da influência da religião e a popularidade da biologia evolutiva serviram para enfatizar que o indivíduo era tudo o que importava - e não visões tradicionais e paternalistas de uma sociedade em que cada um tinha um lugar definido.  

No século XIX, filósofos políticos usaram as teorias de Charles Darwin sobre a "sobrevivência do mais apto" para justificar a busca dos vitorianos pela riqueza individual. A medicina científica, com ênfase nas emoções e experiências centradas no cérebro [brain-centred], e a classificação do corpo em estados "normais" e anormais, sublinhou essa mudança. Os quatro humores (fleumático, sanguíneo, colérico, melancólico), que dominaram a medicina ocidental por 2.000 anos e classificaram as pessoas em "tipos", foram substituídos por um novo modelo de saúde dependente do corpo físico individual.  

No século XX, as novas ciências da mente - especialmente a psiquiatria e a psicologia - ocuparam um lugar central na definição das emoções saudáveis ​​e patológicas que um indivíduo deveria experimentar. Carl Jung foi o primeiro a identificar as personalidades "introvertidas" [introvert] e "extrovertidas" [extravert] na obra Tipos psicológicos (1921). A introversão foi associada ao neuroticismo e à solidão, ao passo que a extroversão à sociabilidade, ao espírito gregário [gregariousness] e à autoconfiança. Nos Estados Unidos, essas idéias adquiriram um significado especial na medida em que estavam atreladas a qualidades individuais relacionadas ao autodesenvolvimento, à independência e ao "sonho americano". 

As associações negativas com a introversão ajudam a explicar por que a solidão agora carrega esse estigma social. As pessoas solitárias raramente querem admitir que estão sozinhas. Enquanto a solidão pode criar empatia, as pessoas solitárias podem ser motivo de desprezo; aqueles com fortes redes sociais geralmente evitam a solidão. É quase como se a solidão fosse contagiosa, tal qual as doenças com as quais ela é comparada atualmente. Quando usamos a linguagem de uma epidemia moderna, nós contribuímos para um pânico moral a respeito da solidão que pode agravar o problema subjacente. Presumir que a solidão é uma aflição generalizada e fundamentalmente individual, tornará quase impossível enfrentá-la. 

Por séculos, os escritores reconheceram a relação entre saúde mental e o pertencimento a uma comunidade. Servir a sociedade era outra maneira de servir ao indivíduo - afinal, como escreveu o poeta Alexander Pope em seu poema An essay on Man (1734):  "True self-love and social are the same". Não surpreende, portanto, descobrir que a solidão serve tanto a uma função fisiológica quanto a uma função social, como argumentou o falecido neurocientista John Cacioppo: como a fome, a solidão assinala uma ameaça ao nosso bem-estar, nascida da exclusão de nosso grupo ou tribo.  

"Nenhum homem é uma ilha", escreveu o poeta John Donne, com espírito semelhante, na obra Devotions upon emergent occasions (1624) - nenhuma mulher também, pois cada um forma "uma parte do continente, uma parte da terra". Se um "torrão de terra  for levado pelas águas até o mar, a Europa ficará diminuída ... a morte de qualquer homem me diminui, porque eu sou parte da humanidade". Para alguns de nós, os comentários de Donne assumem uma pungência especial à luz da saída do Reino Unido da Europa, ou do narcisismo da presidência de Donald Trump nos EUA. Eles também nos remetem a metáforas médicas: as referências de Donne ao corpo político sendo destruído são remicicentes da ideia de que a solidão moderna é como uma aflição física, uma praga da modernidade.  

Precisamos urgentemente de uma avaliação mais nuançada a respeito de quem é solitário, quando e por quê. A solidão é lamentada pelos políticos por ser dispendiosa, especialmente para uma população que envelhece. Pessoas solitárias são mais propensas a desenvolver enfermidades como o câncer, as doenças cardíacas e a depressão, e possuem 50% mais chances de morrer prematuramente do que as não solitárias. Mas não há nada de inevitável em ser velho e sozinho - mesmo no Reino Unido e nos EUA, onde, ao contrário de grande parte da Europa, não há uma história de cuidado inter-familiar dos idosos. A solidão e o individualismo econômico estão conectados.  

Até a década de 1830, no Reino Unido, as pessoas idosas eram cuidadas por vizinhos, amigos e familiares, bem como pela paróquia. Mas então o Parlamento aprovou a Nova Lei dos Pobres [New poor law], uma reforma que aboliu a ajuda financeira para as pessoas, exceto para os idosos e enfermos, restringindo-a àqueles que viviam em asilos [workhouses] e considerou a assistência à pobreza [poverty relief] como empréstimos que eram administrados por um processo burocrático e impessoal. A ascensão da vida nas cidades e o colapso das comunidades locais, assim como o agrupamento dos necessitados em prédios construídos para este propósito, produziram pessoas mais isoladas e idosas. É provável, dadas as suas histórias, que países mais individualistas (que incluem o Reino Unido, a África do Sul, os EUA, a Alemanha e a Austrália) experimentem a solidão de forma diferente de países mais coletivistas (como o Japão, a China, a Coréia, a Guatemala, a Argentina e o Brasil). A solidão, desta forma, é experimentada de forma diferente de lugar para lugar e ao longo do tempo. 

Com tudo isso não se pretendeu romantizar a vida comunitária ou mesmo sugerir que não houve isolamento social antes do período vitoriano. Acima de tudo, minha argumentação é que as emoções humanas são inseparáveis ​​de seus contextos sociais, econômicos e ideológicos. A raiva legítima dos moralmente ofendidos, por exemplo, seria impossível sem a crença no certo e no errado e em uma responsabilidade pessoal. Da mesma forma, a solidão só pode existir em um mundo onde o indivíduo é concebido como separado, ao invés de parte do tecido social. Não há dúvidas de que a ascensão do individualismo corroeu os laços sociais e comunitários e conduziu a uma linguagem de solidão [language of loneliness] que não existia antes de 1800.  

Se antigamente os filósofos perguntavam o que era necessário para viver uma vida significativa, o foco cultural mudou para questões relativas à escolha individual, desejo e realização. Não é coincidência que o termo "individualismo" tenha sido usado pela primeira vez (e era um termo pejorativo) na década de 1830, ao mesmo tempo em que a solidão estava em ascensão. Se a solidão é uma epidemia moderna, então suas causas também são modernas - e uma consciência de sua história pode ser a nossa salvação.

Observação: o título original deste artigo, One is the loneliest number [O um é o número mais solitário] faz referência a uma música do cantor e compositor Harry Nisson, lançada em 1968, e que já foi regravada por inúmeros artistas, ficando mais conhecida na voz da cantora Aimee Man, cuja versão faz parte da trilha sonora do maravilhoso filme Magnólia (1999) - ouça aqui.

quarta-feira, 19 de setembro de 2018

Phineas Gage: entre o mito e a realidade

Talvez você ja tenha ouvido falar de Phineas Gage. Agora, se você é estudante ou profissional das áreas de psicologia, psiquiatria, neurologia ou neurociências, é praticamente impossível que em algum momento de sua vida, em alguma disciplina, livro ou palestra, você não tenha se deparado com a trágica história de Phineas. E a razão é que este sujeito é um dos "personagens" mais famosos - se não o mais famoso - da história das neurociências. Sua trajetória pode ser encontrada em praticamente todos os manuais de introdução às "ciências do cérebro" assim como em livros clássicos da área - sendo o mais famoso deles O erro de Descartes, do neurologista português Antônio Damásio, que se inicia justamente com a história de Phineas Gage. A grande questão, que gostaria de trazer e analisar neste texto, é que existem inúmeras informações equivocadas e até mesmo inventadas sobre a vida de Phineas. Em uma profunda análise concretizada no livro An odd kind of fame: stories of Phineas Gage [Um estranho tipo de fama: histórias sobre Phineas Gage], o psicólogo Malcolm Macmillan encontrou na literatura científica e popular inúmeros relatos inconsistentes e inverossímeis sobre a trajetória de Phineas. Analisarei abaixo algumas destas "histórias" de forma a separar o que de fato sabemos e o que não sabemos (e nem podemos saber) sobre o caso. O objetivo é, enfim, tentar entender o que é realidade e o que é ficção na curiosa história de Phineas Gage.

Pois bem, a história de Phineas Gage tem início no dia 9 de Julho de 1823, data de seu nascimento em New Hampshire nos Estados Unidos. No entanto, o evento que o tornou célebre e que representou praticamente um renascimento, ocorreu 25 anos após esta data, mais especificamente no dia 13 de setembro de 1848, nos arredores da cidade de Cavendish, também nos EUA.  Às 16:30h deste dia, Phineas, que trabalhava como capataz da indústria ferroviária,  fez um buraco em uma rocha, como de costume, e estava ajeitando a pólvora neste buraco com uma barra de ferro de cerca de 1 metro de comprimento, quando uma explosão fez com a barra entrasse com toda a força e velocidade em seu rosto, na altura de sua bochecha esquerda, e saísse pelo topo de sua cabeça, caindo a mais de 30 metros de distância. Em questão de segundos, seu olho esquerdo foi destruído e algumas partes do seu cérebro e crânio foram seriamente lesionadas. No entanto, surpreendentemente, Phineas ficou inconsciente por apenas alguns instantes, recobrando o movimento e a fala muito rapidamente. Esta parte da história, muito provavelmente, é verdadeira. As controvérias começam com os relatos sobre os momentos posteriores a este terrível acidente. De acordo com alguns desses relatos, após este episódio Cage mudou radicalmente sua personalidade, deixando de ser a pessoa pacata, responsável e educada que era até então e se tornando um sujeito anti-social, instável e até mesmo violento. Alguns relatos chegam a dizer que Gage se tornou um psicopata, isto é, um sujeito indiferente e hostil aos demais seres humanos. Outros relatos ainda apontam que Cage tornou-se tão perturbado e louco que chegou a molestar algumas crianças.

Todas estas narrativas são frequentemente utilizadas por neurocientistas e psicológos como provas incontestáveis de que determinadas partes do cérebro, em especial os lobos frontais (que teriam sido lesionados no acidente), são imprescindíveis para o controle de impulsos e para a execução de comportamentos pró-sociais de uma forma geral - o que significa também que qualquer lesão significativa nestas áreas poderia (na verdade, deveria) causar importantes e, até certo ponto, irreversíveis mudanças no comportamento e na personalidade do sujeito. No entanto, a incômoda realidade é que muito pouco se sabe sobre o comportamento de Gage após o acidente - assim como pouco se sabe sobre sua vida pregressa. Como aponta Malcolm Macmillian, grande parte destes relatos são inconsistentes e não fundamentados pelas evidências disponíveis. O que de fato se sabe é que cerca de uma hora após o acidente, Gage foi atendido pelo médico John Martyn Harlow, que conseguiu conter a hemorragia e, posteriormente, tratar uma grave infecção decorrente. Estes esforços, certamente, salvaram a vida de Gage. Três meses após o acidente e, tendo perdido o emprego de capataz, Gage regressou à fazenda de seus pais e passou a maior parte do ano de 1849 se recuperando. No mês de novembro deste ano, viajou até a cidade de Boston para ser examinado pelo médico Henry Jacob Bigelow, que também atuava como professor de cirurgia na Universidade de Harvard. A partir de 1950, Gage esteve envolvido em diversas atividades: atuou como atração de um "show de horrores" no Museu Americano de Barnum, em Nova Iorque; trabalhou como condutor de carruagens em Hanover; e então se mudou para o Chile com um homem que pretendia montar uma linha de carruagens em Valparaíso. Depois de muitos anos dirigindo carruagens, Phineas decidiu  retornar aos Estados Unidos, em 1859, para se reaproximar de sua família, que agora morava na cidade de São Francisco. Ainda no Chile Gage adquiriu alguma doença desconhecida e chegou nos EUA enfraquecido, o que lhe impossibilitou inicialmente de trabalhar. Pouco tempo depois, no início de 1860, Phineas começou a ter uma série de convulsões, que foram se tornando cada vez mais frequentes e graves. Até que no dia 21 de Maio de 1860 Phineas Gage faleceu, aos 37 anos, como consequência destes ataques, tendo sobrevido 11 anos e meio após o acidente. Seu crânio encontra-se, atualmente no Museu Anatômico de Warren, na Universidade de Harvard.

John Martyn Harlow (1819–1907)
Especificamente com relação às mudanças na personalidade de Gage existem poucos registros. Em 1868 - oito anos após sua morte - o médico John Martyn Harlow, descreveu em um relatório com menos de 200 palavras os motivos pelos quais os patrões de Phineas não o teriam empregado novamente. Esse resumo, além de algumas poucas palavras utilizadas por Harlow no laudo que escreveu após o acidente, nos contam praticamente tudo o que sabemos sobre a personalidade subsequente de Gage - e mesmo tais documentos não são totalmente confiáveis pois as avaliações que eles expõem foram todas subjetivas (nenhum teste ou avaliação mais objetivo foi aplicado em Gage, como seria feito hoje). Segundo Harlow, em seu relatório de 1868, o acidente destruiu "o equilíbrio entre suas faculdades intelectuais e suas propensões animais". Além disso, em função do acidente, Phineas teria se tornado: "vacilante, irreverente e grosseiramente profano, demonstrando 'pouca deferência por seus companheiros de trabalho'"; "intolerante a restrições ou conselhos que conflitam com seus desejos", "obstinadamente teimoso, caprichoso e vacilante a respeito de seus planos para o futuro"; "intelectualmente infantil com as 'paixões animais' de um homem forte". Em contraposição, Harlow apontou que anteriormente ao acidente, Phineas havia sido: "forte e ativo, com determinação de ferro e temperamento nervo-bilioso"; "de hábitos moderados e possuidor de uma considerável energia de caráter"; "o favorito dentre seus colegas de trabalho"; "o capataz mais eficiente e hábil contratado por seus patrões", "de posse de uma mente equilibrada" e "prezado como um homem de negócios esperto e inteligente muito energético na execução de seus planos". Harlow ainda aponta em seu escrito de 1868 que amigos e conhecidos de Phineas teriam dito que "Gage não era mais Gage", frase que se tornou famosa. A grande questão sobre estas supostas mudanças de personalidade é que elas estão respaldadas em apenas um documento, escrito por apenas um médico, Harlow, 8 anos após a morte de Gage. No laudo de 1848, escrito também por Harlow, não há nenhuma consideração sobre mudanças de personalidade - até porque o acidente tinha acabado de ocorrer. Da mesma forma, em registros posteriores feitos por outros médicos (Jackson em 1849 e Bigelow em 1950), não há, igualmente, nenhuma referência a tais mudanças.

De acordo com Macmillan, parte desta negligência pode ser explicada pela falta de conhecimento sobre as funções do cérebro no início do século XIX. De acordo com o autor, "além da organologia de Franz Josef Gall (frenologia) não existia, antes de 1848, uma teoria sobre o funcionamento do cérebro. O entendimento de que os nervos transmitem sensações e controlam os movimentos já era conhecido, mas ainda não era aceita a ideia de que danos em um lado do cérebro poderiam afetar os movimentos ou as sensações". Mas não só: o entendimento óbvio atualmente de que nossa linguagem e personalidade dependem, de alguma forma, do funcionamento cerebral, ainda não havia sido demonstrado até aquele momento. A situação teria começado a mudar na década de 1860, justamente na época do relatório de 1868 escrito por Harlow. Neste momento os achados feitos por Paul Broca a partir do estudo post mortem do cérebro de sujeitos afásicos sugeriu que as funções da linguagem estavam localizadas no hemisfério cerebral esquerdo. Um pouco mais tarde os experimentos feitos por David Ferrier com macacos demonstraram que danos no lobo pré-frontal poderiam provocar profundas mudanças de personalidade. No entanto, no momento do acidente de Gage - e até cerca de 20 anos após - não se sabia de nada disso. Segundo Macmillan, "Gage estava literalmente à frente de seu tempo". A consequência disso é que grande parte das análises sobre as supostas mudanças em sua personalidade foi feita retrospectivamente, de forma a se ajustar a certas teorias desenvolvidas nas décadas subsequentes. Como aponta Macmillan, "muitas interpretações sobre o comportamento de Phineas foram feitas para suportar teorias particulares". Por exemplo, as alegações sobre as mudanças na sexualidade de Gage - jamais mencionadas nos relatórios e laudos escritos por Harlow e Bigelow, os únicos que de fato examinaram Gage - serviram para dar suporte a observações feitas posteriormente com pacientes lobotomizados, que, em alguns casos, apresentavam tais mudanças. Da mesma forma, grande parte das supostas mudanças apontadas em Gage não passam de distorções ou puras invenções feitas com o propósito de confirmar certas teorias sobre o funcionamento do cérebro e, especificamente, sobre o funcionamento dos lobos frontais, que teriam sido lesionados em Gage. No entanto, como o cérebro de Gage jamais foi analisado - apenas seu crânio, retirado em uma exumação feita em 1867 - é impossível dizer com precisão quais áreas foram efetivamente lesionadas.

Tudo isto significa que grande parte do que é dito sobre Phineas Gage muito provavelmente não ocorreu ou ocorreu de uma outra forma. Esta contraposição quase caricatural entre o sujeito trabalhador, tranquilo e confiável de antes do acidente e o sujeito indisciplinado, imprevisível e depravado de depois do acidente não passa, muito provavelmente, de um mito, criado para respaldar certas teorias sobre o funcionamento do cérebro. Como afirma o jornalista científico Sam Kean no maravilhoso livro O duelo dos neurocirurgiões, "Gage tornou-se - e contiua sendo até hoje - uma espécie de teste de Rorschach para neurocientistas, um reflexo das paixões e obsessões de cada era que passa". Curiosamente, uma possibilidade pouco discutida na literatura neurocientífica é aquela que aponta para a recuperação, ainda que parcial, de Phineas Gage. Tendo em vista a compreensão contemporânea acerca da plasticidade cerebral, assim como os imprecisos mas fundamentais relatos sobre sua vida subsequente, não me parece incorreto afirmar que Gage, de alguma forma, se recuperou da grave lesão cerebral causada pelo acidente. Nunca saberemos de fato, mas indícios indiretos apontam nesta direção. Macmillan afirma, por exemplo, que o longo período em que Gage trabalhou como condutor de carruagens no Chile - um trabalho exigente em termos de habilidades motoras e cognitivas - é inconsistente com a ideia de que após o acidente ele teria se tornado totalmente indisciplinado, impulsivo e desleixado. De acordo com o mesmo autor, a possibilidade de que Gage tenha se recuperado, ainda que parcialmente, traz consigo importantes consequências teóricas e práticas. Segundo Macmillan tal descoberta "poderia se somar  às evidências atuais de que reabilitação pode ser efetiva mesmo em casos difíceis e graves. Mas também poderia significar que o pesquisadores do funcionamento do lobo frontal teriam de considerar que os lobos cerebrais e suas funções são muito mais plásticos do que pensamos agora". Ainda que esta possibilidade de que Gage tenha se recuperado seja em grande medida especulativa, as demais histórias sobre sua vida e sobre suas supostas mudanças  de personalidade são igualmente especulativas. A dolorosa verdade é que jamais saberemos de fato (e em detalhes) como foi a vida e a personalidade de Phineas Cage antes e após o acidente, assim como jamais saberemos com exatidão quais partes de seu cérebro foram danificadas. E este vácuo, por sua vez, abriu espaço para todo tipo de especulação. Como afirma Sam Kean "a escassez de detalhes concretos sobre Gage provavelmente assegurou sua fama, uma vez que deixou espaço infinito para interpretação e discussão". Assim, para além de um marco na história das neurociências, a curiosa história de Phineas Gage também ilustra com perfeição a facilidade com que uma pequena quantidade de fatos pode ser transformada, ao longo do tempo, em um mito popular e científico. 

Indicações de leitura:

sexta-feira, 14 de setembro de 2018

A mística cerebral

Compartilho abaixo a tradução que fiz do sensacional artigo The cerebral mystique, publicado pela revista eletrônica AEON no dia 8 de Maio de 2018. Seu autor é o professor de engenharia biológica, ciências cerebrais e cognitivas do Massachusetts Institute of Technology (MIT) Alan Jasanoff, que também é autor do livro The Biological Mind: How Brain, Body, and Environment Collaborate to Make Us Who We Are [A mente biológica: como cérebro, corpo e ambiente colaboram para nos fazer quem somos] (2018).

Mais de 2.000 anos atrás, o pai semi-mítico da medicina, Hipócrates de Kos, desafiou os espiritualistas de seu tempo com uma afirmação ousada sobre a natureza da mente humana. Em resposta às explicações sobrenaturais do fenômeno mental, Hipócrates insistiu que "de nenhum outro lugar, se não do cérebro, vem a alegria, o prazer, o riso, a recreação, a tristeza, a melancolia, o pessimismo e as lamentações". Na era moderna, as palavras de Hipócrates foram destiladas em um slogan pop-neurocientífico afinado com a lógica do Twitter: "Nós somos os nossos cérebros". Essa mensagem tem ressonância com as tendências recentes de culpar o cérebro pela criminalidade, de redefinir a doença mental como doença cerebral e, nos círculos tecnológicos futuristas, de imaginar o aprimoramento e a preservação das nossas vidas através do aprimoramento e da preservação dos nossos cérebros. Da criatividade à dependência de drogas, praticamente não existe um aspecto do comportamento humano ao qual não se tenha atribuído uma função cerebral. Para muitas pessoas atualmente, o cérebro parece ser o substituto contemporâneo da alma.

Mas deixando de lado o romance do público com o cérebro, a lição mais fundamental que a neurociência tem a nos ensinar é que o órgão de nossas mentes é uma entidade puramente física, incorporada conceitual e causalmente no mundo natural. Embora o cérebro seja necessário para quase tudo que fazemos, ele nunca trabalha sozinho. Em vez disso, sua função está inextricavelmente ligada ao corpo e ao ambiente ao seu redor. A interdependência desses fatores é mascarada, porém, por um fenômeno cultural que chamo de "mística cerebral" - uma disseminada idealização do cérebro e de sua singular importância que protege as concepções tradicionais sobre as diferenças entre mente e corpo, sobre o livre-arbítrio e sobre a natureza do próprio pensamento
 
A mística é expressa de múltiplas formas, variando desde representações onipresentes de cérebros sobrenaturais e ultra-sofisticados na ficção científica e na mídia popular até concepções mais sóbrias e cientificamente embasadas das funções cognitivas que enfatizam suas qualidades inorgânicas ou restringem os processos mentais a estruturas neurais. Essa idealização é quase que automaticamente adotada por leigos e cientistas (inclusive por mim mesmo!) e é compatível tanto com a visão de mundo materialista quanto com a espiritualista. A mística cerebral pode ajudar a aumentar o entusiasmo pela neurociência - uma consequência valiosa - mas ela limita drasticamente nossa capacidade de analisar o comportamento humano e de enfrentar problemas sociais importantes.

A difundida analogia do cérebro com um computador contribui de maneira poderosa para a mística cerebral, distanciando o cérebro do resto da biologia. O contraste entre o cérebro-máquina e a bagunça molhada e caótica [wet, chaotic mess] que temos no restante do nosso corpo estabelece uma distinção cérebro-corpo que se assemelha à histórica distinção mente-corpo estabelecida por filósofos antigos como René Descartes. Em consonância com as noções religiosas ocidentais de alma, Descartes postulou no século XVII que a mente é uma entidade etérea que interage com o corpo, mas que não se une a ele. Com seu axioma atemporal "penso, logo existo", Descartes colocou a mente em seu próprio universo, independente do mundo material. 


Na medida em que o cérebro se assemelha a uma máquina, podemos mais facilmente imaginá-lo sendo removido de nossas cabeças, preservado por toda a eternidade, clonado ou enviado para o espaço. O cérebro digital parece assim separável do corpo tanto em sua substância quanto em suas relações causais, de forma muita semelhante com o espírito desprendido de Descartes. Pode não ser por acaso que algumas das analogias inorgânicas mais influentes sobre o cérebro foram introduzidas por cientistas físicos que, em seus últimos anos de vida, abraçaram o problema da consciência da mesma forma que os idosos por vezes se aferram à religião. John von Neumann, o pioneiro da computação, foi o mais conhecido deles; ele escreveu o influente livro The computer and the brain [O Computador e o Cérebro] (1958) pouco antes de sua morte em 1957, inaugurando essa duradoura analogia no início da era digital.

Os cérebros são, sem dúvida alguma, semelhantes aos computadores - os computadores, afinal de contas, foram inventados para executar funções semelhantes às realizadas pelo cérebro -, mas os cérebros também são muito mais do que feixes de neurônios e impulsos elétricos pelos quais eles são famosos por propagar. A função de cada sinal neuroelétrico é liberar uma pequena inundação de substâncias químicas que ajudam a estimular ou inibir as células cerebrais, da mesma forma que substâncias químicas ativam ou inibem funções como a produção de glicose pelas células do fígado ou respostas imunes pelas células brancas do sangue. Mesmo os sinais elétricos do cérebro são produtos de substâncias químicas chamadas íons, que entram e saem das células, causando pequenas ondulações que podem se espalhar de forma independente dos neurônios. 

Igualmente distintas dos neurônios são as relativamente passivas células cerebrais denominadas glia (palavra que em grego significa cola), que existem em número semelhante ao de neurônios, mas não conduzem sinais elétricos da mesma maneira. Experimentos recentes com ratos demonstraram que manipular essas pouco carismáticas células pode produzir efeitos dramáticos no comportamento. Em um experimento, um grupo de pesquisa do Japão demonstrou que a estimulação direta da glia em uma região do cérebro chamada cerebelo pode causar uma resposta comportamental análoga às mudanças mais comumentes provocadas pela estimulação dos neurônios. Outro estudo notável mostrou que o transplante de células glias humanas para cérebros de camundongos aumentou o desempenho dos animais em testes de aprendizado, mais uma vez demonstrando a importância da glia na modelagem da função cerebral. As substâncias químicas e a cola são tão essenciais para o cérebro quanto a fiação e a eletricidade. Com esses elementos úmidos [moist elements] levados em conta, o cérebro começa a parecer muito mais uma parte orgânica do corpo do que a prótese idealizada que muitas pessoas imaginam. 

Estereótipos sobre a complexidade cerebral também contribuem para a mística do cérebro e sua distinção do corpo. Tornou-se um clichê se referir ao cérebro como "a coisa mais complexa no Universo conhecido". Esta ideia é inspirada pela descoberta de que os cérebros humanos contêm algo na ordem de 100.000.000.000 de neurônios, cada um dos quais com a capacidade de fazer cerca de 10.000 conexões (sinapses) com outros neurônios. A natureza assustadora de tais números oferece respaldo às pessoas que argumentam que a neurociência nunca decifrará a consciência, ou que o livre arbítrio se esconde, de alguma forma, entre as bilhões de células e conexões cerebrais.

Mas é improvável que o grande número de células no cérebro humano explique suas extraordinárias capacidades. Os fígados humanos têm aproximadamente o mesmo número de células que os cérebros, mas certamente não geram os mesmos resultados. Os próprios cérebros variam consideravelmente de tamanho - em cerca de 50% da massa e do número de células cerebrais. A remoção radical de metade do cérebro é às vezes utilizada como um tratamento para a epilepsia em crianças. Comentando sobre um coorte de mais de 50 pacientes submetidos a esse procedimento, uma equipe da Universidade Johns Hopkins, localizada em Baltimore, escreveu que eles ficaram "admirados com a evidente retenção de memória após a remoção de metade do cérebro e também com a conservação da personalidade e do senso de humor da criança". Claramente, nem todas as células cerebrais são sagradas. 


Caso se olhe para o reino animal, grandes variações no tamanho do cérebro não se correlacionam em absoluto com o  poder cognitivo aparente. Alguns dos animais mais perspicazes são os corvídeos - as gralhas e os corvos - que possuem cérebros com menos de 1% do tamanho do cérebro humano, mas que, ainda assim, realizam façanhas cognitivas comparáveis aos chimpanzés e gorilas. Estudos comportamentais demonstraram que essas aves podem criar e utilizar ferramentas e também reconhecer pessoas na rua, façanhas que até mesmo muitos primatas não são capazes de realizar. No interior de ordens específicas, animais com características semelhantes também exibem grandes diferenças no tamanho do cérebro. Dentre os roedores, por exemplo, podemos encontrar o cérebro da capivara, que possui 80 gramas e 1,6 bilhão de neurônios, e o também o cérebro do camundongo-pigmeu, que possui 0,3 gramas e, provavelmente, menos de 60 milhões de neurônios. Apesar da diferença de mais de 100 vezes no tamanho do cérebro, essas espécies vivem em habitats similares, exibem estilos de vida sociais semelhantes e não apresentam diferenças óbvias na inteligência. Embora a neurociência esteja apenas começando a estudar as funções cerebrais de animais pequenos, tais pontos de referência demonstram que é errado mistificar o cérebro em função de seu número total de componentes. 

Ao se enfatizar as qualidades maquinais do cérebro ou a sua incrível complexidade, isto acaba por distanciá-lo do restante do mundo biológico no que diz respeito aos seus componentes. Mas uma forma relacionada de distinção cérebro-corpo exagera a maneira pelo qual cérebro se destaca no que diz respeito à sua autonomia em relação ao corpo e ao meio ambiente. Este dualismo contribui para a mística cerebral ao engrandecer a reputação do cérebro identificando-o como um centro de controle, receptivo a informações corporais e ambientais, mas ainda assim no comando.


Contrariamente a essa ideia, nossos próprios cérebros são continuamente influenciados por uma grande quantidade de inputs sensoriais. O ambiente dispara muitos megabytes de dados sensoriais ao cérebro a cada segundo, informação suficiente para desativar muitos computadores. O cérebro não tem firewall contra esse tipo de "ataque". Estudos de imagem cerebrais mostram que mesmo estímulos sensoriais sutis influenciam certas regiões do cérebro, que vão desde regiões sensoriais de nível inferior [low-level], onde o input entra no cérebro, até partes do lobo frontal, área de nível superior [high-level] que é maior em humanos do que na maioria dos primatas.

Muitos desses estímulos parecem assumir o controle direto de nosso comportamento. Por exemplo, quando vemos ilustrações, suas características visuais geralmente parecem atrair nossos olhos e orientar nosso olhar em torno de padrões espaciais que são amplamente reproduzíveis de pessoa para pessoa. Se observarmos um rosto, nosso foco se move reflexivamente entre os olhos, o nariz e a boca, subconscientemente se focando em suas características-chave. Quando andamos pela rua, nossas mentes são similarmente manipuladas por estímulos do ambiente circundante - o barulho da buzina de um carro, o brilho de uma luz neon, o cheiro de uma pizza - cada um destes estímulos guiam nossos pensamentos e ações mesmo que nós não nos demos conta de nada do que está acontecendo.


Ainda mais abaixo do nosso radar [istoé, da nossa percepção consciente] estão as características ambientais que agem em uma escala de tempo mais lenta influenciando nosso humor e nossas emoções. Os baixos níveis sazonais de luz são famosos por sua correlação com a depressão, um fenômeno descrito pela primeira vez pelo médico sul-africano Norman Rosenthal logo após ele se mudar da ensolarada Joanesburgo para o cinza nordeste dos Estados Unidos na década de 1970. As cores em nosso entorno também nos afetam. Embora a ideia de que as cores tenham poder psíquico evoque o misticismo da Nova Era, experimentos cuidadosos repetidamente ligaram cores frias, como o azul e o verde, a respostas emocionais positivas, e tons quentes avermelhados a respostas negativas. Em um exemplo, os pesquisadores mostraram que os participantes tiveram um desempenho pior nos testes de QI marcados com a cor vermelha do que nos testes marcados com verde ou cinza; outro estudo descobriu que os sujeitos se saíram melhor em testes computadorizados de criatividade desenvolvidos em um fundo azul do que em um fundo vermelho. 

Sinais de dentro do corpo influenciam o comportamento tão poderosamente quanto as influências do meio ambiente, novamente usurpando o comando do cérebro e desafiando concepções idealizadas de sua supremacia. Um caminho particularmente poderoso para as interações recíprocas cérebro-corpo é o chamado eixo hipotálamo-pituitária-adrenal (HPA), nome dado a um conjunto de estruturas dentro e fora do cérebro que coordenam juntas a resposta de luta ou fuga. A ativação do eixo HPA é freqüentemente desencadeada por sinais cerebrais relacionados ao medo que levam à secreção de cortisol e adrenalina por uma glândula situada no topo dos rins. Esses hormônios, por sua vez, desencadeiam uma série de mudanças corporais que afetam a respiração, a frequência cardíaca, a acuidade sensorial e muitas outras variáveis, fornecendo feedback ao cérebro e fechando um circuito de interação mútua cérebro-corpo. Em alguns casos, o eixo HPA pode ser acionado de fora do cérebro, como na gravidez, quando um "surto" de cortisol tem origem na placenta. 

O eixo HPA fornece uma das rotas pelas quais nossos estados emocionais geralmente são conectados a mudanças corporais que se estendem para muito além do cérebro. O monitoramento de parâmetros fisiológicos observáveis ​​externamente, tais como a condutância da pele e a respiração, há muito apoia a ideia de que as emoções produzem respostas distintas, relacionadas às formas como elas são percebidas. Em um estudo de 2014, um grupo de pesquisadores liderado por Lauri Nummenmaa, da Universidade Aalto, na Finlândia, pediu aos participantes para descrever as sensações corporais que eles associavam a 14 emoções distintas. O resultado foi um impressionante conjunto de "mapas corporais" das emoções, revelando padrões variados de aumento e diminuição da sensibilidade associados a sentimentos como a raiva, o medo, a felicidade, a depressão, o amor e assim por diante. A habilidade dos sujeitos de relatar suas sensações enfatiza que as mudanças corporais são parte de como as emoções são experienciadas, e não apenas consequencias da atividade cerebral relacionada à emoção. 

Uma extraordinário achado feito nos últimos anos é o fato de que os micróbios que vivem nos intestinos também fazem parte da rede fisiológica que influencia nossas emoções. Alterar a população microbiana do intestino comendo alimentos ricos em bactérias [bacteria-rich foods] ou submetendo-se a um procedimento desconcertante denominado transplante fecal pode alterar características como a ansiedade e a agressividade. Um experimento-chave foi realizado com ratos, onde uma troca de micróbios intestinais entre uma linhagem de ratos normalmente tímida chamada BALB/c e uma linhagem mais extrovertida denominada NIH Swiss foi suficiente para inverter suas personalidades. Em pacientes humanos transplantados, os efeitos cognitivos e emocionais também são comuns. Alguns desses efeitos estão relacionados à correção da condição médica que levou à necessidade do transplante. Por exemplo, a insuficiência hepática ou renal provoca um acúmulo de toxinas como a amônia no sangue; isto, por sua vez, causa algumas dificuldades cognitivas que podem ser corrigidas pela substituição do órgão doente. No entanto, até mesmo procedimentos como a redução de estômago, que não curam propriamente uma doença, causam mudanças de personalidade em cerca de 50% dos pacientes.

Tais exemplos ilustram até que ponto o que acontece no cérebro é entrelaçado com o que acontece no corpo e no ambiente. Não há limite causal ou conceitual entre o cérebro e seu entorno. Alguns aspectos da mística cerebral - visões idealizadas do cérebro como algo inorgânico, hipercomplexo, autocontido e autônomo - falham quando analisamos mais de perto do que o cérebro é feito e como ele funciona. O envolvimento integrado entre cérebro, corpo e ambiente é precisamente o que faz com que ter uma mente biológica seja diferente de ter uma alma - e as implicações dessa diferença são tremendas. Mais importante ainda, a mística cerebral promove uma sensação enganosa de que o cérebro é o principal motor dos nossos pensamentos e ações. À medida que procuramos entender a conduta humana, a mística nos leva a pensar primeiro nas causas relacionadas ao cérebro e a prestar menos atenção a fatores fora de nossas cabeças. Isso nos leva a enfatizar demais o papel dos indivíduos e a subestimarmos o papel dos contextos em uma série de fenômenos culturais.

Na área da justiça criminal, por exemplo, alguns escritores sugerem que o cérebro do criminoso deveria ser culpado pelas transgressões. Este argumento frequentemente invoca o caso de Charles Whitman, que em 1966 cometeu um dos primeiros tiroteios em massa dos EUA, na Universidade do Texas. Nos meses que antecederam o crime, Whitman expôs seus problemas psicológicos [à profissionais do centro de saúde da universidade], e sua autópsia revelou que um grande tumor estava crescendo perto de uma parte do seu cérebro denominada amígdala, área relacionada ao processamento do estresse e à regulação das emoções. No entanto, ainda que os defensores da culpabilização do cérebro argumentem que o tumor cerebral de Whitman possa ter causado o crime, a realidade é que seu ato ocorreu num cenário com múltiplos fatores predisponentes: crescer com um pai violento, o recente divórcio de seus pais, reiteradas rejeições em sua carreira, abuso de substâncias, grande estatura física e acesso a armas de alta potência. Mesmo a alta temperatura no dia do crime - 37 graus Celsius - poderia ter contribuído para o comportamento agressivo de Whitman.

Culpar o cérebro pelo comportamento criminoso oferece uma possibilidade de escape dos antiquados princípios  da moralidade e da retribuição, mas certamente negligencia a extensa rede de influências que contribuem para qualquer situação. Na atual discussão sobre as causas da violência nos EUA, é mais importante do que nunca manter uma visão ampla de como múltiplos fatores trabalham juntos dentro e ao redor de cada indivíduo; problemas mentais, acesso a armas, influências da mídia e alienação social podem todos contribuir para o problema. Em outros contextos, nós ignoramos fatores semelhantes quando culpamos o cérebro pela dependência de drogas ou pelo mau comportamento do adolescente, ou ainda quando atribuimos apenas ao cérebro nossa criatividade e inteligência. Em cada caso, uma visão idealizada que simplesmente localiza boas e más qualidades pessoais no cérebro é surpreendentemente semelhante à certas perspectivas antiquadas que atribuíam a virtude e vício à alma metafísica. Uma visão contemporânea deve aceitar que qualquer ato de genialidade ou depravação surge de uma combinação de cérebro, corpo e ambiente trabalhando juntos.

A mística cerebral tem uma importância particular para a forma como nossa sociedade lida com o problema da doença mental. Isso em função do esforço generalizado de redefinir as doenças mentais como distúrbios cerebrais. Seus proponentes argumentam que tal redefinição posiciona os problemas psicológicos na mesma categoria que a gripe ou o câncer - doenças que não evocam o estigma social comumente associado aos transtornos psiquiátricos.  E de fato existem algumas evidências de que usar a linguagem dos distúrbios cerebrais contribui para a redução de barreiras para que os pacientes com problemas mentais procurem tratamento, um benefício importante. 

Em outros aspectos, no entanto, a reclassificação de doenças mentais como distúrbios cerebrais pode ser altamente problemática. Para os pacientes, atribuir problemas mentais a defeitos neurológicos intrínsecos implica em uma auto-estigmatização. Embora pessoas com "cérebros quebrados" não possam ser responsabilizadas moralmente ou instruídas a "simplesmente superar isso", a compreensão de que elas são irremediavelmente defeituosas pode ser igualmente prejudicial. Falhas biológicas podem ser mais difíceis de consertar do que lapsos morais, e pessoas com disfunção cerebral podem ser vistas como perigosas ou até mesmo como menos humanas. Essa atitude chegou a extremos com os nazistas, que assassinaram milhares de pacientes com problemas mentais como parte de seu programa de "eutanásia" durante a Segunda Guerra Mundial, mas persiste de formas mais sutis atualmente. Uma grande análise realizada em 2012 a respeito das mudanças de atitude com relação à doença mental constatou que não houve um aumento na aceitação social de pacientes com depressão ou esquizofrenia, apesar da crescente conscientização a respeito das contribuições neurobiológicas para tais condições.

Independentemente de suas implicações sociais, culpar o cérebro pelas doenças mentais pode ser cientificamente impreciso em muitos casos. Embora todos os problemas mentais envolvam o cérebro, os fatores causais subjacentes podem estar em outro lugar. No século XIX, a sífilis, doença bacteriana sexualmente transmissível, e a pelagra, doença relacionada à deficiência de vitamina B, estavam dentre as maiores causadoras de internação nos asilos para insanos na Europa e nos EUA. Um estudo mais recente estimou que cerca de 20% dos pacientes psiquiátricos têm alguma doença corporal que pode estar produzindo ou piorando sua condição mental; tais doenças incluem problemas cardíacos, pulmonares e endócrinos, que geram importantes efeitos cognitivos adversos. Pesquisas epidemiológicas descobriram correlações consideráveis ​​entre a incidência de doenças mentais e fatores como o pertencimento a uma minoria étnica, nascimento em uma determinada cidade e nascimento em certas épocas do ano. Embora estas correlações não tenham sido bem explicadas, elas enfatizam o provável papel dos fatores ambientais, para muito além do cérebro, no desenvolvimento dos problemas psiquiátricos. Nós devemos ser sensíveis a esses fatores se quisermos tratamentos e prevenções mais efetivas para os transtornos mentais. 

Em um nível ainda mais profundo, as convenções culturais circunscrevem a noção de doença mental. Há apenas 50 anos, a homossexualidade era classificada como uma patologia no manual oficial dos transtornos mentais da Associação Psiquiátrica Americana (APA). Na Rússia soviética, os dissidentes políticos algumas vezes eram internados com base em diagnósticos psiquiátricos que chocariam a maioria dos observadores atuais. No entanto, a preferência sexual ou a incapacidade de se curvar a uma autoridade na luta por uma causa virtuosa são ambos traços psicológicos para os quais eventualmente poderíamos encontrar certos correlatos biológicos. Isso não significa que a homossexualidade e a dissidência política sejam doenças cerebrais. É a sociedade, e não a neurobiologia, que define, no fim das contas, os limites da normalidade que determinam as categorias psiquiátricas [mental-health categories].

A mística cerebral exagera a contribuição do cérebro para o comportamento humano e, para alguns pesquisadores, também suscita visões notáveis ​​do papel do cérebro no futuro da própria humanidade. Nos círculos tecnofílicos, há cada vez mais falas a respeito da ideia de "hackear o cérebro" para melhorar a cognição humana. Essa noção evoca o tipo de intervenção sofisticada mas semi-subversiva que se pode fazer de um smartphone  ou de servidor do governo, mas a realidade geralmente é mais parecida com o tipo de "hacking" que se executaria com um facão [a expressão "to hack", em inglês significa, originalmente, "cortar"]
. Alguns dos mais antigos hacks cerebrais envolveram a destruição intencional de certas áreas do cérebro, atividade que se tornou famosa como parte do extinto procedimento da psicocirurgia que inspirou o romance de Ken Kesey, Um estranho no ninho (1962). O mais avançado dos atuais hacks cerebrais envolve o implante cirúrgico de eletrodos voltados para a estimulação direta ou para o registro do tecido cerebral. Essas intervenções podem restaurar certas funções básicas de pacientes com graves distúrbios de movimento ou paralisia - um feito incrivelmente impressionante, mas ainda assim muito distante dos aprimoramentos voltados para a expansão das habilidades normais. Essa distância não impediu empresários como Elon Musk ou a agência de defesa norte-americana DARPA de investir pesadamente em uma tecnologia que eles esperam um dia conecte, de forma rotineira, cérebros humanos saudáveis a computadores.

Mas este entusiasmo é em grande parte consequência de uma distinção artificial estabelecida entre o que acontece dentro e fora do cérebro. O filósofo Nick Bostrom, do Future of Humanity Institute, sediado em Oxford, afirma que "a maioria dos benefícios que você poderia se imaginar alcançando através de [implantes cerebrais] poderiam ser alcançados tendo os mesmos dispositivos instalados fora do seu corpo, por exemplo usando certas interfaces naturais como seus globos oculares, que podem projetar 100 milhões de bits por segundo diretamente no seu cérebro". Na verdade, a maioria de nós está familiarizada com o tipo de dispositivo voltado para o aprimoramento cognitivo que pode ser encontrado em nossas mesas, bolsos e bolsas, aumentando nossa capacidade de memorização e comunicação sem tocar em nenhum neurônio. É questionável se conectar dispositivos semelhantes a smartphones diretamente aos cérebros acrescentaria algo além de aborrecimento e distração. 

No campo da medicina, os esforços iniciais para restaurar a visão de pessoas cegas usando implantes cerebrais rapidamente cederam lugar a abordagens muito menos invasivas envolvendo próteses de retina, que alavancam a fisiologia natural do corpo de forma a proporcionar o processamento de informações visuais. Os implantes cocleares que restauram a audição de pacientes surdos baseiam-se na estratégia semelhante de serem conectados ao nervo auditivo no ouvido, em vez de ao próprio cérebro. Exceto nos pacientes mais debilitados, as próteses para restaurar ou melhorar o movimento também se beneficiam de interfaces com o corpo. Para dar aos amputados o controle sobre os membros artificiais mecanizados, uma técnica chamada "reinervação muscular direcionada" permite que os médicos conectem os nervos periféricos "frouxos" do membro original ausente a novos grupos musculares que, por sua vez, se comunicam com o dispositivo. Para melhorar a função motora em pessoas saudáveis, os exoesqueletos elétricos desenvolvidos por empresas como a Cyberdyne no Japão comunicam-se com o portador através de eletrodos instalados na superfície da pele, recebendo também informações do cérebro através de canais indiretos, mas progressivamente aprimorados. Em cada um desses exemplos, as interações naturais do cérebro com o corpo ajudam a pessoa a usar a prótese, potencializando, ao invés de negando, a continuidade entre o cérebro e o corpo. 

O caminho mais extremo da tecnologia futurista cerebral é a busca pela imortalidade através da preservação post-mortem dos cérebros humanos. Duas empresas atualmente se oferecem para extrair e preservar os cérebros dos "clientes" moribundos, que não desejam ir passivamente para a "outra vida". Os órgãos serão armazenados em nitrogênio líquido até que a tecnologia avance ao ponto (ainda distante) onde o cérebro possa ser restaurado para funcionar de alguma forma ou analisado em detalhes suficientes para "carregar" sua mente em um computador. Este empreendimento leva a mística cerebral ao seu desfecho lógico, abraçando totalmente a falácia de que a vida humana é redutível à função cerebral e de que o cérebro é apenas uma corporificação física da alma.

Embora a busca pela imortalidade por meio da preservação do cérebro cause pouco prejuízo para além das contas bancárias de algumas pessoas, esta busca também exemplifica por que a desmistificação do cérebro é tão importante. Quanto mais sentimos que nossos cérebros englobam nossa essência como indivíduos, e quanto mais acreditamos que os nossos pensamentos e ações emanam simplesmente do "pacote de carne" que temos em nossas cabeças, menos sensíveis seremos ao papel da sociedade e do ambiente ao nosso redor e menos nós faremos para cultivar nossa cultura compartilhada e nossos recursos - seja com relação ao comportamento criminoso, à criatividade, à doença mental ou a qualquer outro aspecto da vida humana. 


O cérebro é especial porque ele não nos remete a uma essência e também porque ele nos une ao ambiente de uma maneira que uma alma jamais faria. Se valorizamos nossas próprias experiências, nós devemos proteger e fortalecer os muitos fatores, internos e externos, que enriquecem as nossas vidas, de modo que o maior número possível de pessoas possa se beneficiar deles agora e no futuro. Nós precisamos reconhecer que somos muito mais do que nossos cérebros.

quarta-feira, 12 de setembro de 2018

Em busca da imortalidade da mente

Desde tempos imemoriais os seres humanos acreditam - e confiam - na imortalidade dos deuses e das almas. Em especial, a ideia de que nossa alma sobrevive após a morte do nosso corpo, está presente desde os primeiros escritos feitos pela humanidade. No clássico diálogo Fédon, publicado no século 4 A.C., o filósofo Platão aponta para a morte como o momento em que nossa alma, sede da nossa razão, se liberta do nosso corpo, sede de nossas emoções e, portanto, inimigo da razão. Para Platão, a alma, ao contrário do corpo, é indestrutível e, consequentemente, imortal. "Quando o homem perece, sua parte mortal também perece, mas a imortal escapa rapidamente, salvando-se da morte", aponta o autor. Alguns séculos à frente, René Descartes, em sua clássica obra Meditações metafísicas - originalmente denominada Meditações de filosofia primeira em que a existência de Deus e a imortalidade da alma são demonstradas - defende, mais uma vez, a noção de uma alma imaterial e imortal, oposta, ainda que conectada (por meio da Glândula Pineal), ao nosso corpo material e mortal. E de uma forma ampla todas as religiões e filosofias espiritualistas defendem alguma versão desta noção, que provavelmente teve início com a própria humanidade e sobreviveu, com grande força, até os dias atuais. 

Etapas da Iniciativa 2045
A grande novidade de nossos tempos é busca científica pela imortalidade, que ocorre basicamente de três formas: 1) busca pela imortalidade do corpo; 2) busca pela imortalidade do cérebro e 3) busca pela imortalidade da mente. A primeira busca está relacionada à todos os esforços para deter ou mesmo reverter o processo de envelhecimento. Alguns cientistas contemporâneos de fato acreditam e defendem a visão de que o envelhecimento é uma doença cuja cura, se encontrada, acarretará na amortalidade (mas não na imortalidade) dos seres humanos - a diferença é que enquanto a amortalidade implica no fim da morte por causas naturais, a imortalidade pressupõe que os homens se tornem deuses, ficando imunes também à morte por causas não-naturais - um ser imortal não morreria nem mesmo se um trem passasse por cima de sua cabeça). Já a segunda busca descarta o corpo de uma forma geral e se foca no cérebro humano, entendido como a única parte que realmente importa para que sejamos nós mesmos - concepção reducionista que eu já critiquei neste blog inúmeras vezes. Propostas ficcionais de transplante de cérebro, como aquelas expostas nos filmes O cérebro que não queria morrer (1962), O homem com dois cérebros (1983) e Corra! (2017) se relacionam indiretamente a esta busca, assim como propostas reais, mas ainda longe de serem concretizadas, como a Iniciativa 2045, que pretende, até 2025, transferir o cérebro do bilionário russo Dmitry Itskov para um corpo sintético, que levará o seu "eu" para toda a eternidade. O grande problema desta busca é que o cérebro, assim como o resto do corpo, tem um prazo de validade e inevitavelmente morre. Esta segunda busca só terá algum sucesso - o que duvido muito - caso a primeira seja efetivada - o que também duvido muito (até acredito que a vida possa ser estendida para 150 ou 200 anos, por exemplo,  mas não creio que conseguirão estendê-la indefinidamente). E é exatamente por conta desta difícil limitação - que é a limitação essencial da própria vida, efêmera por sua própria natureza - que muitos cientistas e futurologistas tem se focado na terceira via, isto é, na busca pela imortalidade da mente. E é sobre essa busca que irei me focar mais detidamente abaixo.

Corpo/capa descartável na série Altered carbon
Essa terceira busca ainda permanece e provavelmente permanecerá por muitos e muitos anos (para sempre, creio eu) no terreno da ficção científica. Veja, por exemplo, os filmes Transcendence: a revolução (2014), Soldado do futuro (2013), o curta-metragem The Final Moments of Karl Brant (2013), ou ainda a série Altered carbon, lançada em 2018 pela Netflix - isto para não falar de alguns episódios das fantásticas séries Black Mirror, Humans, Arquivo X, Philip K. Dick' Eletric Dreams e Westworld. Todas estas produções exploram a ideia de mind upload, isto é, a possibilidade ainda remota de transferência da mente ou da consciência para dispositivos eletrônicos, ocasionando uma espécie de imortalidade digital. No filme Trancendence, por exemplo, acompanhamos o cientista Will Caster transferir a própria mente para um computador quântico e, com isso, se tornar incrível e exageradamente poderoso. Já na belíssima embora insossa série Altered Carbon, observamos o upload da mente como uma prática cotidiana no mundo futurista que ela retrata. A diferença é que enquanto no filme a mente é transferida para um computador, possuindo apenas uma existência digital, não-corporificada, na série as mentes são transferidas para dispositivos que são acoplados a corpos artificiais (denominados "capas") possuindo, desta forma, existências corporais. Na série, as pessoas, ou melhor, suas mentes, não morrem jamais: quando o corpo perece, um disco rígido com o conteúdo de sua mente é simplesmente realocado em uma nova capa (que pode ser de um outro gênero, idade ou etnia) e a vida continua indefinidamente - como afirma o protagonista da série, você troca de capa como uma cobra muda de pele. O corpo, na sociedade retratada pela série, é absolutamente descartável. O que há de importante no ser humano, e que permanece ao longo das gerações, não é nem o seu corpo nem o seu cérebro, mas única e exclusivamente sua mente, isto é, a coleção de suas vivências e memórias.

Embora a ideia de upload mental ainda esteja no plano da ficção-científica, alguns cientistas e transhumanistas tem apostado neste caminho como aquele que conduzirá a humanidade à tão sonhada imortalidade. O bilionário russo Dmitry Itskov, que já mencionei acima, estabeleceu como penúltima meta de sua Iniciativa a "transferência da personalidade" de uma pessoa para o "cérebro artificial de um Avatar". Por fim, a última etapa, programada para o ano de 2045, seria a total descorporificação da humanidade através da criação de um avatar holográfico que levaria a "personalidade" da pessoa para toda a eternidade - ou até a primeira falta de energia elétrica. Outra iniciativa ambiciosa que, de alguma forma, dialoga com as propostas da Iniciativa 2045 é o Human Brain Project (Projeto Cérebro Humano), lançado em 2013 pela União Europeia e que atualmente envolve cerca de 500 cientistas de mais de 100 universidades. Ainda que não pretenda realizar o upload da mente ou do cérebro para um computador, este megaprojeto se propõe, dentre outras coisas, a construir uma simulação do cérebro humano em um supercomputador. A diferença é que enquanto o upload pretende transferir e não apenas copiar a mente humana, a simulação pretende recriar artificialmente o funcionamento do cérebro (mas não da mente, o que não seria nem de longe possível já que ninguém ainda compreende plenamente qual a relação da mente com o cérebro e com o resto do corpo). No entanto, cabe a reflexão de se em um eventual upload, o que seria de fato transferido para um computador seria a própria mente ou apenas uma simulação dela. E esta reflexão leva, por sua vez, a indagações ainda mais complexas: caso conseguissem "baixar" todo o conteúdo de sua mente, "transferindo-o" em seguida para um computador, esse novo "arquivo" seria realmente você ou apenas uma cópia sua? E se fizessem isso com você ainda vivo seria possível dizer que após a "transferência" passariam a existir duas - ou talvez três, quatro, cinco ou mil - versões de você mesmo? Será que diante da existência de mil "eus" ainda poderíamos falar em um "Eu"? Como ficaria a noção de individualidade caso existissem infinitas versões de nós mesmos (como descobre Buzz Lightyear no desenho Toy Story)? E mais: como seria esta versão "sem corpo" de você mesmo? Ela ainda teria direitos e deveres como todos os seres humanos corporais e estaria sujeita a penalizações caso cometesse algum crime virtual, por exemplo? Como ficariam as relações pessoais em tal contexto? Sem dúvida alguma estas perguntas são, atualmente, irrespondíveis - e na minha sincera opinião, dificilmente o serão no futuro.

A comunidade científica, de uma forma geral, parece enxergar esta busca pela imortalidade digital com grande ceticismo. Cientistas proeminentes das áreas da neurociência e ciências cognitivas já vieram à público manifestar profundas críticas com relação à tais propostas. Por exemplo, questionado pelo site Gizmodo se acreditava na possibilidade de um upload mental, o neurocientista brasileiro Miguel Nicolelis respondeu: "Não, porque nossas mentes não são digitais. Depende da informação incorporada no tecido cerebral que não pode ser extraída por meios digitais. Isso nunca vai acontecer. Este é apenas um mito de scifi urbano que não possui mérito ou apoio científico. Isso só diminui a natureza única de nossa condição humana - ao compará-la às máquinas digitais - e infunde medo às pessoas que não conhecem melhor". Em seu livro O cérebro relativístico: como ele funciona e porque ele não pode ser simulado por uma máquina de Turing, escrito em parceria com o matemático Ronald Cicurel, Nicolelis se coloca de forma absolutamente crítica com relação à possibilidade de criar uma simulação do cérebro humano - e, como já apontei anteriormente, a ideia de "transferência da mente" pressupõe a criação de uma simulação. Afirmam os autores nesta obra difícil e  pouquíssimo conhecida: "a tentativa de simular cérebros num computador digital é limitada por uma longa série de problemas, ditos não computáveis ou intratáveis matematicamente, que nem mesmo um supercomputador de última geração será capaz de solucionar. Pelo contrário, nós propomos que sistemas nervosos complexos geram, combinam e estocam informação sobre si mesmos, o corpo que habitam e o mundo exterior que os circunda, através de uma interação dinâmica e recursiva de um sistema híbrido digital e analógico". Na visão dos autores, a transferência ou mesmo a simulação do cérebro humano em um computador digital não é possível por uma série de motivos, dentre os quais: 1) o sistema nervoso humano é um sistema biológico (e, portanto, analógico) cuja "linguagem", elétrica e química, não pode simplesmente ser transformada na linguagem computável (e, portanto, digital) dos bites e bytes. Como afirmam os autores, "a rica semântica dinâmica que caracteriza as funções cerebrais não pode ser reduzida à sintaxe limitada dos algoritmos usada por computadores digitais"; 2) uma característica essencial dos sistemas nervosos (que inclui mas não se restringe ao cérebro) é que eles interagem continuamente com o resto do corpo dos organismos e com o mundo exterior através dos órgãos dos sentidos. Imaginar que um sistema nervoso poderia ser transferido ou simulado sem qualquer interação com o restante do corpo e com o mundo exterior, não passaria, para os autores, de ficção científica; 3) outra característica fundamental do sistema nervoso é sua plasticidade, isto é, sua capacidade de alterar suas funções e estrutura em resposta à alterações no ambiente interno e externo dos organismos. Segundo os autores, "o cérebro é como uma orquestra cujos instrumentos continuamente mudam sua configuração estrutural em função da música produzida". A consequência disso é que qualquer simulação que não consiga reproduzir a plasticidade neuronal estaria fadada ao fracasso. No entanto, como simular tal característica sem a contínua interação com o corpo e o ambiente que possibilita a própria existência da plasticidade? 4) por fim, os autores argumentam que jamais uma simulação conseguirá reproduzir toda a complexidade dinâmica do cérebro humano. Segundo eles, "a típica estratégia utilizada por modeladores computacionais, nunca conseguirá descrever ou reproduzir, na sua integridade, a complexa riqueza dinâmica que dota cérebros como o nosso com seu inigualável repertório de funções e capacidades".

Em seu último livro, A estranha ordem das coisas, lançado em 2018 no Brasil, o famoso neurocientista português Antônio Damásio também faz importantes e duras críticas à proposta do upload mental. No capítulo 11 desta excelente obra, denominado Medicina, imortalidade e algoritmos, Damásio comenta sobre a proposta transhumanista de que a mente poderá um dia ser "carregada" em um computador de forma a garantir sua vida eterna. Afirma o autor: "No momento, este cenário é implausível. Ele revela uma noção limitada do que a vida realmente é, além de deixar transparecer a falta de entendimento das condições nas quais os verdadeiros seres humanos constroem experiências mentais. O que os transumanistas iriam carregar no computador ainda é um mistério. Decerto não seriam experiências mentais, pelo menos não se estas amoldarem-se aos relatos que a maioria dos humanos faria sobre sua mente consciente. Uma das principais ideias deste livro [e de toda a obra de Damásio] é que as mentes surgem de interações de corpos e cérebros, e não de cérebros isoladamente. Por acaso os transumanistas estão planejando carregar o corpo também?". Em toda sua obra - que inclui os livros O erro de Descartes, O mistério da consciência, E o cérebro criou o homem e Em busca de Espinosa - Damásio aponta de forma enfática para a importância de todo o corpo (que inclui o cérebro mas não se limita a ele) para a formação e constituição daquilo que denominamos "mente". Em seu novo livro ele resume da seguinte forma seu entendimento sobre essa questão: "Não existe mente sem corpo. Nosso organismo contém um corpo, um sistema nervoso e uma mente, que é derivada de ambos". A consequência desta visão é que a mera ideia de uma mente sem corpo - e sem a constante interação deste corpo com o ambiente - não faz o menor sentido. Além do mais, Damásio é extremamente crítico à ideia de que os organismos naturais poderiam, de alguma forma, ser reduzidos a algoritmos, isto é, à linguagem computacional. Segundo ele, "dizer que organismos vivos são algoritmos é, no mínimo, equivocado e, rigorosamente falando, falso. Algoritmos são fórmulas, receitas, enumerações de passos na construção de determinado resultado. Os organismos vivos, inclusive o humano, são construídos segundo algoritmos e fazem uso deles para operar seu maquinário genético. Mas eles próprios NÃO são algoritmos. São consequências do emprego de algoritmos e apresentam propriedades que podem ou não ter sido especificadas nos algoritmos que guiaram sua construção [são as propriedades emergentes dos organismos]. Acima de tudo, são grupos de tecidos, órgãos e sistemas nos quais cada célula componente é uma entidade viva vulnerável feita de proteínas, lipídios e açucares. Eles não são linhas de código; são matéria palpável". Em sua obra, Damásio repetidas vezes sublinha que a metáfora da máquina, que ainda (e infelizmente) domina nosso entendimento sobre o cérebro - quem nunca escutou ou leu que "o cérebro é a máquina mais complexa existente no universo"? - por vezes nos faz esquecer que o cérebro real não é nem de longe uma máquina, mas um órgão biológico tal qual o coração, o fígado ou o pâncreas. E a "linguagem" que ele utiliza na comunicação entre suas células é essencialmente a linguagem química, o que dificulta em muito sua tradução para a linguagem algorítimica - aliás, a tradução, neste caso, é até possível, mas, como bem afirmam os tradutores, toda tradução é uma traição, o que significa dizer que sempre ocorrerão perdas neste processo de transformação de uma linguagem em outra. Por fim, Damásio questiona a pertinência desta busca pela imortalidade digital, afirmando que "não devemos negar o mérito de um projeto científico, nem impedí-lo pelo fato de ele conter uma interpretação problemática da humanidade. Meu argumento é mais simples. Apresentar interpretações da humanidade que parecem diminuir a dignidade humana - mesmo que não tenham intuito de fazê-lo - não favorece a causa humana".

Pegando carona neste comentário de Damásio, gostaria de fechar toda esta discussão - que se estendeu para muito além do que eu imaginava inicialmente - refletindo sobre uma questão mais básica: a imortalidade é desejável? Creio que algumas pessoas afirmariam que sim, argumentando que a morte é algo essencialmente ruim, mas outras - dentre as quais eu me incluo - entendem que a imortalidade seria muito pouco vantajosa. Afinal, você já parou para pensar como usaríamos o nosso tempo se tivéssemos todo o tempo do mundo? Como seriam os nossos relacionamentos, a nossa relação com o trabalho e com nossos projetos pessoais se a vida se tornasse repentinamente ilimitada? Embora não tenhamos condições de responder tais questões com base na realidade - pois ainda somos e provavelmente continuaremos sendo seres mortais -, a ficção está repleta de reflexões sobre essa questão. Pegue, por exemplo, os filmes Amantes eternos (2014) e O homem da terra (2007)  - eu poderia citar muitos outros, mas vou me ater a esses. Nestes dois filmes, os protagonistas são pessoas imortais - na verdade, amortais - que seguem pelo mundo através dos séculos. No maravilhoso filme Amantes eternos, por exemplo, acompanhamos a vida de um casal de vampiros imortais, Adam e Eve (referência óbvia ao primeiro casal bíblico), que vagam pela Terra há milhares de anos. Cansados de tudo e de todos eles permanecem algum tempo juntos, depois se cansam um do outro e "dão um tempo" de algumas centenas de anos. Ao longo dos séculos eles já fizeram um pouco de tudo, já se relacionaram com outras pessoas e viram todas morrerem, observaram o mundo mudar e os humanos (que eles chamam de "zumbis") cometerem repetidamente os mesmos erros. Enfim, eles vivem um gigantesco e permanente tédio - assim como, em menor grau, o protagonista do igualmente maravilhoso e filosófico filme O homem da terra, que, de forma semelhante à famosa música de Raul Seixas, teria nascido "há dez mil anos atrás" (na verdade, há 14 mil anos), ainda na chamada pré-história. Em ambas produções, os protagonistas são forçados a se mudarem de tempos em tempos de cidade, e até de país, de forma que ninguém descubra que são imortais. De toda forma, o que esse filmes trazem de reflexão é que a imortalidade dificilmente seria feliz; pelo contrário, muito provavelmente ela seria absurda e insuportavelmente tediosa. São as limitações impostas pela vida - de tempo, inclusive - que fazem com que demos valor às pequenas e grandes conquistas que obtemos. Se tivéssemos todo o tempo do mundo e se pudéssemos fazer tudo o que quiséssemos, muito provelmente não dariamos valor a nada. Como bem aponta o filósofo norueguês Lars Svenden no ótimo livro Filosofia do tédio, "quanto mais escolhas e possibilidades houver, menos importância cada uma delas terá. Cercado por uma seleção infinita de objetos 'interessantes' que podem ser escolhidos de modo a serem descartados, nada terá valor algum. Por essa razão, a imortalidade, que permitiria um número infinito de escolhas, teria sido imensamente entediante". Na mesma direção, como a Anciã do filme Doutor Estranho, penso que é a morte é que dá sentido à vida. Se não morrêssemos, muito provavelmente nunca nos preocuparíamos em dar significado e valor à nossa existência. Sem o limite temporal e o "senso de urgência" que a morte nos traz - e que nos move à ação - muito provavelmente deixaríamos tudo sempre para depois. É a inevitabilidade de nossa finitude que faz com que busquemos preencher os nossos dias da melhor forma possível. Como bem afirma o filósofo alemão Hans Jonas no magnífico artigo O fardo e a benção da mortalidade, "o conhecimento de que só estamos aqui por um breve período e que um limite não negociável é posto à nossa expectativa de tempo pode, inclusive, ser necessário enquanto incentivo para contarmos nossos dias e fazê-los valer".