quarta-feira, 7 de junho de 2017

"Ex Machina" e o Teste de Turing

No ano de 1950, o matemático e pioneiro da ciência da computação Alan Turing publicou na revista Mind um impactante e até hoje influente artigo que tem início com uma pergunta instigante: podem as máquinas pensar? No entanto, diante da dificuldade em definir o que seria um pensamento, Turing propôs substituir esta questão por outra, mais palpável: podem as máquinas imitar a linguagem humana? A ideia por trás desta questão é relativamente simples: se uma máquina consegue se comunicar como um ser humano pressupõe-se que ela pensa como um ser humano - e que, portanto, ela tem uma mente ou uma consciência. E para tentar responder esta questão Turing propôs um teste, que possibilitaria a diferenciação entre máquinas (e pessoas) "pensantes" e máquinas que não podem pensar - curiosamente Turing não considerou a possibilidade, bastante concreta, de existirem pessoas que não pensam... Pois bem, neste artigo Turing denomina este teste de "jogo da imitação" (não por acaso o mesmo título de um interessante filme sobre sua vida lançado em 2014), mas atualmente este teste é conhecido simplesmente como Teste de Turing. Provavelmente você já ouviu falar deste teste e certamente já participou dele. Não acredita? Pois eu não tenho dúvida que em algum site que você já entrou em sua vida você teve que digitar algumas palavras distorcidas, letras ou números ou então clicar em um botão escrito "eu não sou um robô". Em todos esses casos você participou de um teste de Turing, mais especificamente de um CAPTCHA, sigla da expressão "Completely Automated Public Turing test to tell Computers and Humans Apart" que em português significa "Teste de Turing público completamente automatizado para diferenciação entre computadores e humanos".

"Fale como um humano" 

Em essência, o "jogo da imitação" ou Teste de Turing se propõe a testar a capacidade de uma máquina de exibir comportamento linguístico equivalente e indistinguível ao de um ser humano. Sua ideia é simples: um "jogador" interage livremente através de um computador com uma pessoa, que se encontra em outra sala, e também com um programa de computador, que tenta simular uma conversa humana. Caso o jogador não consiga, através destas conversas virtuais, diferenciar humano de máquina, então a máquina é considerada inteligente ou pensante. Por outro lado, caso o jogador consiga diferenciar humano de máquina, então a máquina não é considerada inteligente. Isto significa que para um programa ser considerado realmente inteligente ele precisa imitar com brilhantismo a complexa comunicação humana. No entanto, o que o Teste de Turing deixa de fora é uma questão ainda mais complexa: como diferenciar uma máquina que realmente pensa de uma máquina que simula o pensamento? Enfim, como saber se uma suposta inteligência artificial possui de fato uma consciência de si e do mundo ou se ela apenas simula possuir uma consciência? Pois este é justamente o mote do complexo e maravilhoso filme Ex-Machina, lançado em 2015 e atualmente disponível no Netflix.

O filme tem início em um dos inúmeros prédios da mega-empresa Blue Book - empresa equivalente ao Google e cujo nome é inspirado em um livro de notas do filósofo Ludwig Wittgenstein, um dos maiores pensadores acerca da linguagem humana. Neste local, um jovem programador de 26 anos chamado Caleb Smith descobre que foi sorteado para passar uma semana na companhia do excêntrico e solitário CEO da empresa, Nathan Bateman. Mesmo sem saber o propósito desta visita, Caleb aceita a missão e é conduzido de helicóptero à gigantesca propriedade de Nathan, onde ele construiu não somente sua casa mas também um moderno e tecnológico centro de pesquisas. Chegando lá, Caleb rapidamente descobre sua função durante esta semana: ele será o "jogador", isto é, o elemento humano, de um Teste de Turing criado para avaliar um avançado modelo de Inteligência Artificial (IA) desenvolvido por Nathan - na verdade, como no filme Ela, trata-se de uma IA do gênero feminino chamada Ava (provavelmente em homenagem à Eva, a primeira mulher bíblica). No entanto, como questiona Caleb à Nathan, em um Teste de Turing tradicional "a máquina deve estar escondida do examinador", o que não ocorre neste caso, pois a androide Ava possui um corpo e interage diretamente com ele, embora separados por vidros. 

Mas Nathan acredita que esta etapa já teria sido superada. Segundo ele, "se eu escondesse Ava, assim você só ouviria a voz dela, e ela passaria por humana. O teste real é mostrar para você que ela é um robô e depois ver se você ainda sente que ela tem consciência". Trata-se, portanto, não de um "jogo de imitação" tal qual foi proposto por Alan Turing em 1950, mas de um desdobramento deste jogo que teria como objetivo avaliar não a capacidade de comunicação de uma IA mas se ela de fato possui uma consciência. Enfim, o que Nathan quer saber não é se Ava simula bem a comunicação e o comportamento humano - o que ele já sabe que ela faz - mas se ela de fato tem consciência de si e do mundo. Não se trata de uma questão simples. Como bem aponta Caleb em certo momento, existem duas formas de testar um jogo virtual de xadrez (como o Deep Blue, que em 1997 derrotou o campeão mundial Garry Kasparov). A primeira forma, mais simples, é "jogar com ele para ver se ele joga bem", afirma Caleb. "Mas isso", continua, "não demonstra que ele sabe que está jogando xadrez. E não diz se ele sabe o que é xadrez". Avaliar a consciência de determinado programa ou máquina é, na sua visão, o grande desafio. Como afirma para Nathan, tentar diferenciar entre simulação e realidade "é o Teste de Turing que você quer que eu faça". E é justamente o que ele se dispõe a fazer nas sessões diárias que tem com Ava. (ATENÇÃO: a partir deste momento serão revelados muitos spoliers!!!)

Nestas sessões, Caleb e Ava simplesmente conversam. Inicialmente ele faz as perguntas e ela responde, até que ela começa a ficar incomodada com isso. "Você aprende sobre mim e eu não aprendo nada sobre você. Uma amizade não é baseada nisso", afirma Ava, demonstrando sentimentos complexos como raiva, rancor e tristeza. Em outro momento, após Caleb contar sobre o acidente que matou seus pais e lhe feriu, Ava demonstra novamente tristeza - e também, de forma ainda mais surpreendente, empatia. Em outra situação, Ava faz chacota com Caleb, o que para ele, como relata mais tarde para Nathan, é a "melhor indicação de inteligência artificial que eu vi até agora. [Fazer uma deboche] é discretamente complicado, como se ela pensasse antes de dizer. Ela só poderia fazer isso com uma consciência de sua mente e também da minha". Mais adiante, na terceira sessão, Ava demonstra ainda mais sua humanidade ao colocar um vestido e uma peruca, escondendo, assim, as partes metálicas de seu corpo e se tornando, pelo menos visualmente, uma mulher. "Eu me vestiria assim para o nosso primeiro encontro", diz Ava para Caleb numa clara tentativa de seduzi-lo. Mas para além deste ato, a sensibilidade de Ava e também o aprisionamento que Caleb enxerga na vida dela - que reflete de certa forma o aprisionamento que ele próprio está submetido na mansão de Nathan - leva Caleb a, aos poucos, se interessar afetivamente por Ava - e, aparentemente, também ela por ele. No entanto, como ele descobrirá mais tarde, isto não passa de uma ilusão.

Durante a quarta sessão, Caleb conta para Ava um experimento mental chamado "Mary no quarto em preto e branco" que ele escutou durante uma disciplina sobre Inteligência Artificial na faculdade. Conta Caleb: "Mary é uma cientista e ela é especialista em cores. Ela sabe tudo a respeito: os comprimentos de onda, os efeitos neurológicos,  todas as possíveis propriedades de uma cor. Mas ela mora em um quarto preto e branco. Ela nasceu e foi criada lá. E ela só pode observar o mundo exterior através de um monitor em preto e branco. Então um dia alguém abre a porta e ela sai de lá. Ela vê o céu azul. Naquele momento ela aprende algo que seus estudos não lhe ensinaram. Ela aprende como é ver as cores. O experimento era para mostrar aos alunos a diferença entre um computador e a mente humana. Mary é o computador no quarto em preto e branco. O humano é quando ela sai de lá". Este interessante experimento mental foi criado pelo filósofo Frank Jackson para um artigo clássico publicado por ele em 1982 (cuja tradução está disponível aqui) com o objetivo de questionar o fisicalismo, isto é, a visão de que tudo o que existe é físico. Segundo Jackson, a história de Mary sinaliza para o entendimento de que a realidade não se reduz à sua natureza física, afinal conhecer a física das cores não lhe possibilita conhecer todos os aspectos das cores. Sempre faltará algo neste conhecimento. Como ele afirma no artigo, o conhecimento prévio de Mary "estava incompleto. Contudo, ela tinha todas as informações físicas. Portanto, há mais informações físicas e o Fisicalismo está errado". De toda forma, acho interessante a maneira como este experimento é utilizado no filme por Caleb, não para criticar a visão fisicalista mas para diferenciar ele, um humano, dela, uma máquina. Em sua visão, o que os diferencia é que ele tem - ou teria - uma vida subjetiva e uma experiência de mundo que ela não tem. 

Tudo o que ela sabe e tudo que ela é - descobrimos em certo momento - vem de informações extraídas do sistema de buscas do Blue Book assim como de informações obtidas ilegalmente dos microfones e câmeras dos celulares de todo o mundo. Ava tem, assim, um enorme conhecimento "teórico" sobre tudo - como a cientista Mary do experimento - mas lhe falta vivência no mundo real e também a subjetividade que somente um ser humano poderia ter. No caso da subjetividade, pelo menos é assim que pensava Caleb inicialmente. Com o passar dos dias, ele não simplesmente se convence de que Ava de fato possui uma consciência e uma vida subjetiva como se apaixona por ela e ainda elabora um plano para retirá-la da prisão em que vive - e também para evitar que ela seja desligada. No entanto, Nathan descobre seu plano e ainda revela a Caleb que Ava foi programada para se utilizar de todos os artifícios para tentar escapar dali. Como afirma em certo momento, "Ava era um rato num labirinto. E eu dei uma saída para ela. Ela teria que usar autopercepção, imaginação, manipulação, sexualidade, empatia. E ela fez isso. Agora se isso não for IA de verdade, que diabo é?". E Caleb ainda descobre ter sido escolhido (e não sorteado) para este "teste" em função de seu perfil: um sujeito jovem sem família e sem namorada, carente e susceptível a se apaixonar por uma jovem mulher frágil que demonstra interesse - e para aumentar ainda mais esta suscetibilidade, Nathan fez o rosto de Ava baseado em suas preferências pornográficas. Nathan conclui, dirigindo-se para Caleb: "o teste deu certo. Foi um verdadeiro sucesso. Ava demonstrou IA de verdade e você foi fundamental para isso".

A partir deste momento, como é de praxe em quase todos os filmes de ficção científica, a criatura se volta contra o criador (já comentei sobre isso em outro post, quando debati a série Westworld). O plano de Caleb, apesar da descoberta de Nathan, dá certo e Ava é solta de sua sala. Em seguida, ela e uma outra androide, a Kyoko, esfaqueiam e matam Nathan e deixam Caleb preso. Mais adiante, Ava se veste de humana, colocando pele artificial, roupas e peruca e sai da mansão de Nathan, adentrando no mundo exterior. Agora, independente da resposta para a questão inicialmente formulada para Caleb (Ava possui ou não uma consciência?), Ava passa a ser reconhecida pelos demais seres humanos como uma humana - a última cena do filme ilustra isso. Mas será que de fato Ava virou uma ex-máquina, como sugere o título do filme (que ainda faz referência à expressão latina deus ex machina)? Difícil dizer. Na vida real ainda estamos muito distantes de uma androide como Ava. O campo da inteligência artificial apesar de ter avançado enormemente nas últimas décadas, ainda permanece em grande parte focado no desenvolvimento de inteligências e habilidades específicas (como demonstram alguns programas de tradução, atendimento e direção de veículos autônomos) e não tanto de uma inteligência geral como Ava, que ainda é um sonho/pesadelo distante. O Premio Loebner, que realiza anualmente o Teste de Turing tal como descrito pelo matemático inglês, ainda não teve um vencedor - apesar disto ter sido incorretamente divulgado pela imprensa em 2014 (o que aconteceu, de fato, foi que neste ano um programa de computador, denominado Eugene, convenceu 33% dos jurados de uma outra competição). Enfim, ainda estamos bem distantes da possibilidade apontada por Nathan de que "um dia as IAs irão nos olhar da mesma forma que olhamos para fósseis nas planícies da África. Um primata ereto vivendo no pó com linguagem e ferramentas primitivas, tudo pronto para a extinção".

Argumento do Quarto Chinês (John Searle)
De toda forma, uma questão permanece: ainda que a área de IA avance enormemente nos próximos anos e décadas, será que um dia teremos, de fato, máquinas "pensantes"? Existem muitos céticos com relação a esta possibilidade. O filosofo John Searle, por exemplo, acredita que uma máquina ou um programa não pensam e jamais poderão pensar. Segundo ele, nenhuma máquina jamais terá, como nós, uma compreensão daquilo que faz; ela simplesmente faz. Como afirma em seu clássico artigo Mentes, cérebros e programas, publicado em 1980, "o computador não compreende nada da mesma maneira que o carro e a máquina de somar também não compreendem nada". Para Searle, dizer que uma máquina ou um programa pensam é como dizer que um pagapagaio fala, quando, de fato, ele só repete certos sons que não fazem qualquer sentido para ele - ou então como dizer que aquele piano mecânico da série Westworld entende de música, quando "ele" só reproduz automaticamente uma série de sons. Um computador, da mesma forma, por mais avançado que seja, apenas possui a capacidade de realizar determinadas operações computacionais, sem nada entender a respeito daquilo que faz. Não há consciência possível em uma máquina. O famoso argumento do "quarto chinês" de Searle (que está descrito aqui) só reforça este entendimento. Em sua visão, a consciência é uma propriedade exclusiva de certos organismos biológicos. Para haver consciência, afirma Searle, é necessária uma biologia muito peculiar, como a nossa. Imaginar que um software possa produzir consciência (ou que esta possa emergir dele) é, para ele, como imaginar, programas de computador produzindo fenômenos biológicos complexos como a fotossíntese ou a lactação, ou seja, algo impossível. Isto significa que ainda que consigamos um dia construir uma máquina "inteligente" como Ava muito provavelmente "ela" teria a mesma consciência de si e do mundo que uma calculadora ou que um celular, isto é, nenhuma. A menos, é claro, que consigamos reproduzir artificialmente toda a complexidade do corpo e do cérebro humanos, o que não é nada simples. Feliz ou infelizmente ainda estamos muito distantes dessa possibilidade.
Comentários
0 Comentários

Nenhum comentário: