Escolha uma Página
Um bebê é monitorado por um computador no clássico de ficção científica "O Enigma de Andrômeda".

Um bebê é monitorado por um computador no clássico de ficção científica “O Enigma de Andrômeda”.

Um programa de computador que imitava um menino de 13 anos chamado Eugene passou no teste de Turing no último sábado, mas o que isso significa?

Sonhando com ovelhas elétricas
Computadores já eram capazes de feitos incríveis no tempo de Alan Turing. Uma máquina analógica como o Mark 1A, introduzido pela Ford Instruments na marinha americana durante a Segunda Guerra Mundial, era capaz de resolver equações diferenciais com mais de 20 variáveis continuamente e em tempo real. Mas tente “reprogramar” um computador analógico e você vai logo perceber que eles são o que se poderia chamar de “estúpidos”.

Para fazer com que uma máquina como o Mark 1A executasse qualquer nova tarefa seria preciso reorganizá-la fisicamente, alterando sua fiação e suas engrenagens. Turing foi um dos primeiros a formalizar a ideia de um tipo diferente de computador: uma máquina que agiria de acordo com um conjunto de instruções armazenadas em uma “memória” (note o uso da analogia com a mente humana). A famosa Máquina de Turing, que o cientista descreveu como uma “máquina inteligente”, viria a se tornar a base conceitual dos nossos computadores digitais modernos, mas ela era realmente “inteligente”?

O próprio Turing propõe essa questão em um ensaio intitulado “Computing Machinery and Intelligence” (1950). Mais especificamente, ele se pergunta: “máquinas podem pensar?” Como esse problema envolve a definição de um termo extremamente vago, como é o caso de “pensamento”, Turing reformula a questão nos moldes de um experimento. Ele se pergunta se uma máquina seria capaz de enganar um interlocutor humano a ponto de fazê-lo acreditar que ela também era um ser humano. O teste que foi vencido nesse final de semana consiste, portanto, em um jogo de imitação. Turing acreditava que até o ano 2000 existiria uma máquina capaz de emular a linguagem natural tão bem que um juiz humano não seria capaz de inferir sua identidade real mais do que 70% das vezes (daí a margem de sucesso de 30% estabelecida pelo teste noticiado).

Essa não é a primeira vez que um programa atinge uma medida de sucesso no teste. Um famoso exemplo é o de ELIZA, um programa-paródia que imitava o método de terapia psicológica de Carl Ransom Rogers. Essencialmente, ELIZA era capaz de identificar termos negativos e positivos dentro de uma frase e reorganizava essas sentenças na forma de uma pergunta. Uma conversa com ELIZA poderia assumir a seguinte forma:

ELIZA: “Como você se sente?”

Paciente: “Estou péssimo.”

ELIZA: “É por se sentir péssimo que você resolveu me visitar?”

Paciente: “Sim.”

ELIZA: “Agora você está sendo positivo.”

Paciente: “Eu não consigo mais acreditar em nada.”

ELIZA: “Agora você está sendo negativo. Fale mais sobre as suas crenças.”

ELIZA não era muito esperta, mas essa estratégia foi o suficiente para enganar um grande número de pessoas nos anos 1960. Parte de seu sistema de classificação persiste até hoje em programas de análise semântica. Outro exemplo curioso é o MGonz, um bot criado em 1989 por Mark Humphrys. Extremamente rústico, ele se baseava na estratégia utilizada atualmente pelos trolls da internet, desviando a discussão com insultos e acusações. MGonz produzia conversas que são obscenas demais para serem reproduzidas aqui, mas o fato é que, mesmo sendo um programa extremamente simples, ele preenchia em parte as demandas de Turing por manter o diálogo fluindo. O ponto é que o teste de Turing por si só não responde a questão central do cientista porque não é difícil enganar um juiz humano. O sonho de produzir uma máquina pensante depende de elementos mais básicos.

As palavras e as coisas
Grande parte do problema está em definir o que é o pensamento. Você talvez não perceba esses fenômenos como tal, mas exércitos, estudantes, sociedades são programados. Generais, professores e governos programam. Todo programa, especialmente o de computador, é o modelo de um processo mental formulado sob uma sintaxe lógica, um conjunto de regras e expedientes. A dificuldade da programação é inadequação desses modelos para representar todas as sutilezas do pensamento humano.

Ninguém precisa refletir muito para dizer se um homem usa barba por estilo ou se simplesmente negligenciou a gilete por alguns dias. Para um computador, essa questão é bem mais complicada. O que é “barba”? Qual é a proporção de pelo facial necessária para considerar alguém “barbado”? Quantas vezes e em que regiões a amostragem de pelos será contada? Cada elemento da instrução que define a análise precisa ser laboriosamente enunciado e detalhado, isso sem sequer entrarmos na questão fatal de definir o que é “estilo”. Em muitos sentidos, pensar é “esquecer diferenças”, como Jorge Luis Borges escreveu em “Funes, o Memorioso”. Como Funes, que lembrava dos mínimos detalhes de todos os eventos, os computadores são incapazes de admitir a “margem de erro” na qual o cérebro humano opera.

Esse é apenas um exemplo simples que, de certa maneira, já está ao alcance dos programas atuais. O que precisa ficar claro é que um processo mental não é necessariamente um pensamento. Até os seres mais simples do reino animal tem uma vida mental ativa. O biólogo Herbert Spencer Jennings, por exemplo, demonstrou que o minúsculo organismo unicelular Stentor é capaz de um nível de aprendizado, embora sua memória dure apenas alguns minutos. O que levou Descartes e outros filósofos dualistas (isto é, aqueles que acreditam que a consciência não é um produto do corpo físico) a negar a realidade mental dos animais foi, em parte, sua incapacidade de articular pensamentos. Não é o propósito deste artigo explorar a possibilidade de um pensamento animal e muito menos discutir se existe um “espírito” humano. O que nos interessa é que, em algum momento do processo evolutivo surgiu um ser capaz de processos mentais articulados na forma de símbolos, ou seja, surgiu um animal que fala.

Se um computador espera entender o mundo de uma maneira humana (isto é, se ele espera pensar como nós), ele precisa aprender a representar logicamente a linguagem. Daí incorremos em dois problemas. O primeiro, um tanto óbvio, é o fato de que a linguagem é ambígua, como demonstrei no exemplo da barba acima. O segundo, mais profundo, é que um computador que busca representar a linguagem precisa determinar o contexto das palavras no mundo. Mais especificamente, ele precisa saber qual é a relação entre a palavra e o que ela representa, o seu significado. Esse é um problema antigo que nós, humanos, ainda não resolvemos. Ainda assim, vivemos sem problemas com essa incompreensão. Parece-nos absolutamente natural que a palavra “cavalo” determine um tipo de animal ao mesmo tempo em que ela pode descrever uma ação na expressão “cavalo-de-pau”. Os pensadores lógico-positivistas do final do século XIX e início do XX tentaram estabelecer alguns bases logicas para a formação da fala, mas até mesmo o grande Wittgenstein eventualmente rejeitou essa empreitada. Seu fracasso não foi completamente em vão: parte das ideias do Círculo de Viena sobreviveu no mundo da ciência da computação sob a forma da inteligência artificial semântica.

À procura da busca ideal

Enquanto a academia discutia essas questões abstratas, uma série de empresas se aproveitou das técnicas desenvolvidas até então para criar um negócio baseado no entendimento da linguagem (ou pelo menos em algo que aparentava ser entendimento). A briga pelo mercado de busca na internet foi muito acirrada durante os anos 90. Dentre os vários competidores (Altavista, Lycos, Mamma, etc.), os três mais representativos eram Yahoo, Ask Jeeves e, é claro, o Google.

Ask Jeeves (atualmente apenas Ask) foi uma das grandes tentativas de aplicar o entendimento semântico da linguagem a um produto comercial. Naquela época, a ideia era enquadrar as dúvidas das pessoas na forma de sentenças interrogativas. Em vez de digitar “greve metrô”, Jeeves preferia que eu perguntasse “quanto o metrô entra em greve?” Através de termos como “como” e “quando”, o motor de busca tinha uma ideia mais específica do que a pessoa queria saber em vez de simplesmente regurgitar páginas que continham essas mesma palavras. Na teoria, essa abordagem soa bem, mas nada é tão simples na prática. As relações entre as palavras precisavam ser especificadas manualmente no código, de modo que ele talvez entendesse que “quando” especificava alguma demanda temporal em relação a “metrô”, mas a relação entre “entrar” e “greve” e a implicação desses termos nos anteriores poderia não ter sido prevista. Jeeves também era incapaz de identificar a equivalência entre “metrô” e “trem metropolitano” ou qualquer gíria que designasse o mesmo.

O Yahoo, ainda forte em países como Japão, foi um pouco mais bem sucedido com uma abordagem completamente manual. No início, a busca do Yahoo não era nada mais do que um diretório de páginas organizadas em categorias (muitas vezes arbitrárias) criadas por seres humanos reais. Enquanto a internet era pequena, esse sistema primitivo tinha alguma utilidade porque, no mínimo, pessoas reais têm algum domínio sobre a linguagem. Mas a web cresceu rapidamente e o número de páginas inúteis se multiplicou de tal maneira que nenhum esforço humano seria o bastante para organizá-las por si só. Não que isso importasse muito: naquele ponto, a busca era apenas uma fração do tráfego do Yahoo.

No vácuo deixado por um dos primeiros gigantes da internet sobrou espaço para um então nascente Google. Sergey Brin e Larry Page (entre outros) descobriram que a relevância de uma página para uma dada busca podia ser parcialmente determinada pela topologia da internet. Simplificando, uma página importante sobre “Parsifal” seria supostamente referenciada por muitas outras páginas com menções a “Parsifal” e quanto mais links levassem a essas outras páginas, mais importante seria a primeira. Note como o Google é uma espécie de fusão da busca automática e da organização manual do Yahoo. Eles não precisavam criar um algoritmo para hierarquizar as páginas, os próprios habitantes da internet faziam isso por eles! O fato de que os servidores do Google não precisavam entender o que “Parsifal” significa quer dizer que o mesmo método de busca podia ser usado para “câmeras da Leica” ou “Natalie Portman”. A linguagem em si não importava.

O Google logo demonstrou a eficiência de sua tecnologia conquistando um verdadeiro monopólio no mercado de busca, mas isso não quer dizer que esse segmento não borbulhe mais com inovação. Mais recentemente, uma ferramenta chamada Wolfram Alpha ressuscitou, sob outra forma, o paradigma de resposta a perguntas do Ask Jeeves. Mas em vez de tentar entender a linguagem natural, o Wolfram trabalha com perguntas cuidadosamente regimentadas, principalmente sob a forma de problemas matemáticos. Seus resultados compõem todo um leque de respostas relevantes para a pergunta. Ao buscar “2+2″, sua resposta não é apenas “4″(ou uma lista de páginas com “2+2″, como em um motor de busca convencional). Ele também apresenta o gráfico e os passos que levaram ao resultado, assim como informações mais marginais (o tempo médio que um humano leva para calcular essa operação, por exemplo). A influência do Wolfram Alpha já pode ser sentida no Google e em sites mais novos, como o DuckDuckGo. No entanto, a ideia de trabalhar com dados mais condutivos à investigação computacional tem raízes mais profundas.

Um eu contável

O sonho de Jeff Bezos sempre foi vender o mundo e ele encontrou no computador um aliado ideal para essa empreitada. Produtos são computacionalmente interessantes porque eles são compostos por especificações e padrões industriais. Crucialmente, ninguém discute se uma torradeira tem X watts de potência ou quantos núcleos de CPU operam no iPhone. Tudo isso é mensurável e contabilizado. Nós mesmos, no INFOlab, produzimos avaliações de produtos que dependem em parte de observações objetivas nas quais há pouca intervenção humana. A Amazon percebeu rapidamente o valor que os metadados de cada produto tinham sobre a decisão de compra dos consumidores e construiu uma infraestrutura gigantesca para organizá-los.

Acima argumentei que os dois grandes problemas da linguagem são a ambiguidade e o contexto. Tais obstáculos são menores no caso da Amazon. Como afirmei acima, não há ambiguidade na especificação de um produto ideal. A própria natureza dos metadados também resolve, pelo menos parcialmente, o problema do contexto. Para usar um exemplo anterior, se eu comprei um disco com uma apresentação de “Parsifal”, a Amazon sabe que eu prefiro o CD ao MP3. Eles também sabem que eu tenho um predisposição a consumir música clássica, o que pode levar à recomendação de uma obra de Mahler, e literatura alemã, o que pode levar a uma recomendação de um livro de Goethe. Da mesma forma, o Netflix sabe que eu gosto de filmes de terror e o Spotify sabe muito sobre o meu gosto por música eletrônica. O que é realmente importante aqui é que todos esses serviços usam categorias pré-existentes e socialmente aceitas. Os servidores da Amazon não tiveram que descobrir que Gustav Mahler e Richard Wagner tinham estilos musicais próximos porque milhões de pessoas já estavam de acordo sobre esse tema.

Mas esse modelo não é infalível. Enquanto dados técnicos raramente são problemáticos, categorias mais complexas como as que eu mencionei não são imutáveis. O tempo e as peculiaridades regionais as transformam e existe um número imenso de subcategorias. Dessa maneira, o Netflix pode descobrir que eu gosto de anime, mas seria mais difícil apontar a ligação que eu vejo entre alguns episódios de Evangelion e o primeiro filme do Ghost in the Shell (no caso, algumas cenas animadas por Mitsuo Iso). Da mesma forma, o termo “liberal” também teria significados radicalmente diferentes nos contextos políticos do Brasil e dos EUA.

Alguém poderia argumentar que essa é uma questão de captar mais dados. Com certeza, a Amazon gostaria de saber mais. Tenho ainda mais certeza de nós queremos compartilhar essas informações, mesmo que inconscientemente. Mas poucas pessoas perceberam isso quando a explosão das mídias sociais arrebatou o mundo. Um deles foi Mark Zuckerberg. Ao contrário das primeiras redes, como o MySpace, o Facebook é uma grande máquina de autodeterminação social.

Em vez de entregar todo o controle nas mãos do usuário, o que sem dúvida levaria a uma massa de dados ilegível para um computador, o Facebook cria regras bem estabelecidas de identificação. Assim como a Amazon, o Facebook pode contar com categorias criadas por pessoas reais, mas no caso da rede social, são os próprios indivíduos(centenas de milhões deles) que dizem “estudei na escola Y”, “morei três meses no Canadá”, “gosto de gatos persas”. A granularidade desses dados é incrível e o fato de que eles são registrados conforme um expediente predeterminado (pelo botão “Curtir”, por questões de múltipla escolha, etc.) permite que tudo seja computado. O clímax da rede veio em 2010, quando o Facebook conectou todos os interesses de seus usuários a páginas centrais, representando “Game of Thrones”, “Iron Maiden” ou qualquer outro ícone cultural. O resultado tem um valor óbvio.

As companhias de hardware estão lentamente entrando no mesmo jogo. Aparentemente, entre 2012 e hoje houve um surto de consciência saudável no mundo. O que mais poderia explicar o surgimento de inúmeros aparelhos que metrificam a atividade física das pessoas? Câmeras que podem ser montadas no corpo e captam amplos ângulos de visão, pulseiras que contam passos, smartphones que medem a frequência cardíaca e reconhecem digitais. Estamos produzindo cada vez mais dados sobre nós mesmos, dentro e fora do mundo virtual. Se é que existe “dentro” e “fora”.

Skynet

Por mais que você digite “Nãoteinteressa” no campo de instituição de ensino do seu perfil, o Facebook sabe que 80 dos seus 123 amigos estudaram na Escola Alpha de Mogi das Cruzes entre os anos 1989 e 2006. Mesmo que o Grande Mark (ainda) não lhe force admitir sua identidade, sua resposta não importa mais: você é apenas 1 no grupo de 81 indivíduos que poderiam divulgar essa informação por conta própria. Governos e empresas pelo mundo todo certamente fazem uso dela, na maioria das vezes para propósitos mais inofensivos que a Guerra ao Terror da NSA. Qualquer contratação de seguradora, entrevista de emprego e análise de crédito vai envolver uma busca similar pelos rastros virtuais do candidato.

A parte assustadora dessa história não é a eficiência dos métodos de captação, mas sim a incompetência que frequentemente envolve a interpretação da mesma. Um artigo do site Ars Technica revelou em 2012 a precariedade dos sistemas de coleta de informação do FBI, que é uma das maiores agências de investigação do país mais rico do mundo. Um dos fatos revelados é que o sistema de busca que os agentes utilizam só admite um termo para cada pesquisa. A infraestrutura de armazenamento de dados também era completamente incapaz de acompanhar a demanda gerada pelos esforços de coleta de informação. Nessa confusão, criminosos escapam e inocentes podem ser erroneamente acusados.

O problema de um sistema como o Facebook não é tanto computacional quanto é social. As categorias de que ele depende são categorias humanas e, portanto, são também repletas de preconceitos, mentiras e frivolidades. Não me surpreende que o Facebook filtre conteúdo “adulto” como nudez mas resista à censura de imagens violentas. Tal comportamento também é o padrão do cinema e das emissoras de televisão. Embora exista uma responsabilidade das empresas em questão, essas também são nossas decisões como sociedade. Embora todos nós estejamos sendo vigiados o tempo todo, o “olho-que-tudo-vê” não é muito menos “estúpido” que os computadores da época de Turing, desta vez porque eles dependem de julgamentos humanos e humanos erram. O próprio Turing foi vítima dessas categorias. Uma emenda na lei britânica criou em 1885 o crime de “indecência extrema”, que se baseava na moral na era Vitoriana. Por ser homossexual e, portanto, um sujeito “imoral”, Turing foi forçado a aceitar a castração química para não ser preso.

Uma das imagens mencionadas nos comentários sobre a notícia que inspirou este artigo foi a de que a Skynet, a rede de inteligência artificial que domina o mundo no universo de “O Exterminador do Futuro”, estaria mais próxima de ser criada. Se é isso que você teme, pode se tranquilizar: a Skynet já existe, eu e você fazemos parte dela. Mas ela é bem mais inofensiva e inconspícua do que nos filmes. Cada streaming que eu vejo, cada meme que eu reproduzo, cada artigo online que eu leio (ou escrevo) contribui para a massa de dados que, por sua vez, procura direcionar meus esforços e desejos. Afirmei acima que somos “vigiados”, mas é mais correto dizer que “delatamos uns aos outros”. Pode parecer que estou oferecendo uma versão distópica do mundo, mas essa é apenas uma questão de interpretação.

Robert Wise e Michael Crichton oferecem uma visão da tecnologia mais próxima da nossa realidade atual na adaptação cinematográfica do romance “The Andromeda Strain” (“O Enigma de Andrômeda”, 1971). Em uma cena memorável uma criança e um velho estão isolados em salas monitoradas por computadores que medem cada um de seus aspectos físicos. Como não poderia deixar de ser, há um grupo de cientistas observando tudo do outro lado do monitor. No entanto, até esses cientistas são acompanhados pelos sistemas automáticos de monitoramento da estação de pesquisa: o computador sabe, a qualquer momento, onde cada um deles está (o que é considerado uma medida de segurança). Boa parte do conflito do filme é gerada pela incompetência, às vezes hilária, às vezes aterrorizante, das máquinas que tentam entender as vontades humanas. Quem está no controle, homem ou máquina? Ou será que ambos formam um mesmo mecanismo?

Como os computadores não podem, em seu formato atual, se tornar mais parecidos conosco, fomos obrigados a formatar nossas vidas de uma maneira que as máquinas podem digerir. Fizemos com que elas ficassem menores e nos acompanhassem por toda a parte (e. g. smartphones) e regimentamos nossas atividades em formas computáveis (pelos links do Google e pelas categorias do Facebook). Tais eventos abriram as portas para um desenvolvimento intelectual e econômico sem precedentes. Será que a coleção inumerável de dados sobre o mundo dos humanos fará com que uma nova consciência emerja das máquinas? Não sei. Mas acho bem mais provável que os computadores se tornem o próprio ar que respiramos. Já é cada vez mais difícil imaginar o mundo antes deles. Quanto à escravidão prometida por filmes como Matrix, creio que a humanidade pode cumprir o papel de mestre e escravo sozinha, como sempre foi o caso ao longo de nossa história.