DISCURSUS
TEORIA DOS JOGOS E DA COOPERAÇÃO (MAY, E. 'Ben Franklin leva Xeque-Mate de Lady Howe', sec.XIX)
Modelos de Jogos
Menu Geral
Curso
Serviço
Início
Serviço
Navegação
Script gratuito fornecido por JavaScript Kits

TEORIA DOS JOGOS E DA COOPERAÇÃO PARA FILÓSOFOS

SEÇÃO I

» 4ª Unidade: Modelos de Jogos

  • Computadores X Estudos Acadêmicos.
Por Antônio Rogério da Silva

O desenvolvimento de computadores ou máquinas inteligentes é algo que sempre esteve na agenda de filósofos visionários, pelo menos desde quando Platão começou a elaborar uma teoria do conhecimento em seu diálogo Teeteto. As teorias da mente estavam por detrás desse tipo de investigação sobre o entendimento humano tornaram mais nítida a vinculação de mecanismos inteligentes ao comportamento dos seres vivos, a despeito do que pensava o mecanicista René Descartes (1596-1650) [1]. Mas a invenção de autômatos reais ou virtuais não era exatamente uma inovação moderna. Mecanismos sofisticados já haviam sido usados por gregos do século I a.C. para calcular a trajetória dos astros visíveis - como a calculadora mecânica descoberta em restos de naufrágio próximo à ilha Antiquitera, no mar Egeu.

O materialista Thomas Hobbes não tinha dúvidas que que seu Leviatã descrevia a constituição de um "homem artificial" que reproduzia o comportamento de todo um corpo social formado pelo somatório das ações de cada cidadão (2). Para tanto, bastava uma leitura atenta do ser humano. A observação detalhada de si mesmo deveria permitir que fosse exposta claramente de maneira ordenada, o conhecimento do gênero humano. A partir desse exame empírico da matéria, poder-se-ia concluir, entre outras coisas, que o entendimento não passa de uma imaginação decorrente do uso das palavras, que é comum tanto aos homens quanto aos animais, e por extensão as máquinas também.

Desde o início do século XVII, graças ao avanço da arte da relojoaria, tentativas de construir esses mecanismos tiveram grande divulgação. Na França, Jacques de Vaucanson (1709-1782) construiu vários tocadores de flauta transversa, pífaros, tambor, bem como seu famoso "pato" que batia asas, nadava, comia grãos e depois os expelia. Seu conterrâneo, Julien Offroy de la Mettrie (1709-1751), chegou a ser banido, por sustentar, no livro L'Homme Machine (O Homem Máquina, 1747), que "a alma é apenas um termo vão sem qualquer significado. Concluamos então audaciosamente que o homem é uma máquina" (3).

Por volta de 1833, o matemático inglês Charles Babbage (1792-1871) trabalhou no projeto de uma máquina de calcular, cujas características principais antecipavam o arranjo dos primeiros computadores eletrônicos. Ela era composta por uma porta de entrada de dados; uma memória de armazenamento de informação; uma unidade matemática, para operar os cálculos; uma unidade de controle, que indicava quando e como usar a informação, e um dispositivo de saída de dados, que fornecia as respostas impressas. O processo de computação utilizaria cartões perfurados com informação codificada, tal como os teares mecânicos inventados pelo francês Joseph-Marie Jacquard (1752-1834), em 1801. Embora a Inglaterra vitoriana não tivesse condições industriais para produzir as peças sofisticadas necessárias à construção da "máquina diferencial" de Babbage, como ela ficou conhecida, o estatístico estadunidense, Herman Hollerith (1860-1929), pôde fabricar máquinas de somar que foram utilizadas para separar, contar e catalogar os resultados do censo de 1890 três vezes mais rápido que as máquinas convencionais de então. Mais tarde, mecanismos semelhantes ao de Hollerith passaram a ser empregados em contabilidade e negócios, em geral, utilizando os cartões perfurados que só foram superados 90 anos depois pelas fitas magnéticas. Nesse ínterim, ele fundou a Computing Tabulating Recording Company (CRT) que se fundiu a outras empresas para formar a International Business Machine Corporation (ou simplesmente: IBM).

Simultâneo aos avanços desses equipamentos, George Boole (1815-1864), matemático inglês, procurava associar as leis básicas do pensamento aos princípios da lógica com o intuito de eliminar as ambigüidades da linguagem natural. Em 1847, Boole apresentou, no opúsculo The Mathematical Analysis of Logic (A Análise Matemática da Lógica), um sistema que consiste num conjunto de símbolos, cujos operadores disjuntivo, conjuntivo e negação correspondiam, respectivamente, aos sinais "+", "." e "-" que formavam expressões de valores verdadeiro ("1") ou falso ("0") com variáveis "a", "b", "c" etc, representando proposições de um conjunto de sentença "S". A álgebra booleana permitia que o raciocínio fosse processado sem qualquer relação a conteúdos particulares e específicos, ao mesmo tempo que garantia a postulação de axiomas para identidade, associatividade, comutatividade, distributividade, complementação e todas operações básicas do pensamento. A teoria de Boole prosseguiu de forma mais sistemática na obra A Investigation of the Laws of Thought (Uma Investigação das Leis do Pensamento, 1854), a qual Bertrand Arthur William Russell (1872-1970) atribuiu a descoberta da matemática pura (4).

A aplicação da álgebra booleana aos circuitos eletrônicos só foi possível depois de Claude Elwood Shannon concluir, em 1938, sua dissertação de mestrado, intitulada "A Symbolic Analysis of Relay and Switching Circuits" (Uma Análise Simbólica dos Circuitos de Interruptores e Relés). Shannon adaptou as idéias de Boole ao chaveamento de circuitos telefônicos, associando os estados aberto e fechado dos interruptores, respectivamente, aos valores falso e verdadeiro das equações lógicas. Esse esforço de tradução de uma linguagem formal para um aparato físico, facilitou a formulação de projetos e a construção de maquinário eletrônico a um custo menor. Desde então, a fabricação de circuitos eletrônicos, bem como posteriormente, os programas deveriam levar em conta instruções em linguagem de máquina sob o ponto de vista formal da lógica e não pelo acúmulo de operações e números da aritmética.

Jogo da Imitação

Toda essa discussão em torno da capacidade de máquinas reproduzirem a cognição humana, no século XX, tinha como eixo o argumento de Alan Turing (1912-1954) apoiado no seu famoso Jogo da Imitação. Seu objetivo era tentar mostrar como máquinas inteligentes poderiam reproduzir com perfeição o comportamento humano a ponto de se tornarem indiscerníveis um do outro. Isto é, à percepção de um observador humano, não seria possível dizer qual ação teria sido determinada por um algoritmo ou se fora fruto do livre arbítrio de uma mente humana (5).

Na filosofia, computadores surgiram como um tema central da Inteligência Artificial e da Teoria da Mente. Fora desse âmbito restrito, têm sido usado tão somente como máquinas datilográficas de luxo por aqueles que não sentem horror ao desenvolvimento da tecnologia, como os heideggerianos. Entretanto, cada vez mais as ciências que estudam o comportamento humano têm utilizado essas máquinas como instrumentos úteis para simulação de determinadas práticas que, ao lado dos testes laboratoriais feitos com voluntários humanos, ajudam a compreender melhor a emergência de atitudes cooperativas, sentimentos de justiça, indignação ou mesmo de instituições como Estado ou a polícia.

Apesar das críticas emocionais, nem sempre razoáveis, que surgem contra esse tipo de abordagem, os computadores estão se fixando como mecanismos valiosos para refutação de hipóteses filosóficas que de outro modo permaneceriam eternamente em meio à especulação sobre sua viabilidade prática. Computadores, desde o início, serviram como modelo para compreensão de particularidades das faculdades cognitivas. No Jogo da Imitação de Turing, uma máquina e uma pessoa ocupariam o lugar de um homem ou uma mulher, enquanto um interrogador, localizado em uma outra sala deveria advinhar o sexo de quem respondia suas perguntas. A melhor estratégia para uma máquina seria tentar oferecer de forma "natural" as respostas como se fosse um ser humano. Turing acreditava que um computador com capacidade de memória conveniente - em torno de 1 gigabite - poderia imitar o comportamento humano nesses exames tão bem que uma pessoa comum não seria capaz de fazer uma identificação correta com 70% de probabilidade, em menos de cinco minutos de teste (6).

O teste de Turing visava encontrar um método para determinar se máquinas poderiam pensar, mas dependia de uma percepção de terceira pessoa sobre o desempenho teatral. Esse aspecto intersubjetivo do jogo de imitação foi criticado pelo filósofo da linguagem John Richard Searle, como insuficiente para definir se o programa embutido na máquina compreende ou não aquilo que responde ao interrogador. Em 1980, Searle escreveu o artigo "Minds, Brains and Programs" (Mente, Cérebro e Programas), no qual lançou a distinção das pesquisas que visavam esclarecer os processos mentais, como causas do comportamento das partes do cérebro - ou IA fraca -, daquelas que consideravam o cérebro como um computador e a mente o seu programa - a IA forte. Para Searle, a IA fraca permite a harmonia entre as abordagens biológicas e o que se sabe sobre o mundo, enquanto a IA forte, ao tentar criar mentes artificiais estaria condenada ao fracasso, pois nenhum programa de computador seria suficiente para fornecer um sistema inteligível (7).

Nesse artigo, Searle apresentou o experimento mental batizado de "quarto chinês", como um contra-exemplo às pretensões dos partidários da IA forte. Um falante de uma língua ocidental - o português, no nosso caso - é isolado numa sala que contém vários símbolos em mandarim - língua oficial da China -, cujo significado ele desconhece. Sobre uma mesa, há um manual em português com regras de como o "lusófono" deve entregar os símbolos corretos, toda vez que determinados cartões, em mandarim, lhe forem mostrados. Desse modo, observando no manual a correlação específica entre os sinais recebidos e os enviados, a pessoa dentro da sala, induz o destinatário de seus cartões, do lado de fora, falante do mandarim, a acreditar que ele compreende sua língua. No entanto, o falante do português trancado na sala, na verdade, não entende uma palavra em mandarim. Tudo que ele faz é seguir as instruções contidas no manual. Moral da história: se o manual, semelhante ao programa de um computador, não ensina palavra alguma em outra língua ao leitor, então nenhum computador, ao executar um programa, compreende o conteúdo daquilo que está sendo processado. Tal como o personagem na sala, o computador apenas segue as instruções formais para manipular símbolos em uma sintaxe correta, sem compreender seu significado semântico (8).

Com isso, Searle atacava a pretensão de que o teste de Turing fosse suficiente para atribuir corretamente uma mente a máquinas, pois seu desempenho poderia ser uma mera imitação formal, sem entendimento do conteúdo da ação. Por apresentar apenas um comportamento sintático formalmente correto, o computador não conhece a semântica, o contexto real de sua atuação, ou a intenção de seus estímulos ou respostas (9).

A inspiração do "quarto chinês" é uma adaptação de experimento semelhante imaginado por Ned Block no artigo "Troubles With Functionalism" (Problemas com o Funcionalismo, 1978). O chamado "ginásio chinês" reunia, num estádio maior que o Maracanã, milhões de pessoas para que elas transmitissem sinais umas às outras, por meio de rádios de fala-escuta - numa analogia ao funcionamento dos neurônios. Assim, seguindo uma série de regras, a multidão conseguiria responder a perguntas sobre histórias em mandarim, embora o ginásio não entendesse uma palavra dessa língua. É curioso notar que a intenção de Block era defender a teoria computacional do cérebro, o oposto do que Searle propôs. Contra o conexionismo, Searle diz que as conexões correspondentes às sinapses neurais não simulam as propriedades causais que provocam a sua compreensão, por mais perfeita que seja a emulação do funcionamento do cérebro. Falta-lhes habilidade para produzir estados intencionais. Para Searle, "o que quer que seja a intencionalidade, é um fenômeno biológico o qual deve ser tão causalmente dependente da bioquímica específica de suas origens como o é a lactação, a fotossíntese ou quaisquer outros fenômenos biológicos." (10).

Um dos paradigmas da Inteligência Artificial forte atacada por Searle eram os programas de xadrez, que na época de Turing ainda eram muito precários. Anos depois, filósofos como Hubert L. Dreyfus, precipitavam-se em dizer que esse tipo de programa jamais chegaria a vencer a habilidade humana para jogar xadrez. O tempo passa e, em 1997, com a vitória do computador Deep Blue sobre o enxadrista russo Garry Kasparov, mais esse mito filosófico cai por terra.

Imitação da Vida

Pouco a pouco, a evolução dos programas foi superando os obstáculos cognitivos a ponto de computadores terem se tornado modelo de racionalidade para tal como nos primeiros conceitos de razão na modernidade adotados por lógicos e filósofos da teoria do conhecimento. Os computadores serviram também para elaboração de programas que buscavam simular não só um tipo de inteligência, mas a própria reprodução da vida no planeta. A teoria matemática dos sistemas dinâmicos, na física, procurou explorar as analogias dos ciclos de ascensão e queda de organismos vivos e sociedades em modelos de jogos que representariam o processo de desenvolvimento da vida real.

O jogo da Vida, de John Conway, trabalhava a idéia de uma máquina de Turing que visaria passar no teste de simulação do aparecimento, sobrevivência e morte de sistemas complexos, como a vida, a partir de um conjunto de regras simples. A imitação da vida, tal como da inteligência trouxe a possibilidade de se usar os computadores como instrumentos adequados para o exame de hipóteses acerca dos algoritmos que poderiam estar por detrás do desenvolvimento dos principais fenômenos biológicos evolutivos.

No modelo de Conway, leis genéticas de nascimento, reprodução e morte descreveriam a forma com que organismos ocupariam um território, tal como autômatos celulares em um tabuleiro infinito (de Go ou de Xadrez, com as casas de uma mesma cor). Cada célula ocupada desta tabela representaria um organismo que interage com as oito casas que a cercam. Passam à geração seguinte - próximo movimento do jogo - os pontos adjacentes a duas ou três casas ocupadas. Com quatro ou mais vizinhas, a superpopulação extingue o respectivo ponto. Enquanto o ponto solitário ou com apenas um vizinho desaparece pelo isolamento. Novos organismos surgem sempre ao lado de três vizinhos exatos. Com base nessas regras, três cenários poderiam surgir: nenhum padrão conseguiria avançar indefinidamente; aparentemente os padrões formados cresceriam sem limite; ou se dispersariam até desaparecerem completamente ou congelariam ou cairiam em um ciclo eternamente oscilante. De todos cenários possíveis, Conway concluiu que nenhuma configuração inicial com um número finito de organismos conseguiria progredir indefinidamente sem chegar a um limite (11).

A vida no computador, tendo por modelo autômatos celulares, com regras simples de geração e extinção, reproduziu o conhecido padrão cíclico das populações descoberto pelos matemáticos Lotka e Volterra (12).

(...) O ciclo, que é o padrão mais conhecido na biologia das populações, descreve a interação entre populações de uma espécie predadora e sua presa. Com essa população estabelecida de presas, a população de predadores aumentará. Finalmente, os predadores começam a exercer um sério impacto na população de presas, que começa a diminuir.
Com menos presas para comer, os predadores começam a sofrer e sua população diminui. Liberta da pressão dos predadores, a população de presas agora tem um impulso, seguida pela população de predadores. O ciclo de ascensão e queda das populações continua indefinidamente (...) (LEWIN, R. Complexidade, cap. 5, p. 119).

O movimento cíclico que aparece nitidamente no jogo da vida emerge também no jogo dos Pombos e Falcões repetidos por Richard Dawkins, Maynard-Smith e Robert Trivers. Nos computadores, três teorias cruciais desenvolvidas no século XX têm o ambiente propício para os seus encontros e desdobramentos. Inteligência Artificial, Teoria do Caos e dos Jogos abordam de modo complementar os aspectos particulares de uma teoria geral sobre o surgimento, sobrevivência e destruição dos organismos vivos. Por meio de computadores, de hipóteses simples podem ser extraídas consequências complexas em geral. Tal instrumento, mostrou como características locais, em larga escala, poderiam fazer surgir "propriedades emergentes" das interações entre indivíduos em um sistema global (13).

O uso de computadores na avaliação de hipóteses facilita a observação de discrepâncias de conclusões consideradas razoáveis de estudos meramente acadêmicos e dedutivos. Axelrod chamou atenção para os equívocos de deduções tiradas das análises acadêmicas feitas sobre a estratégia RETALIADOR PERMANENTE. Alguns ensaios consideraram que RP possuiria as condições mínimas para sustentação da cooperação e da confiança. Contudo, os torneios de computadores de Axelrod, onde RP participou, revelaram que se trata de uma estratégia perigosa, uma vez que teria ficado nas piores colocações entre as estratégias gentis - aquelas que começam cooperando (14).

Essa discussão ilustra dois princípios. Primeiro, que fazer bons conselhos depende não apenas das propriedades dedutíveis da estratégia em questão, mas também das condições exatas sob as quais a estratégia será usada. Em um mundo de agentes adaptativos, mesmo um jogador plenamente racional precisa levar em consideração o que o outro jogador está provavelmente experimentando ao invés de otimizando. Segundo simulações oferecem uma rica possibilidade para checar a eficácia das idéias estratégicas em ambientes que são altamente diversos (AXELROD, R. "On Six Advances in Cooperation Theory", p. 15).

Todo trabalho sobre o comportamento feito em laboratórios de informática tem servido para testar hipóteses que filósofos mais atentos, como o estadunidense Daniel Clement Dennett, têm considerado válidas e estimulantes, até mesmo para questões éticas. Fatores como o reconhecimento mútuo, comunicação e reciprocidade têm se mostrado como condições necessárias para o processo de evolução da moral (15). Embora o mecanismo dos jogos não seja adequado para formulação de leis científicas deterministas, este pode ser utilizado corretamente na preparação de explicações probabilísticas de procedimentos difíceis de ser definidos intuitivamente pela mera observação dos fenômenos sociais. Com a teoria dos jogos, é possível compreender quais são os principais componentes a serem considerados em uma relação entre dois ou mais agentes racionais e as possíveis consequências de seus atos. No sentido definido por Luce e Raiffa, a teoria dos jogos e seus modelos computacionais não devem ser entendidos como propositores de normas absolutas da maneira pela qual as pessoas se comportam ou deveriam agir. Porém, sua função tem sido até agora prescrever as linhas de ação viáveis, caso as partes desejem atingir os fins específicos.

(...) Ela prescreve para dadas hipóteses cursos de ação para atender os resultados que tenham certas propriedades formais "ótimas". Tais propriedades podem ou não ser consideradas pertinentes em algum dado conflito de interesses no mundo real. Se eles forem, a teoria prescreve as escolhas que precisam ser feitas para alcançar o ótimo (LUCE, R. D. & RAIFFA, H. Games and Decisions, cap. 4, § 4.3, p. 63).

Notas
1. Apesar de ser um dos pioneiros do mecanicismo, Descartes considerava praticamente impossível a construção de autônomos que pudessem agir pelo conhecimento, devido ao fato de não possuirem órgãos suficientes para atuarem da mesma maneira que os humanos (veja DESCARTES, R. Discurso do Método, part. 5, p. 57).
2. HOBBES, Th. Leviatã, introdução, p. 5.
3. DE LA METRIE, J.O. L'Homme Machine, apud CHANGEUX, J-P. O Homem Neuronal, cap. 2, p. 47.
4. Veja GARDNER, H. A Nova Ciência da Mente, pp. 157-158.
5. Veja TURING, A. "Computação e Inteligência", pp. 21-23.
6. Veja TURING, A. "Computação e Inteligência", § 6, p. 34.
7. Veja SEARLE, J. R. Mente, Cérebro e Programas pp. 65-68.
8. Veja SEARLE, J. R. Op. Cit pp. 68-71.
9. Veja GARDNER, H. ibidem, pp. 187-188.
10. SEARLE, J. R. Idem, p. 92.
11. Veja GARDNER, M. Mathematical Games, pp. 120-123.
12. O estadunidense Alfred James Lotka (1880-1949) era químico, matemático, demógrafo e físico nascido na Áustria e o italiano Vito Volterra (1860-1940) era matemático e durante a I Grande Guerra trabalhou para a Força Aérea da Itália, ambos construíram um modelo matemático utilizado pelos teóricos do caos e da biologia.
13. Veja AXELROD, R. "On Six Advances in Cooperation Theory". Analyse & Kritik, p. 10.
14. Veja AXELROD, R. Op. cit., pp. 11-12. RP ficou em sétimo lugar no primeiro torneio e em 52º no segundo.
15. DENNETH, D. Cl. A Perigosa Idéia de Darwin, cap. 16, § 3, p. 505.

« Antes: A Centopéia, Indução Reversa, o Papel do Tempo.
A seguir: Bem Público e Ultimato
Referências Bibliográficas

AXELROD, R. "On Six Advances in Cooperation Theory". Analyse & Kritik, pp. 1-39, janeiro de 2000. Disponível na Internet via http://www-personal.umich.edu/~axe/research/SixAdvances.pdf

CHANGEUX, J-P. O Homem Neuronal; trad. Artur J. P. Monteiro. - Lisboa: Dom Quixote, 1991.

DENNETH, D. Cl. A Perigosa Idéias de Darwin; trad. Talita M. Rodrigues. - Rio de Janeiro: 1998.

DESCARTES, R. Discurso do Método; trad. J. Guinsburg e Bento Prado Jr. - São Paulo: Abril Cultural, 1983. (Os Pensadores)

GARDNER, H. A Nova Ciência da Mente; trad. Cláudia M. Caon. - São Paulo: Edusp, 1995.

GARDNER, M. "Mathematical Games", in Scientific American, 223, pp 120-123, outubro de 1970.

HOBBES, Th. Leviatã; trad. João P. Monteiro e Mª Beatriz N. da Silva. - São Paulo: Abril Cultural, 1983. (Os Pensadores).

SEARLE, J. R.. "Mentes, Cérebros e Programas", in TEIXEIRA, J.F. Cérebros, Máquinas e Consciência; trad. Cléa R. de O. Ribeiro. – São Carlos: UFSCAR, 1996.

TURING, A. "Computação e Inteligência", in TEIXEIRA, J.F. Cérebros, Máquinas e Consciência; trad. Fábio de C. Hansem. – São Carlos: UFSCAR, 1996.