Dreyfus (OQC): Introdução

Esta (nova) edição de What Computers Can’t Do marca não apenas uma mudança de editor e uma ligeira mudança de título; também marca uma mudança de status. O livro agora oferece não uma posição controversa em um debate em andamento, mas uma visão de um período passado da história. Pois agora que o século XX está chegando ao fim, está ficando claro que um dos grandes sonhos do século também está terminando. Quase meio século atrás, o pioneiro da computação Alan Turing sugeriu que um computador digital de alta velocidade, programado com regras e fatos, pode exibir um comportamento inteligente. Assim nasceu o campo mais tarde denominado inteligência artificial (IA). Depois de cinquenta anos de esforço, entretanto, agora está claro para todos, exceto alguns obstinados, que essa tentativa de produzir inteligência genérica falhou. Essa falha não significa que esse tipo de IA seja impossível; ninguém foi capaz de apresentar uma prova tão negativa. Em vez disso, descobriu-se que, pelo menos por enquanto, o programa de pesquisa baseado na suposição de que os seres humanos produzem inteligência usando fatos e regras chegou a um beco sem saída, e não há razão para pensar que possa ter sucesso. De fato, o que John Haugeland chamou de Good Old-Fashioned AI (GOFAI) é um caso paradigmático do que os filósofos da ciência chamam de degenerescente programa de pesquisa.

Um degenerescente programa de pesquisa, conforme definido por Imre Lakatos, é um empreendimento científico que começa com grande promessa, oferecendo uma nova abordagem que leva a resultados impressionantes em um domínio limitado. Quase inevitavelmente, os pesquisadores vão querer tentar aplicar a abordagem mais amplamente, começando com problemas que são de alguma forma semelhantes ao original. Contanto que tenha sucesso, o programa de pesquisa se expande e atrai seguidores. Se, no entanto, os pesquisadores começarem a encontrar fenômenos inesperados, mas importantes, que consistentemente resistem às novas técnicas, o programa irá estagnar e os pesquisadores irão abandoná-lo assim que uma abordagem alternativa progressiva se tornar disponível.

Podemos ver esse mesmo padrão na história da GOFAI. O programa começou de forma auspiciosa com o trabalho de Allen Newell e Herbert Simon na RAND. No final da década de 1950, Newell e Simon provaram que os computadores podiam fazer mais do que calcular. Eles demonstraram que as cadeias de bits de um computador podem representar qualquer coisa, incluindo recursos do mundo real, e que seus programas podem ser usados ​​como regras para relacionar esses recursos. A estrutura de uma expressão no computador, então, poderia representar um estado de coisas no mundo cujas características tivessem a mesma estrutura, e o computador poderia servir como um sistema de símbolos físicos armazenando e manipulando tais representações. Dessa forma, afirmam Newell e Simon, os computadores podem ser usados ​​para simular aspectos importantes da inteligência. Assim nasceu o modelo de processamento de informações da mente.


Excerto da Introdução da primeira edição do livro

português

Desde que os gregos inventaram a lógica e a geometria, a ideia de que todo raciocínio poderia ser reduzido a algum tipo de cálculo — de modo que todos os argumentos pudessem ser expostos de uma vez por todas – tem fascinado a maioria dos pensadores radicais da tradição ocidental. Sócrates foi o primeiro a dar voz a essa visão. A história da inteligência artificial bem poderia ter início em torno de 450 a.C. quando (segundo Platão) Sócrates demanda a Euthyphro, um colega ateniense que, em nome da piedade, está para entregar seu próprio pai por homicídio: “Quero saber o que é característico da piedade que faz toda ação piedosa … que eu possa voltar-me a ela e usá-la como um padrão pelo qual julgue suas ações e aquelas de outros homens.1 Sócrates está indagando de Euthyphro o que os modernos teóricos da computação chamariam de um “procedimento efetivo” (effective procedure), “um conjunto de regras que nos diz exatamente, de momento a momento, como comportar”2.

Platão generalizou esta procura de uma certeza moral numa demanda epistemológica. Consoante Platão, todo conhecimento deve ser enunciado em definições explícitas que qualquer um possa aplicar. Se alguém não pudesse expressar seu “know-how” em termos de tais instruções explícitas — se seu saber como (knowing how) não pudesse se converter em saber isto, não seria saber mas simples crença. De acordo com Platão, os cozinheiros, por exemplo, que procedem pelo gosto e pela intuição, e os poetas que trabalham com a inspiração, não têm conhecimento : o que fazem não envolve compreensão e não pode ser compreendido. Mais genericamente, o que não se pode enunciar explicitamente em precisas instruções – todas as áreas do pensamento humano que requerem habilidade, intuição ou um senso de tradição – é relegado a uma espécie de desconcerto arbitrário (arbitrary fumbling).

Platão, porém, não era um cibernético na acepção plena da palavra (embora, segundo Norbert Wiener, tenha sido ele quem primeiro empregou o termo), pois Platão procurava por critérios semânticos ao invés de sintáticos. Suas regras pressupunham que as pessoas compreendiam os significados dos termos constitutivos. Na República, Platão diz que Compreensão (o grau escalar de sua linha dividida representando todo saber) depende da Razão, que envolve uma análise dialética e, em última instância, uma intuição do significado dos conceitos fundamentais utilizados na compreensão. Destarte, Platão admite que suas instruções não podem ser completamente formalizadas. Semelhantemente, um moderno “expert” em computação, Marvin Minsky, observa, após tentativamente apresentar uma noção platônica de procedimento efetivo: “Esta tentativa de definição está sujeita à crítica de que a interpretação das regras fica a depender de alguma pessoa ou agente.”3

Aristóteles, que divergia de Platão nesta, como na maioria das questões referentes à aplicação da teoria à prática, observou com satisfação que a intuição era necessária para se aplicarem as regras platônicas.


Todavia não é fácil descobrir uma fórmula pela qual possamos determinar até que onde e até que ponto um homem pode errar até incorrer em reprovação. Mas esta dificuldade de definição é inerente em todo objeto de percepção; tais questões de gradação são limitadas às circunstâncias do caso individual, onde nosso único critério é a percepção.4

Para o projeto platônico atingir completude uma ruptura é requerida: todo apelo à intuição e ao julgamento deve ser eliminado. Como Galileu descobriu que se poderia encontrar um puro formalismo para se descrever o movimento físico ignorando-se qualidades secundárias e considerações teleológicas, assim poder-se-ia supor, um Galileu do comportamento humano teria êxito na redução de todas as considerações semânticas (apelo aos significados) a técnicas de manipulação sintática (formal).

A crença de que tal formalização do saber deve ser possível logo passou a dominar o pensamento ocidental. Ela já expressava uma demanda básica, moral e intelectual e o sucesso da ciência física pareceu implicar para os filósofos do século dezesseis, como ainda parece sugerir a pensadores como Minsky que a demanda poderia ser satisfeita. Hobbes foi o primeiro a tornar explícita a concepção sintática de pensamento como cálculo: “Quando o homem raciocina, nada mais faz senão conceber uma soma total decorrente da adição de parcelas – escreveu – pois a RAZÃO … nada mais é que cômputo…”5.

original

Since the Greeks invented logic and geometry, the idea that all reasoning might be reduced to some kind of calculation—so that all arguments could be settled once and for all—has fascinated most of the Western tradition’s rigorous thinkers. Socrates was the first to give voice to this vision. The story of artificial intelligence might well begin around 450 B.c. when (according to Plato) Socrates demands of Euthyphro, a fellow Athenian who, in the name of piety, is about to turn in his own father for murder: “I want to know what is characteristic of piety which makes all actions pious… that I may have it to turn to, and to use as a standard whereby to judge your actions and those of other men.”. Socrates is asking Euthyphro for what modem computer theorists would call an “effective procedure,” “a set of mles which tells us, from moment to moment, precisely how to behave.” Plato generalized this demand for moral certainty into an epistemological demand. According to Plato, all knowledge must be stateable in explicit definitions which anyone could apply. If one could not state his know-how in terms of such explicit instmctions—if his knowing how could not be converted into knowing that—it was not knowledge but mere belief. According to Plato, cooks, for example, who proceed by taste and intuition, and poets who work from inspiration, have no knowledge: what they do does not involve understanding and cannot be understood. More generally, what cannot be stated explicitly in precise instructions—all areas of human thought which require skill, intuition, or a sense of tradition—are relegated to some kind of arbitrary fumbling.

But Plato was not yet fully a cyberneticist (although according to Norbert Wiener he was the first to use the term), for Plato was looking for semantic rather than syntactic criteria. His rules presupposed that the person understood the meanings of the constitutive terms. In the Republic Plato says that Understanding (the rulelike level of his divided line representing all knowledge) depends on Reason, which involves a dialectical analysis and ultimately an intuition of the meaning of the fundamental concepts used in understanding. Thus Plato admits his instructions cannot be completely formalized. Similarly, a modem computer expert, Marvin Minsky, notes, after tentatively presenting a Platonic notion of effective procedure: “This attempt at definition is subject to the criticism that the interpretation of the rules is left to depend on some person or agent.”

Aristotle, who differed with Plato in this as in most questions concerning the application of theory to practice, noted with satisfaction that intuition was necessary to apply the Platonic rules:

Yet it is not easy to find a formula by which we may determine how far and up to what point a man may go wrong before he incurs blame. But this difficulty of definition is inherent in every object of perception; such questions of degree are bound up with the circumstances of the individual case, where our only criterion is the perception.

For the Platonic project to reach fulfillment one breakthrough is required: all appeal to intuition and judgment must be eliminated. As Galileo discovered that one could find a pure formalism for describing physical motion by ignoring secondary qualities and teleological considerations, so, one might suppose, a Galileo of human behavior might succeed in reducing all semantic considerations (appeal to meanings) to the techniques of syntactic (formal) manipulation.

The belief that such a total formalization of knowledge must be possible soon came to dominate Western thought. It already expressed a basic moral and intellectual demand, and the success of physical science seemed to imply to sixteenth-century philosophers, as it still seems to suggest to thinkers such as Minsky, that the demand could be satisfied. Hobbes was the first to make explicit the syntactic conception of thought as calculation: “When a man reasons, he does nothing else but conceive a sum total from addition of parcels,” he wrote, “for REASON … is nothing but reckoning. . . .”

  1. Plato, Euthyphro, VII, trans. F. J. Church (New York: Library of Liberal Arts), 1948, p. 7.[]
  2. Marvin Minsky, Computation: Finite and Infinite Machines (Englewood Cliffs, N.J.: Prentice-Hall, 1967), p. 106. Of course, Minsky is thinking of computation and not moral action.[]
  3. Ibid.[]
  4. Aristotle, Nicomachean Ethics, trans. J. A. K. Thomson as The Ethics of Aristotle (New York: Penguin Books, 1953), p. 75.[]
  5. Hobbes, Leviathan (New York: Library of Liberal Arts, 1958), p. 45.[]