Mentes, Cérebros e Programas

41
http://members.aol.com/NeoNoetics/MindsBrainsPrograms.html MENTES, CÉREBROS E PROGRAMAS. John Searle. Distingo entre Inteligência Artificial no sentido forte e no sentido fraco. (*) De acordo com a IA no sentido forte, computadores adequadamente programados literalmente têm estados cognitivos, e, assim sendo, programas são teorias psicológicas. Argumento que a IA no sentido forte deve ser falsa, uma vez que um agente humano poderia instanciar um programa e, mesmo assim, não ter estados mentais. Examinarei alguns argumentos contra esta afirmação e explorarei algumas conseqüências do fato de que o cérebro de seres humanos e de animais são a base causal da existência de fenômenos mentais. Que significado psicológico e filosófico devemos atribuir aos esforços feitos recentemente para simular capacidades cognitivas humanas através do computador? Para responder esta questão considero útil distinguir entre o que ( 1) N. do Tradutor: o termo "Inteligência Artificial" será abreviado, daqui em diante por IA.

description

Tradução do artigo clássico de John Searle contra a inteligência artificial no qual ele apresenta o argumento do quarto chinês

Transcript of Mentes, Cérebros e Programas

MENTES, CREBROS E PROGRAMAS

http://members.aol.com/NeoNoetics/MindsBrainsPrograms.html

MENTES, CREBROS E PROGRAMAS.

John Searle.

Distingo entre Inteligncia Artificial no sentido forte e no sentido fraco.(*) De acordo com a IA no sentido forte, computadores adequadamente programados literalmente tm estados cognitivos, e, assim sendo, programas so teorias psicolgicas. Argumento que a IA no sentido forte deve ser falsa, uma vez que um agente humano poderia instanciar um programa e, mesmo assim, no ter estados mentais. Examinarei alguns argumentos contra esta afirmao e explorarei algumas conseqncias do fato de que o crebro de seres humanos e de animais so a base causal da existncia de fenmenos mentais.

Que significado psicolgico e filosfico devemos atribuir aos esforos feitos recentemente para simular capacidades cognitivas humanas atravs do computador? Para responder esta questo considero til distinguir entre o que denomino de IA no sentido "forte" e IA no sentido "fraco" ou "cautelosa". De acordo com a IA no sentido fraco, o principal valor do computador para o estudo da mente reside no fato de que este nos fornece uma ferramenta extremamente poderosa. Por exemplo, ele nos permite formular e testar hipteses de maneira mais rigorosa e precisa do que antes. Mas de acordo com a IA no sentido forte, o computador no meramente um instrumento para o estudo da mente. Muito mais do que isso o computador adequadamente programado uma mente, no sentido de que, se lhe so dados os programas corretos pode-se dizer que eles entendem e que eles tm outros estados cognitivos. Conforme a IA no sentido forte, uma vez que o computador programado tem estados cognitivos, os programas no so meros instrumentos que nos capacitam testar explicaes psicolgicas : os programas constituem as prprias explicaes. No tenho objees a IA no sentido fraco, pelo menos no que diz respeito ao escopo deste artigo. Minha discusso ser dirigida s afirmaes que defini como caracterizando a IA no sentido forte, especificamente a idia de que computadores adequadamente programados tm estados cognitivos e que os programas, a partir disso, explicam a capacidade cognitiva humana. Quando eu me referir a IA estarei considerando a IA no sentido forte, definida atravs das duas afirmaes acima.

Analisarei o trabalho de Roger Schank e seus colegas em Yale (Cf. Schank and Abelson, 1977), porque estou mais familiarizado com ele do que com outros trabalhos semelhantes. Alm do mais, ele fornece um exemplo claro do tipo de trabalho que desejo examinar. Mas nada do que apresento a seguir depende de detalhes do programa de Schank. Os mesmos argumentos se aplicariam ao programa de Winograd (1972), SHRDLU, o programa de Weizembaum ELIZA (1965) e a qualquer simulao de fenmenos mentais humanos baseada na mquina de Turing.

Deixando de lado vrios detalhes, pode-se descrever o programa de Schank da seguinte maneira: seu objetivo simular a habilidade humana de compreenso de histrias. caracterstico na habilidade dos seres humanos para compreender histrias que estes possam responder questes sobre elas, mesmo se a informao no estiver explicitamente dada no texto. Neste caso, por exemplo, suponha que seja fornecida a seguinte histria:

"Um homem foi a um restaurante e pediu um hambrguer. Quando o hambrguer chegou, estava torrado, e o homem furioso saiu esbravejando do restaurante sem pagar e nem deixar gorjeta".

Ora, se a seguinte questo for formulada: "O homem comeu o hambrguer?", voc presumivelmente responder: "No, ele no comeu". Da mesma maneira, se for dada a seguinte histria:

"Um homem foi a um restaurante e pediu um hambrguer; ao chegar o pedido ficou bastante satisfeito e na hora de ir embora deu uma boa gorjeta garonete antes de pagar sua conta".

Se a seguinte questo for formulada: "O homem comeu o hambrguer?" Voc certamente responder: "Sim, ele comeu o hambrguer". Ora, a mquina de Schank pode responder a questes deste tipo sobre restaurantes. Para poder fazer isto ela tem a "representao" do tipo de informao que os seres humanos tm sobre restaurantes, o que a torna capaz de responder tais questes quando tais tipos de histria lhe so apresentadas. Quando se fornece uma histria para a mquina e se formula uma questo, a mquina imprimir respostas do mesmo tipo que esperaramos de seres humanos. Partidrios da IA no sentido forte afirmam desta seqncia pergunta-resposta, que no somente a mquina est simulando uma habilidade humana mas tambm que:

a) A mquina compreende a histria e fornece respostas s questes,

b) O que a mquina e seu programa fazem explica a habilidade humana para entender histrias e responder questes sobre elas.

As afirmaes (A) e (B) parecem totalmente insustentveis a partir do trabalho de Schank, como tentarei mostrar no que se segue.(1)

Uma maneira para testar qualquer teoria da mente perguntar a algum o que aconteceria se sua prpria mente de fato funcionasse sob os princpios que a teoria diz que toda mente funciona. Vamos aplicar este teste ao programa de Schank com o seguinte Gedankenexperiment (**). Suponha que estou trancado em um quarto e suponha que me do um calhamao de papel com um texto em chins. Alm disso, suponha que eu no conhea o idioma chins, nem escrito nem falado, e que eu no seja sequer capaz de reconhecer a escrita chinesa, ou seja, distingu-la, por exemplo, da escrita japonesa ou de rabiscos sem significado. Suponha, agora, que alm deste primeiro calhamao fornecem-me - tambm em chins - um segundo, contendo um roteiro com um conjunto de regras para correlacionar o segundo texto com o primeiro. As regras so em ingls e eu as compreendo to bem como qualquer outro falante nativo de ingls. Isto me possibilita relacionar um conjunto de smbolos formais com o outro, e o que entendo por formal aqui que posso identificar os smbolos por seu formato. Nestas circunstncias, imagine tambm que me forneam um terceiro calhamao contendo smbolos em chins junto com algumas instrues, outra vez em ingls, as quais me possibilitaro correlacionar elementos deste terceiro mao com os dois primeiros; estas regras me instruem a como relacionar determinados smbolos em chins com certos tipos de configurao e os devolver como resposta a determinadas configuraes dadas no terceiro calhamao. Sem que eu saiba, as pessoas que me fornecem os textos com os referidos smbolos, denominam o primeiro bloco de "roteiro", o segundo, de "histria" e o terceiro de "questes". Ademais, eles intitulam os smbolos devolvidos em resposta ao terceiro mao de "respostas s questes", e o conjunto de regras em ingls de "programa". Para complicar a histria um pouquinho mais, imagine que estas pessoas tambm me forneam histrias em ingls, as quais eu compreendo, e ento elas me fazem questes em ingls sobre estas histrias, e eu as devolvo respondendo em ingls. Suponha, ainda, que depois de um tempo eu me saia to bem ao seguir as instrues para manipulao dos smbolos em chins e que os programadores consigam escrever to bem os programas que do ponto de vista externo - isto , do ponto de vista de algum que esteja do lado de fora do quarto no qual eu estou trancado - minhas respostas s questes so indistinguveis de falantes nativos de chins. Ningum observando minhas respostas pode dizer que eu no falo uma palavra de chins. Vamos tambm supor que minhas respostas s questes em ingls so indistinguveis de outro falante nativo de ingls - pela simples razo de que eu sou um falante nativo de ingls. Do ponto de vista externo, - na viso de algum que l minhas respostas, - as respostas em chins e em ingls so igualmente satisfatrias. Mas no caso do idioma chins, eu obtenho respostas manipulando smbolos formais em chins, sem significao. No que diz respeito ao chins, eu simplesmente me comportei como um computador; executei operaes computacionais com base em elementos formalmente especificados. Para os propsitos do idioma chins, eu sou simplesmente uma instanciao de um programa de computador.

Assim sendo, as afirmaes feitas pela IA no sentido forte so de que um computador programado entende as histrias e que o programa, em algum sentido, explica a compreenso humana. Estamos agora em posio de examinar claramente estas afirmaes no nosso experimento mental.

a) Considerando a primeira afirmao, parece bvio no exemplo acima, que eu no compreendo uma palavra das histrias em chins. Eu tenho inputs e outputs que so indistinguveis para os falantes nativos de chins e mesmo que eu tenha qualquer programa formal, ainda assim eu no compreendo nada. Pelas mesmas razes, o computador de Schank no compreende nada das histrias, sejam elas em chins, em ingls, ou em qualquer outro idioma. No caso do idioma chins eu desempenho o papel do computador, e nos casos onde no desempenho tal papel, o computador no faz nada alm do que eu poderia fazer, ou seja, em ambas as situaes no h compreenso.

b) Com relao a segunda afirmao - que o programa explica a compreenso humana - podemos verificar que o computador e seu programa no fornecem as condies suficientes para a compreenso, visto que o computador e o programa esto funcionando e no existe compreenso. Mas ser que ele fornece uma condio necessria ou uma contribuio significativa para a compreenso? Uma das afirmaes sustentada pela IA no sentido forte esta: quando eu compreendo uma histria em ingls, o que estou fazendo exatamente o mesmo - ou talvez mais que o mesmo - que fazia no caso da manipulao dos smbolos em chins. No caso do ingls, que eu compreendo, h muito mais do que manipulao de smbolos formais do que em relao ao chins, que eu no compreendo. No estou demonstrando que esta afirmao falsa, mas certamente me parece sem credibilidade no exemplo. A plausibilidade de tal suposio deriva-se do fato de que podemos construir um programa que ter os mesmos inputs e outputs como um falante nativo, alm disso pressupomos que falantes tm algum nvel de descrio onde eles so tambm instanciaes de um programa. Com base nestas duas suposies, assumimos que mesmo se o programa de Schank no constituir uma explicao completa da compreenso, talvez constitua uma parte de tal explicao. Ou seja, assumimos como possibilidade emprica, embora sem razes para supor que ela seja verdadeira (uma vez que ela apenas sugerida e no demonstrada) que o programa de computador irrelevante para minha compreenso da histria. No caso do idioma chins tenho tudo que a IA poderia colocar em mim por intermdio de um programa, e mesmo assim no compreendo nada. No caso do ingls compreendo tudo e at agora no tenho nenhuma razo para supor que minha compreenso tenha alguma relao com programas de computador - isto , com operaes computacionais especificadas sobre elementos puramente formais. Na medida em que o programa definido em termos de operaes computacionais baseadas em elementos puramente formais, o que o exemplo sugere que estes no tm conexo com a compreenso. Eles no so condio suficiente e no h, tampouco, razo para supor que eles sejam condio necessria ou mesmo que eles tenham alguma contribuio significativa para a compreenso. Observe-se que a fora do argumento no simplesmente que mquinas diferentes podem ter o mesmo input e output enquanto operando em princpios formais diferentes - no este o ponto. O que queremos dizer que por mais que se coloque no computador princpios formais isto no ser suficiente para a compreenso, uma vez que um ser humano ser capaz de seguir tais princpios formais sem compreender nada. No h vantagem em supor que eles sejam necessrios ou mesmo que contribuam em algo, visto que no h nenhuma razo para supor que quando eu compreendo ingls, estou operando com algum programa formal.

O que h no caso das sentenas em ingls que no existe no caso das sentenas em chins? A resposta bvia que eu sei o que as primeiras significam, mas no tenho a menor idia do que as ltimas significam. No que isto consiste e por que no posso atribu-lo a uma mquina, qualquer que seja ela? Por que no posso atribuir a uma mquina aquilo que faz com que eu saiba o que as sentenas em ingls significam? Voltarei a estas questes depois de desenvolver um pouco mais o meu exemplo.

Tive oportunidade de apresentar este exemplo a vrios pesquisadores da IA e, curiosamente, eles parecem discordar acerca do que seja uma resposta para estas questes. Obtive uma variedade surpreendente de respostas,e, no que se segue, analisarei vrias delas (especificadas conforme suas origens geogrficas). Primeiro, entretanto,quero desmontar alguns equvocos comuns sobre "compreenso". Em muitas destas discusses encontramos muita confuso sobre a palavra "compreenso". Meus crticos alegam que h diferentes graus de compreenso, que "compreenso" no um simples predicado binrio, que existem de fato diferentes tipos e nveis de compreenso e, freqentemente, a lei do terceiro excludo no se aplica de uma maneira direta a enunciados da forma "x compreende y"; em muitos casos se x compreende y matria de deciso e no uma simples questo de fato e assim por diante. Sobre todos estes comentrios eu digo: "est certo, isso mesmo" mas eles no tem nada a ver com o que est sendo discutido aqui. H casos em que "compreenso" se aplica claramente e casos onde claramente ela no se aplica. So situaes deste tipo que preciso para fundamentar meu argumento (2).Compreendo histrias em ingls, em grau inferior posso tambm compreender histrias em francs, em um grau ainda menor, alemo, e em chins, de jeito nenhum. Meu carro e minha mquina de somar, por um outro lado, no compreendem nada, esto "por fora" seja por metfora ou por analogia. Freqentemente atribumos "compreenso" e outros predicados cognitivos a carros, mquinas de somar e outros artefatos mas nada se prova com tais atribuies. Dizemos: "a porta sabe quando abrir, em razo de sua clula fotoeltrica" ; "a mquina de somar sabe como fazer soma e subtrao, mas no diviso" e "o termostato percebe as mudanas de temperatura". A razo pela qual fazemos estas atribuies interessante e tem a ver com o fato de que estendemos nossa prpria intencionalidade para os artefatos (3) Nossos instrumentos so extenses de nossos propsitos, e assim achamos natural fazer atribuies metafricas de intencionalidade a eles; mas estes exemplos no resolvem nosso problema filosfico. O sentido no qual uma porta automtica "compreende instrues" atravs de sua clula fotoeltrica no de jeito nenhum o sentido no qual eu compreendo ingls. Se o sentido da compreenso de histrias dos computadores programados por Schank fosse o sentido metafrico no qual a porta compreende e no o sentido no qual eu compreendo ingls no valeria a pena discutir este problema. Newell e Simon escrevem afirmando que o sentido de "compreenso" para os computadores exatamente o mesmo que para os seres humanos. Gosto do modo incisivo desta afirmao e este tipo de assero que analisarei. Argumentarei que, em um sentido literal, o computador no compreende nada da mesma maneira que o carro e a mquina de somar tambm no compreendem nada. A compreenso do computador no como minha compreenso de alemo, ou seja, parcial ou incompleta, ela zero.

Examinemos agora as objees:

I - A objeo dos Sistemas (Berkeley). - "Embora seja verdade que a pessoa que est trancada no quarto no compreende a histria, ocorre que ela meramente parte de um sistema global, e o sistema compreende a histria. Essa pessoa tem uma grande tabela a sua frente na qual esto escritas as regras, tem um bloco de papel de rascunho, lpis para fazer clculos; alm disso tem um "banco de dados" com um conjunto de smbolos em chins. Assim sendo, a compreenso no deve ser atribuda a um simples indivduo, mas a totalidade de um sistema do qual ele faz parte".

Minha resposta a teoria dos sistemas simples: deixe o indivduo internalizar todos estes elementos do sistema. Ele memoriza as regras da tabela e o banco de dados com smbolos chineses e ento ele far todos os clculos em sua cabea. O indivduo, desse modo, incorpora todo o sistema. No h nada no sistema que ele no possa abarcar. Podemos at dispensar o quarto e supor que ele trabalha do lado de fora. Do mesmo jeito, ele continuar no compreendendo nada de chins; portanto, o sistema no compreende nada porque no h nada neste sistema que no esteja nele. Se ele no compreende, ento o sistema no poder compreender, pois o sistema somente uma parte dele.

Na realidade, sinto-me at embaraado ao dar uma resposta a teoria dos sistemas. A idia que embora uma pessoa no compreenda chins, de alguma forma a conjuno pessoa e pedacinhos de papel poderia compreender chins. No fcil para mim imaginar como algum que no estivesse preso a uma ideologia acharia esta idia plausvel. Entretanto, penso que muita gente que est comprometida com a ideologia da IA no sentido forte, estar propensa a dizer algo muito parecido com isto. Vamos ento explorar um pouco mais esta idia. De acordo com uma verso desta viso, enquanto o homem do exemplo dos sistemas internalizados no compreende chins como um falante nativo o faz (pois, por exemplo, ele no sabe que a histria se refere a restaurante e hamburguers etc...) ainda assim o homem como sistema de manipulao de smbolos formais realmente compreende chins. O subsistema do homem, que o sistema de manipulao de smbolos formais para o chins no deve ser confundido com o subsistema para ingls.

Assim sendo, existem dois subsistemas no homem, um compreende ingls, o outro, chins, e "acontece que os dois sistemas tm muito pouco a ver um com o outro". Mas, quero responder que no somente eles tem muito pouco a ver um com o outro, como eles no so nem remotamente parecidos. O subsistema que compreende ingls (supondo que possamos usar este jargo "subsistema" no momento) sabe que as histrias so sobre restaurantes e comer hamburguers, etc, ele sabe que esto formulando questes sobre restaurantes e que eles as responde da melhor maneira possvel, atravs de vrias inferncias sobre o contedo da histria e assim por diante. Mas o sistema chins no sabe nada disso; enquanto o subsistema ingls sabe que hamburguers referem-se a hamburguers o sistema chins sabe somente que "tal e tal rabisco" seguido de "outro rabisco". Tudo que ele sabe que vrios smbolos formais esto sendo introduzidos numa das extremidade e so manipulados de acordo com regras escritas em ingls e que outro smbolos esto saindo na outra extremidade. O ponto essencial do exemplo original era argumentar que tal manipulao de smbolos por si s no poderia ser suficiente para compreender chins nem no sentido literal, porque o homem poderia escrever "tal e tal rabisco" e depois "outro rabisco tal e tal" sem entender nada de chins. E no vem de encontro ao argumento postular subsistemas dentro do homem, pois tais subsistemas no se desempenham melhor do que o homem; eles no tem nem sequer alguma semelhana com o falante de ingls (ou subsistema). De fato, na descrio feita, o subsistema chins simplesmente uma parte do subsistema ingls, uma parte que processa uma manipulao de smbolos sem sentido de acordo com regras em ingls.

Perguntemo-nos em primeiro lugar o que motiva a objeo dos sistemas - ou seja que fundamentos independentes existem para se dizer que o agente deve ter um subsistema dentro dele que literalmente compreende histrias em chins? Pelo que sei os nicos fundamentos so que no exemplo eu tenho o mesmo input e o mesmo output dos falantes nativos de chins e um programa que os intermedia. Mas o ponto do exemplo foi mostrar que isto no poderia ser suficiente para a compreenso no sentido no qual compreendo histrias em ingls, pois uma pessoa e portanto, o conjunto de sistemas que a compe pode ter a combinao adequada de input, output e programa e mesmo assim no compreender nada no sentido no qual compreendo ingls. A nica motivao para dizer que deve haver um subsistema em mim que compreende chins que eu tenho um programa e que posso passar no teste de Turing; posso enganar falantes nativos de chins. (Cf. Turing, 1950). Mas precisamente um dos pontos em discusso a adequao do teste de Turing. O exemplo mostra que pode haver dois "sistemas", ambos passam no teste de Turing mas apenas um deles compreende; e no um argumento contra este ponto dizer que se ambos passam no teste de Turing, ambos devem compreender, uma vez que esta afirmao no vem ao encontro do argumento de que o sistema em mim que compreende ingls muito mais completo do que o sistema que meramente processa chins. Em suma, a objeo do sistema escamoteia a questo ao insistir em apresentar argumentos que o sistema deve compreender chins.

Alm do mais, a objeo dos sistemas parece levar a conseqncias absurdas. Se tenho de concluir que deve haver cognio em mim com base no fato de que tenho um certo tipo de input e de output e um programa entre estes, ento parece que todos os tipos de subsistemas no-cognitivos tornar-se-o cognitivos. Por exemplo, meu estmago tem um nvel de descrio no qual faz processamento de informao e instancia um grande nmero de programas de computador, mas suponho que no queremos dizer que ele tem compreenso. Se aceitamos a objeo dos sistemas fica difcil de perceber como poderamos evitar de dizer que o estmago, o corao, o fgado etc.. so todo subsistemas que compreendem pois no haveria nenhuma maneira, em princpio, para distinguir a motivao para dizer que o subsistema chins compreende de dizer que o estmago compreende. (No constitui uma resposta para este ponto dizer que o sistema chins tem informao como input e ouput e que o estmago tem comida e produtos alimentares como input e output, pois do ponto de vista do agente e do meu ponto de vista, no h informao nem na comida e nem no chins; o chins s um conjunto de rabiscos sem significado. A informao no caso do chins est somente nos olhos dos programadores e dos intrpretes e no h nada que os impea de tratar o input e o output de meus rgos digestivos como informao, se eles assim o quiserem).

Este ltimo ponto diz respeito a alguns problemas na IA no sentido forte e vale a pena fazer aqui uma pequena digresso. Se a IA no sentido forte um ramo da Psicologia ela deve ser capaz de distinguir sistemas que so genuinamente mentais daqueles que no o so. Ela deve ser capaz de distinguir os princpios com os quais a mente trabalha daqueles com os quais sistemas no-mentais trabalham; de outra maneira ela no poderia oferecer explicaes acerca da natureza do que especificamente mental. A distino mental e no-mental no pode estar apenas no olho do observador - ela deve ser intrnseca aos sistemas, pois de outra maneira ficaria a critrio do observador tratar pessoas como no-mentais e furaces como mentais. Mas com muita freqncia, na literatura sobre IA, a distino esmaecida de tal maneira que torna-se desastroso afirmar que a IA uma investigao cognitiva. McCarthy, por exemplo, escreve: "Podemos dizer que mquinas to simples como os termostatos tm crenas, e ter crenas parece ser uma caracterstica de muitas mquinas capazes de resolver problemas" (McCarthy, 1979). Qualquer um que pense que a IA no sentido forte tem alguma chance como uma teoria da mente deve ponderar as implicaes desta observao. Pedem-nos para aceitar como sendo uma descoberta da IA no sentido forte que o pedao de metal na parede que usamos para regular a temperatura tenha crenas da mesma maneira que ns, nossas esposas e nossos filhos tm crenas, e alm do mais que a "maioria" das outras mquinas da sala - telefone, gravador, mquina de somar, interruptor eltrico, etc - tambm tenham crenas. No objetivo deste artigo argumentar ou discutir com McCarthy, por isso foi afirmaremos o seguinte, sem argumentar. O estudo da mente comea com o fato de que seres humanos tm crenas e que termostatos, telefones e mquinas de somar no as tm. Se voc concebe uma teoria que nega tal ponto, voc produziu um contra-exemplo e a teoria falsa. Tm-se a impresso de que os pesquisadores da IA que escrevem esse tipo de coisa pensam que podem escapar disto porque eles realmente no levam tais coisas a srio e no pensam que algum o far. Proponho, pelo menos para o momento, levar estas coisas a srio. Pense por um minuto o que seria necessrio para estabelecer que o pedao de metal na parede tem, de fato, crenas - crenas com direcionalidade, contedo proposicional, condies de satisfao; crenas que tm a possibilidade de ser fortes ou fracas, ansiosas ou seguras, dogmticas, racionais ou supersticiosas, f cega ou especulaes hesitantes. O termostato no um candidato plausvel a ter crenas, nem tampouco o so o estmago, o fgado, a mquina de somar ou o telefone. Contudo, uma vez que estamos levando esta idia a srio, note-se que se fosse verdadeira ela seria fatal para a proposta da IA de ser uma cincia da mente, pois ento a mente estaria em todos os lugares. O que queremos saber o que distingue a mente de termostatos, fgados, etc. Se McCarthy estivesse certo a IA no sentido forte no teria a menor possibilidade de nos dizer em que se baseia esta distino.

II - A objeo do robot - (Yale).

"Suponhamos que escrevssemos um programa diferente daquele de Schank. Suponhamos que pusssemos um computador dentro de um robot e que esse computador no fosse apenas receber smbolos formais como input e produzir esses smbolos como output, mas que ele fosse operar o robot de tal maneira que este fizesse coisas como perceber, andar, mover-se, pregar pregos, comer, beber ou qualquer outra coisa. O robot teria uma cmara de televiso adaptada a ele- o que o capacitaria a ver - teria braos e pernas que o capacitariam a agir e tudo isso seria controlado pelo seu crebro-computador. Tal robot teria compreenso genuna e outros estados mentais - ele seria diferente do computador de Schank".

A primeira coisa a notar acerca da objeo do robot que ela tacitamente concede que a cognio no s uma questo de manipulao de smbolos, uma vez que esta objeo acrescenta um conjunto de relaes causais com o mundo externo. Mas a resposta a objeo do robot que o acrscimo de tais capacidades (perceptual e motora) no acrescenta nada em termos de compreenso ou intencionalidade ao programa original de Schank. Para perceber isso basta notar que o mesmo experimento mental se aplica ao caso do robot. Suponha que em vez de um computador dentro de um robot voc me ponha dentro do quarto e me d novamente smbolos em chins com instrues em ingls para combinar estes smbolos com outros smbolos em chins. Suponhamos que sem eu saber, alguns dos smbolos em chins que chegam a mim venham de uma cmara de televiso adaptada ao robot,e que outros smbolos em chins que estou produzindo sirvam para fazer com que o motor dentro do robot mova seus braos e pernas. importante enfatizar que tudo que estou fazendo manipular smbolos formais. Estou recebendo "informao" do "aparato perceptual" do robot e estou fornecendo "instrues" para seu aparato motor sem saber o que estou fazendo. Eu sou o homnculo do robot, mas de maneira diferente do homnculo tradicional, sem saber o que est ocorrendo. No sei nada a no ser as regras para manipulao de smbolos. Neste caso pode-se dizer que o robot no tem estados intencionais; ele se move como resultado de seus circuitos eltricos e do seu programa. Alm do mais, a instanciao de um programa no produz estados intencionais de nenhum tipo relevante. Tudo que est sendo feito seguir instrues formais acerca da manipulao de smbolos formais.

III - A objeo do Simulador Cerebral (Berkeley e M.I.T.).

"Suponhamos que ns projetssemos um programa que no represente a informao que temos acerca do mundo como o caso da informao dos roteiros de Schank. O programa simula a seqncia efetiva da atividade dos neurnios nas sinapses do crebro de um falante nativo de chins, quando este entende histrias e d respostas a elas. A mquina recebe histrias em chins e questes acerca delas como input; ela simula a estrutura formal dos crebros dos chineses ao processar estas histrias e fornece respostas em chins como outputs. Podemos at imaginar que a mquina no opera com um nico programa serial, mas com um conjunto de programas operando em paralelo, da mesma maneira que crebros humanos possivelmente operam quando processam linguagem natural. Em tal caso teramos de dizer que a mquina entenderia histrias, e se nos recusssemos a dizer isso no teramos tambm que negar que falantes de chins entendem histrias? Ao nvel das sinapses, o que poder ser diferente no programa do computador e no programa do crebro dos chineses?"

Antes de responder esta objeo quero fazer uma digresso para notar que esta uma objeo estranha de ser feita por qualquer adepto da IA (funcionalismo, etc.). Penso que a idia central da IA no sentido forte que no precisamos saber como o crebro funciona para saber como a mente funciona. A hiptese bsica que existe um nvel de operaes mentais que consiste em processos computacionais sobre elementos formais que constitui a essncia do mental e pode ser realizado atravs de diferentes processos cerebrais, da mesma maneira que um programa computacional pode ser rodado em diferente hardwares. A pressuposio da IA no sentido forte que a mente est para o crebro assim como o programa est para o hardware, e podemos entender a mente sem fazer neurofisiologia. Se tivssemos que saber como o crebro trabalha para fazer IA esta no constituiria um problema. Contudo, mesmo que cheguemos a um conhecimento muito grande das operaes do crebro, isto no seria suficiente para produzir a compreenso. Seno vejamos: imagine que ao invs de um ser monolingual num quarto combinando smbolos tenhamos um homem operando um conjunto complexo de canos de gua com vlvulas que os conectam. Quando o homem recebe smbolos em chins, ele consulta no programa escrito em ingls quais vlvulas ele deve abrir e quais ele deve fechar. Cada conexo na tubulao corresponde a uma sinapse no crebro do chins e o sistema equipado de tal maneira que aps ativar as conexes adequadas - ou seja, aps abrir as torneiras adequadas - as respostas em chins aparecem no final da tubulao.

Onde est a compreenso neste sistema? Ele recebe chins como input, simula a estrutura formal das sinapses do crebro do chins e produz textos em chins como output. Mas o homem certamente no entende chins, e nem tampouco a tubulao, e se estivermos tentados a adotar o que penso ser a idia absurda de que de alguma maneira a conjuno homem e tubulao compreende, preciso lembrar que em princpio o homem pode internalizar a estrutura formal da tubulao de gua e realizar toda a atividade neuronal em sua imaginao. O problema com o simulador cerebral que ele est simulando coisas erradas acerca do crebro. Na medida em que ele simula unicamente a estrutura formal das seqncias de atividades neuronais nas sinapses, ele no est simulando o aspecto mais importante do crebro, ou seja, suas propriedades causais e sua habilidade para produzir estados intencionais. Que as propriedades formais no so suficientes para produzir propriedades causais mostrado pelo exemplo da tubulao de gua: podemos ter todas as propriedades formais sem que estas tenham sido derivadas das propriedades causais neurobiolgicas relevantes.

IV - A objeo da combinao - (Berkeley e Stanford).

"As trs objees anteriores podem no ser convincentes como uma refutao do contra-exemplo do quarto chins, mas se elas forem tomadas conjuntamente so convincentes e decisivas. Imagine um robot com um computador em forma de crebro alojado em sua cavidade craniana; imagine que o computador est programado com todas as sinapses de um crebro humano; imagine que o comportamento do robot indistinguvel do comportamento humano e agora pense nisto tudo como um sistema unificado e no apenas como um computador com inputs e outputs. Certamente em tal caso teramos que atribuir intencionalidade ao sistema."

Concordo inteiramente que em tal caso acharamos racional e mesmo irresistvel aceitar a hiptese de que o robot teria intencionalidade, na medida em que no soubssemos mais nada sobre ele. Alm da aparncia e comportamento, os outros elementos da combinao so irrelevantes. Se pudssemos construir um robot cujo comportamento no se distinguisse de uma grande parcela do comportamento humano, ns lhe atribuiramos intencionalidade, apesar de termos algumas razes para no faz-lo. No precisaramos saber de antemo que seu crebro-computador um anlogo formal do crebro humano.

Mas realmente no vejo como isto poderia ajudar nas pretenses da IA no sentido forte e eis porqu: de acordo com a IA no sentido forte, instanciar um programa formal com o input e o output adequados condio suficiente e constitutiva da intencionalidade. Como Newell (1980) coloca, a essncia do mental a operao de um sistema de smbolos fsicos. Mas as atribuies de intencionalidade que fazemos ao robot neste exemplo no tm nada a ver com programas formais. Elas so simplesmente baseadas na pressuposio de que se o robot se parece e se comporta como ns, teramos de supor - at prova em contrrio - que ele deve ter estados mentais como os nossos que causam e se expressam no seu comportamento, bem como um mecanismo interno capaz de produzir tais estados mentais. Se soubssemos como explicar seu comportamento independentemente, sem tais pressuposies, no atribuiramos intencionalidade a ele, especialmente se soubssemos que ele tem um programa formal. Este o ponto de minha resposta objeo II.

Suponhamos que ns soubssemos que o comportamento do robot inteiramente explicado pelo fato de um homem dentro dele estar recebendo smbolos formais sem interpretao dos receptores sensoriais do robot e enviando esses smbolos para os mecanismos motores desse robot e que o homem est fazendo essa manipulao simblica de acordo com um conjunto de regras. Alm do mais, suponha que o homem nada sabe desses fatos acerca do robot; tudo que ele sabe qual operao realizar sobre esses smbolos sem significado. Em tal caso, consideraramos o robot como um engenhoso fantoche mecnico. A hiptese de que o fantoche tenha uma mente seria ento injustificada e desnecessria, pois no haveria mais razo para atribuir intencionalidade ao robot ou para o sistema do qual ele uma parte (com exceo da intencionalidade do homem que est manipulando os smbolos). A manipulao de smbolos formais continua, o input e o output so combinados corretamente, mas o nico locus de intencionalidade o homem, e ele no sabe nada dos estados intencionais relevantes; por exemplo ele no v o que chega aos olhos do robot, ele no tem a inteno de mover o brao do robot ele no compreende as observaes que so feitas pelo robot ou que lhe so feitas. Nem tampouco, pelas razes colocadas acima, o sistema do qual o homem e o robot so parte, compreendem alguma coisa.

Para esclarecer este ponto faamos um contraste com os casos onde achamos completamente natural atribuir intencionalidade a membros de algumas outras espcies, como gorilas e macacos e a animais domsticos como os ces. As razes pelas quais achamos isto natural, so, grosso modo, duas. Sem atribuir intencionalidade aos animais, seu comportamento no faz sentido, e podemos ver que os animais so feitos de material semelhante ao nosso: olhos, nariz, pele, etc. Dada a coerncia do comportamento animal e a pressuposio de um mesmo material causal subjacente a ele, pressupomos que o animal deve ter estados mentais subjacentes a seu comportamento e que esses estados mentais devem ser produzidos por mecanismos feitos de um material semelhante ao nosso. Certamente poderamos fazer pressuposies semelhantes acerca do robot, mas na medida em que soubssemos que seu comportamento resulta de um programa formal e que as propriedades causais efetivas de sua substncia fsica fossem irrelevantes, abandonaramos a pressuposio de intencionalidade.

Existem outras duas respostas ao meu exemplo que aparecem freqentemente (e ento valeria a pena discuti-las) mas elas realmente fogem ao ponto.

V - A objeo das outras mentes (Yale).

"Como saber que outras pessoas compreendem chins ou qualquer outra coisa? Unicamente por seus comportamentos. Ora, o computador pode passar por testes de comportamento to bem quanto elas (em princpio), assim se atribumos cognio a outras pessoas, devemos em princpio atribu-la tambm a computadores".

A objeo merece apenas uma resposta curta. O problema em questo no como eu sei que outras pessoas tm estados cognitivos, mas o que estou lhes atribuindo ao dizer que elas tm estados cognitivos. O ponto central do argumento que no poderiam ser apenas processos computacionais e seus outputs porque estes podem existir sem o estado cognitivo. No resposta para este argumento fingir que estados cognitivos no existem. Em "cincias cognitivas" pressupe-se a realidade e a possibilidade de se conhecer o mental, da mesma maneira que em cincias fsicas temos de pressupor a realidade e a capacidade de se conhecer objetos fsicos.

VI - A objeo das "vrias casas" (Berkeley).

"A totalidade de seu argumento pressupe que a IA trata apenas de computadores analgicos e digitais. Ocorre que este apenas o estgio atual da tecnologia. Quaisquer que sejam esses processos causais que voc diz serem essenciais para a intencionalidade (pressupondo que voc esteja correto), possivelmente seremos capazes de construir dispositivos que exibiro esses processos causais e isto ser tambm inteligncia artificial. Assim, seus argumentos no se aplicam a capacidade da IA para produzir e explicar a cognio".

No tenho resposta a esta objeo a no ser dizer que ela trivializa o projeto da IA no sentido forte ao redefini-la como qualquer coisa que produza e explique a cognio artificialmente. O interesse das afirmaes originais feitas em favor da IA que ela era uma tese precisa e bem definida: processos mentais so processos computacionais sobre elementos formalmente definidos. Minha preocupao tem sido desafiar esta tese. Se sua proposta redefinida de tal maneira que ela no mais se constitui nesta tese, minhas objees no se aplicam mais, pois no h mais uma hiptese testvel sobre a qual elas se aplicam.

Retornemos s questes as quais prometi que tentaria responder. Dado que no exemplo original eu compreendo ingls e no chins, e dado que a mquina no compreende nem ingls nem chins, deve haver algo em mim que faz com que eu compreenda ingls e algo que falta em mim que faz com que eu no compreenda chins. Por que no podemos dar essas coisas, sejam l o que forem, a uma mquina?

No vejo razo, em princpio, porque no poderamos conceder a uma mquina a capacidade de compreender ingls ou chins, pois nossos corpos com nossos crebros so precisamente tais mquinas. No h argumentos fortes para dizer que no poderamos atribuir tal coisa a uma mquina se sua operao for definida somente em termos de processos computacionais sobre elementos formalmente definidos, ou seja, onde a operao da mquina definida como uma instanciao de um programa de computador. No porque eu sou a instanciao de um programa de computador que eu sou capaz de entender ingls e ter outras formas de intencionalidade (eu sou, suponho, a instanciao de qualquer programa de computador) mas pelo que sabemos porque eu sou um certo tipo de organismo com uma certa estrutura biolgica (fsica e qumica) e esta estrutura, em termos causais, capaz, sob certas condies, de produzir a percepo, a ao, a compreenso, o aprendizado e outros fenmenos intencionais. Parte do ncleo deste argumento que s algo que tenha estes poderes causais pode ter intencionalidade. Talvez outros processos fsicos e qumicos pudessem produzir exatamente estes efeitos, talvez, por exemplo, os marcianos tambm tenham intencionalidade, mas os seus crebros so feitos de um material diferente. Esta uma questo emprica, semelhante questo de se a fotossntese pode ser feita com uma qumica diferente da que compe a clorofila.

Mas o ponto principal do presente argumento que um modelo puramente formal nunca ser, por si s, suficiente para produzir intencionalidade, pois as propriedades formais no so constitutivas da intencionalidade e no tm poderes causais, com exceo do poder de produzir o estgio seguinte do formalismo quando a mquina est rodando. E mesmo que uma realizao especfica do modelo formal venha a exibir propriedades causais, estas so irrelevantes pois este modelo pode tambm ser efetivado atravs de uma realizao diferente onde tais propriedades estaro ausentes. Mesmo que por algum milagre falantes de chins realizem exatamente o programa de Schank, podemos colocar o mesmo programa em falantes de ingls, tubulao de gua ou computadores; nenhum destes compreende chins e nem tampouco o programa.

O que importa nas operaes do crebro no a sombra do formalismo dado pela seqncia das sinapses, mas as propriedades efetivas de tais seqncias. Todos os argumentos em favor da verso forte da IA que examinei insistem em delinear estas sombras lanadas pela cognio para ento sustentar que tais sombras so a prpria cognio.

Com o intuito de concluir, quero enunciar alguns pontos filosficos gerais implcitos no argumento. Por uma questo de clareza tentarei fazer isto na forma de perguntas e respostas e comeo com a velha questo:

"Pode uma mquina pensar?"

A resposta , obviamente, sim. Ns somos precisamente tais mquinas.

"Sim, mas pode um artefato, uma mquina feita pelo homem, pensar?"

Assumindo que seja possvel produzir artificialmente uma mquina com sistema nervoso, neurnios com axonios e dendritos e tudo o mais, suficientemente semelhante a ns, de novo a resposta a esta questo parece ser, obviamente, "sim". Se voc pode duplicar exatamente as causas, voc pode duplicar os efeitos. E de fato seria possvel produzir conscincia, intencionalidade e tudo o mais usando princpios qumicos diferentes dos usados por seres humanos. Como eu disse, uma questo emprica.

"O.K., mas pode um computador digital pensar?"

Se por um "computador digital" queremos dizer algo que tem um nvel de descrio atravs do qual esse algo pode corretamente ser descrito como a instanciao de um programa de computador, ento de novo a resposta sim, uma vez que somos as instanciaes de um grande nmero de programas de computador e podemos pensar.

"Mas pode algo pensar, compreender, etc somente em virtude de ser um computador com o tipo de programa adequado? Pode a instanciao de um programa, de um programa adequado claro, ser por si s condio suficiente para compreenso?"

Esta para mim a questo correta a ser formulada, embora seja usualmente confundida com uma ou mais das questes anteriores e a resposta para ela "no".

"Por que no?"

Porque a manipulao de smbolos formais por si s no tem intencionalidade: eles no tm significado, eles nem mesmo so manipulaes de smbolos, uma vez que esses smbolos no simbolizam nada. No jargo lingstico, eles tm apenas sintaxe, mas no semntica. A intencionalidade que os computadores parecem ter est apenas nas mentes daqueles que os programam e daqueles que os usam, ou seja, de quem envia o input e interpreta o output.

O objeto do exemplo do Quarto Chins foi tentar mostrar isso, pois na medida em que colocamos algo no sistema que realmente tem intencionalidade, um ser humano, e o programamos com o programa formal pode-se ver que este programa no exibe intencionalidade adicional. Por exemplo, isto nada acrescenta habilidade do ser humano para compreender chins.

Precisamente a caracterstica da IA que parece to atrativa - a distino entre programa e realizao - mostra-se fatal para a proposta de que simulao possa ser duplicao. A distino entre o programa e sua realizao no hardware encontra paralelo na distino entre o nvel de operaes mentais e o nvel de operaes cerebrais. E se pudssemos descrever o nvel de operaes mentais como um programa formal, poderamos descrever o que essencial acerca da mente sem fazer psicologia introspectiva ou neurofisiologia do crebro. Mas a equao: "a mente est para o crebro assim como o software est para o hardware" tropea em vrios pontos, entre eles, os trs seguintes:

Primeiro, a distino entre programa e realizao tem a conseqncia de que o mesmo programa poderia ter vrios tipos de realizaes absurdas sem nenhuma forma de intencionalidade. Weizembaum (1976), por exemplo, mostra em detalhes como construir um computador usando um rolo de papel higinico e uma pilha de pedrinhas. Similarmente, o programa para compreenso de histrias em chins pode ser programado numa seqncia de canos de gua, um conjunto de cata-ventos ou um falante monolingual de ingls, nenhum dos quais entretanto adquire uma compreenso de chins. Pedras, papel higinico, vento e canos de gua so o material errado para gerar intencionalidade (apenas algo que tenha os mesmos poderes causais do crebro pode ter intencionalidade), e embora o falante de ingls tenha o material correto para a intencionalidade pode-se ver facilmente que ele no adquire nenhuma intencionalidade extra por memorizar o programa, uma vez que memoriz-lo no vai lhe ensinar chins.

Segundo, o programa puramente formal, mas os estados intencionais no so formais. So definidos em termos de seu contedo e no de sua forma. A crena de que est chovendo, por exemplo, no definida como uma determinada configurao formal, mas como um determinado contedo mental com condies de satisfao, de racionalidade, etc (Searle, 1979). Com efeito, a crena como tal no tem sequer uma configurao formal no sentido sinttico, uma vez que a uma e a mesma crena pode ser dado um nmero indefinido de expresses sintticas diferentes em diferentes sistemas lingsticos.

Terceiro, como mencionei anteriormente, estados e eventos mentais so produtos da operao do crebro, mas o programa no um produto do computador.

"Bem, se os programas no so constitutivos de processos mentais, por que tantas pessoas acreditaram no oposto? Isso precisa ser explicado."

No sei a resposta para isto. A idia de que as simulaes computacionais poderiam ser a prpria mente deve ter parecido suspeita, em princpio, porque o computador de nenhuma maneira se limita a simular operaes mentais. Ningum supe que simulaes computacionais de um alarme contra fogo causaro um incndio na vizinhana ou que uma simulao computacional de uma tempestade deixar-nos- encharcados. Por que algum suporia ento que uma simulao computacional da compreenso de fato entenderia alguma coisa? Diz-se freqentemente que seria extremamente difcil fazer computadores sentir dor ou se apaixonarem, mas amor e dor no so nem mais fceis nem mais difceis de simular do que a cognio ou qualquer outra coisa. Para fazer uma simulao, tudo que se precisa um input e um output corretos e um programa que os intermedie, transformando o primeiro no segundo. Isto tudo o que o computador tem e tudo o que ele pode fazer. Confundir simulao com duplicao o mesmo erro, seja com dor, amor, cognio, incndio ou tempestade.

Mesmo assim, h vrias razes pelas quais a IA deve ter parecido - e para muitas pessoas ainda parece - reproduzir e explicar fenmenos mentais, e, acredito que no conseguiremos remover estas iluses at que tenhamos exposto as razes que as originaram.

Em primeiro lugar, e talvez o mais importante, est a confuso a respeito da noo de "processamento de informao". Muitas pessoas, em cincia cognitiva, acreditam que o crebro humano com sua mente faz algo chamado "processamento de informao" e, analogamente o computador com seu programa faz processamento de informao, mas, por outro lado, incndios e tempestades no o fazem. Embora o computador possa simular aspectos formais de qualquer tipo de processo, ele est numa relao especial com a mente e o crebro, pois, quando o computador adequadamente programado, idealmente com o mesmo programa do crebro, o processamento de informao idntico nos dois casos e este processamento de informao realmente a essncia do mental. Mas o problema com este argumento que ele repousa sobre uma ambigidade na noo de "informao". O sentido pelo qual as pessoas "processam informao" quando elas refletem sobre problemas aritmticos , ou quando elas lem e respondem questes sobre histrias no o sentido no qual o computador programado "processa informao". Em vez disso o que ele faz manipular smbolos formais. O fato de que o programador e o intrprete dos outputs do computador usem smbolos para representar objetos do mundo est totalmente alm do escopo do computador. Repetindo, o computador tem sintaxe mas no tem semntica. Dessa forma, se voc digita: 2+2 igual?, ele vai apresentar "4". Mas ele no tem idia que "4" significa 4, ou que isto signifique alguma coisa. O ponto no que ele no tenha alguma informao de segunda ordem acerca da interpretao de seus smbolos de primeira ordem, mas o fato que estes smbolos de primeira ordem no tm nenhuma interpretao no que diz respeito ao computador. Tudo que ele tem so mais smbolos. Assim sendo a introduo da noo de "processamento de informao" produz um dilema: ou bem construmos a noo de "processamento de informao" de tal maneira que ela implique a intencionalidade como parte do processo, ou bem ns no o fazemos. No primeiro caso, ento, o computador programado no processa informao, ele somente manipula smbolos formais. No segundo caso, ento, apesar do computador processar informao, somente no sentido em que mquinas de somar, mquinas de escrever, estmagos, termostatos, tempestades e furaces o fazem - a saber, eles tm um nvel de descrio no qual podemos descrev-los como recebendo informao, transformando-a e produzindo informao como output. Mas nesse caso, depende de observadores externos interpretar o input e o output como informao no sentido comum. E nenhuma semelhana estabelecida entre o computador e o crebro em termos de uma similaridade de processamento de informao nos dois casos.

Em segundo lugar, em grande parte da IA h um behaviorismo residual ou operacionalismo. Uma vez que computadores adequadamente programados podem ter padres de input/output semelhantes ao de seres humanos, somos tentados a postular estados mentais no computador similares a estados mentais humanos. Mas uma vez que percebemos que conceitual e empiricamente possvel para um sistema ter capacidades humanas em algum domnio sem ter nenhuma intencionalidade, devemos ser capazes de superar este impulso. Minha mquina de somar tem capacidade de calcular mas no intencionalidade, e neste artigo tentei mostrar que um sistema pode ter capacidades de input e output que duplicam aquelas de um falante nativo de chins e ainda assim no compreender chins, a despeito de como ele programado. O Teste de Turing tpico na tradio de ser abertamente behaviorista e operacionalista, e acredito que se os pesquisadores da IA repudiassem totalmente o behaviorismo e o operacionalismo muito da confuso entre simulao e duplicao seria eliminada.

Em terceiro lugar, este operacionalismo residual junta-se a uma forma residual de dualismo; de fato a IA no sentido forte s faz sentido com uma pressuposio dualista onde aquilo que diz respeito a mente nada tem a ver com o crebro. Na IA no sentido forte (bem como no funcionalismo) o que importa so programas, e programas so independentes de sua realizao em mquinas; de fato, no que diz respeito a IA um mesmo programa pode ser realizado por uma mquina eletrnica, uma substncia mental cartesiana ou o esprito do mundo hegeliano. A descoberta mais surpreendente que eu fiz ao discutir estes problemas que muitos pesquisadores da IA esto chocados com a minha idia de que fenmenos mentais humanos podem ser dependentes das efetivas propriedades fsico-qumicas dos crebros humanos. Mas eu no deveria estar surpreso, pois a no ser que se aceite alguma forma de dualismo, o projeto da IA no sentido forte no tem nenhuma chance. O projeto consiste em reproduzir e explicar o mental projetando programas, mas a no ser que a mente no seja apenas conceitual, mas empiricamente independente do crebro, este projeto no poder ser executado, pois o programa completamente independente de qualquer realizao. A no ser que se acredite que a mente separvel do crebro, conceitual e empiricamente - um dualismo em uma verso forte - no se pode esperar reproduzir o mental escrevendo e rodando programas, uma vez que estes devem ser independentes dos crebros ou de qualquer outra forma especfica de sua instanciao. Se operaes mentais consistem em operaes computacionais sobre smbolos formais, segue-se que eles no tm nenhuma conexo importante com o crebro, e a nica conexo seria que o crebro poderia ser um dentre os mltiplos tipos de mquinas capazes de instanciar o programa. Esta forma de dualismo no a verso cartesiana tradicional, a qual sustenta que existem dois tipos de substncias, mas cartesiana no sentido de que ela insiste que aquilo que especificamente mental no tem nenhuma conexo intrnseca com as propriedades efetivas do crebro. Este dualismo subjacente mascarado pelo fato de que a literatura sobre IA contm freqentes ataques contra o "dualismo", mas o que estes autores no percebem que sua posio pressupe uma verso forte do dualismo.

"Pode uma mquina pensar?" Meu ponto de vista que somente uma mquina pode pensar, e de fato apenas mquinas de um tipo muito especial, a saber, crebros e mquinas que tm os mesmos poderes causais do crebro. E esta a principal razo pela qual a IA no sentido forte tem to pouco a dizer acerca do pensamento: ela no tem nada a dizer acerca de mquinas. Por definio, ela trata de programas, e programas no so mquinas. O que quer que seja a intencionalidade, um fenmeno biolgico o qual deve ser to causalmente dependente da bioqumica especfica de suas origens como o a lactao, a fotossntese ou quaisquer outros fenmenos biolgicos. Ningum suporia que poderamos produzir leite e acar rodando uma simulao computacional das seqncias formais da lactao e da fotossntese; mas no que diz respeito a mente muitas pessoas querem acreditar em tal milagre por causa de sua fidelidade profunda ao dualismo: concebem a mente como processos formais e como algo independente de causas materiais especficas, algo que no ocorre com o acar e o leite.

Na defesa desse dualismo, expressam essa esperana na forma de que o crebro um computador digital (computadores antigos eram freqentemente chamados de "crebros eletrnicos"). Mas isto no adianta nada. claro que o crebro um computador digital, uma vez que tudo um computador digital, os crebros tambm o so. O ponto que a capacidade causal do crebro para produzir intencionalidade no pode consistir na instanciao de um programa de computador, pois para qualquer programa, sempre possvel que haja algo que o instancie e contudo no tenha estados mentais. Seja l o que o crebro faa para produzir intencionalidade, esta no pode consistir na instanciao de um programa, pois nenhum programa pr si s suficiente para produzir a intencionalidade.

AGRADECIMENTOS - Estou em dbito com um grande nmero de pessoas que discutiram este assunto e por seu paciente esforo em superar minha ignorncia em IA. Gostaria de agradecer especialmente a Ned Block, Hubert Dreyfus, John Haugeland, Roger Schank, Robert Wilensky e Terry Winograd.

REFERNCIAS

McCarthy, J. (1979) "Ascribing Mental Qualities to Machines",

Stanford, California: Stanford AI Lab Memo 326.

Newell, A. (1980) "Physical Symbol Systems"

Cognitive Science, 1980.

Schank, R. & Abelson,R.P. (1977) "Natural Language, Philosophy and

Artificial Intelligence"in Ringle, M. (ed) Philosophical Perspectives in

Artificial Intelligence N.J.: Humanities Press.

Searle, J. (1979) "What is an Intentional State?", Mind, 88.

Turing, A. (1950) "Computing Machinery and Intelligence"

Mind, 59.

Weizembaum, J. (1976) Computer Power and Human ReasonSan Francisco: W.H. Freeman.

Traduo de Cla Regina de Oliveira Ribeiro

(1)N. do Tradutor: o termo "Inteligncia Artificial" ser abreviado, daqui em diante por IA.

(1)No estou dizendo, claro, que o prprio Schank est comprometido com essas afirmaes.

(**)O termo alemo Gedankenexperiment significa "experimento mental" um recurso filosfico onde se imagina uma situao possvel, que no contraria possibilidades fsicas e lgicas e da qual podemos extrair conseqncias conceituais importantes.

(2)"Compreenso" implica no s na posse de estados mentais (intencionais) como tambm em condies de verdade desses estados (validade, sucesso). No escopo desta discusso estamos interessados somente na posse desses estados.

(3)Intencionalidade por definio aquela caracterstica de determinados estados mentais pelos quais eles so direcionados para, ou acerca de objetos e estados de coisas no mundo. Neste caso, crenas, desejos e intenes so estados intencionais; formas no direcionadas de ansiedade e de depresso no so. Para uma discusso adicional ver Searle (1979).