ChatGPT e o que significa ser racional (com um pouquinho de Brandom)
Habilidades hermenêuticas, inferencialismo e o funcionalismo do senso comum
Se você não está desde dezembro num cativeiro sem acesso à internet, já deve ter topado com ao menos algum das centenas de textos sobre o ChatGPT, a nova ferramenta de inteligência artificial da OpenAI, que usa Large Language Models (LLM). Não vou fazer aqui nem uma resenha nem uma análise dele; minha sugestão sobre isso é: faça o teste você mesmo. Minha questão aqui é bem mais específica, a saber, o impacto do ChatGPT em atividades diversas (como escrever trabalhos para faculdade, códigos de programação, respostas a perguntas etc.). Assim, o que vai no título sobre “o que significa ser racional” não se dirige ao estatuto da ferramenta - não estou me importando, ao menos não diretamente, com a questão sobre se bots de IA são ou não racionais -, mas sobre os humanos que interagem com ela. Ainda assim, você perceberá que o que digo sobre “os humanos que interagem com ela” também nos ajuda a esclarecer algumas coisas sobre a suposta “inteligência” das ferramentas de IA.
A primeira coisa a dizer, que parece óbvia mas simplesmente tem passado despercebida nas análises que li é que, por mais maravilhosos e incríveis - e sim, de fato são -, toda a interação com a ferramenta - os inputs -, assim como os resultados e respostas - os outputs -, são textos. Textos a serem interpretados, mesmo que você solicite que a ferramenta explique como a uma criança de cinco anos. Isso significa que o cerne da interação e, especialmente, de sua qualidade, reside na proficiência do uso da linguagem. Obviamente, não estou me referindo à correção gramatical, mas na proficiência em saber manejar conceitos (mais sobre isso abaixo) e em uma habilidade bastante subvalorizada: saber formular perguntas. E tal subvalorização afeta tão duramente o uso de ferramentas como o ChatGPT que o pavor de educadores diante de como os alunos irão driblar as regras simplesmente é exagerado; sem saber formular boas perguntas e interpretar textos, o que poderão retirar do ChatGPT não será muito diferente do que já fazem hoje a partir de outros sites (para os temerosos em relação a isso, já existe uma ferramenta de checagem). Aqui outro elemento fundamental para uma boa concepção de racionalidade aparece: não é possível ser racional sem habilidades hermenêuticas, ainda que elas precisem ser explicitadas;
No que diz respeito à racionalidade, ainda é bastante usual ver, ao menos no senso comum, uma concepção funcionalista de racionalidade, ou seja, de que ser racional significa “performar” determinadas funções, independentemente dos processos interno pelos quais tais funções são exercidas. É tal funcionalismo que está na base da comparação da ideia de racionalidade com o funcionamento de máquinas. Contudo, não apenas essa concepção funcionalista deixa de fora uma série de elementos essenciais para uma compreensão mais robusta (e realista) de racionalidade, como não capta uma distinção nuclear;
Essa distinção pode ser mais facilmente visualizada a partir da exposição que o filósofo americano Robert Brandom faz do seu inferencialismo. Vou deixar explicações mais detalhadas sobre o que significa tal inferencialismo de lado e vou direto ao ponto que me interessa aqui. Em primeiro lugar, a própria definição brandomiana de racionalidade:
to be rational is to be a producer and consumer of reasons: things that can play the role of both premises and conclusions of inferences. So long as one can assert and infer, one is rational. (Brandom, Tales of the Mighty Dead, p. 6)
A primeira coisa a se notar nessa definição é que ser racional significa ser produtor e consumidor de razões e que, por “razões”, Brandom entende “coisas” (aqui, proposições) que podem desempenhar o papel de premissas e de conclusões de inferências. E ser produtor e consumidor de razões significa que pedir e dar razões importa para seres racionais (e, portanto, não importa para seres não-racionais). E “coisas” funcionam como razões apenas se podemos avaliar o nexo inferencial (formal ou material) entre elas, isto é, se determinadas “coisas” se seguem necessariamente de outras, se elas permitem que outras se sigam delas ou se elas simplesmente proíbem que determinadas coisas se sigam delas. Portanto, ser racional significa intencionalmente produzir e consumir razões;
Assim, para Brandom, ser racional significa saber lidar inferencialmente com “coisas” e, inversamente, saber lidar inferencialmente com “coisas” acarreta ser racional. E é aí que reside a distinção entre racionalmente lidar com conceitos e proposições ou meramente declará-los. Veja esta citação, agora de outra obra de Brandom:
We can respond differentially to red things by uttering the noise “That is red.” A parrot could be trained to do this, as pigeons are trained to peck at a different button when shown a red figure than when shown a green one. The empiricist tradition is right to emphasize that our capacity to have empirical knowledge begins with and crucially depends on such reliable differential responsive dispositions. But though the story begins with this sort of classification, it does not end there. For the rationalist tradition is right to emphasize that our classificatory responses count as applications of concepts, and hence as so much as candidates for knowledge, only in virtue of their role in reasoning. The crucial difference between the parrot’s utterance of the noise “That is red” and the (let us suppose physically indistinguishable) utterance of a human reporter is that for the latter, but not the former, the utterance has the practical significance of making a claim. Doing that is taking up a normative stance of a kind that can serve as a premise from which to draw conclusions. That is, it can serve as a reason for taking up other stances. And further, it is a stance that itself can stand in need of reasons, at least if challenged by the adoption of other, incompatible stances. Where the parrot is merely responsively sounding off, the human counts as applying a concept just insofar as she is understood as making a move in a game of giving and asking for reasons. (Brandom, Animating Reasons, p. 118-119)
Portanto, para que o uso de um conceito ou proposição conte efetivamente como um uso racional desses termos, não basta a mera declaração e, tampouco, a declaração ou aplicação contextualmente correta, mas sim que a declaração seja intencionalmente compreendida como estando em relação inferência necessária com outras. O uso racional de conceitos e proposições compreende, portanto, uma dimensão normativa que não pode ser extirpada sem extirpar a própria racionalidade.
Se você chegou até aqui, está em condições de compreender as duas coisas que comentei no primeiro parágrafo. Em primeiro lugar, mesmo que não tenha sido o objetivo deste texto, creio ter ficado razoavelmente claro que coisas como ChatGPT estão longe de serem consideradas realmente inteligentes. Em segundo lugar, você também é capaz de perceber que o uso efetivamente racional dos outputs de ferramentas como o ChatGPT depende da proficiência que as pessoas podem ter na compreensão daquele vínculo normativo inferencial, caso contrário, a ferramenta não estará nem sequer ajudando de fato; você será meramente uma extensão reprodutora do que uma ferramenta não-racional está lhe fornecendo, como um termômetro que indica a temperatura de febre, mas não pode compreender nada do que isso significa. Claro que aqui você pode dizer: “E qual o problema disso?”. E eu lhe respondo: “Nenhum. Mas aí você não está indo muito mais longe do que um papagaio”.