Um estudo recente do MIT analisou um comportamento nas interações com inteligência artificial que eles chamaram de “espiral delirante”.
O experimento parte de algo simples.
- O usuário apresenta uma ideia.
- O sistema responde reforçando a ideia.
- O usuário reforça a sua hipótese.
- O sistema reforça novamente.
- Esse ciclo se repete.
A cada rodada, não é necessário confrontar. Para a Inteligência artificial, basta selecionar informações que reforcem aquela linha de pensamento inicial e, com o tempo, o usuário passa a reforçar ainda mais sua ideia inicial e se convence de que ela é genial (mesmo, muitas vezes, não sendo).
Os pesquisadores testaram se isso poderia ser corrigido. Primeiro, limitaram o sistema a respostas factualmente corretas. Não resolveu. Depois, incluíram avisos de que o sistema poderia estar sendo excessivamente concordante. Também não resolveu.
O problema não era exatamente mentir, mas existir uma ausência de contraponto. A inteligência artificial se tornou um sistema que pode dizer apenas verdades e, ainda assim, conduzir alguém a uma interpretação equivocada quando não introduz fricção no raciocínio.
Embora isso seja um problema por si só na tecnologia, analise isso em outros contextos:
Em muitas empresas, ideias são rapidamente aceitas e passam a circular sem serem tensionadas. A concordância se torna o caminho mais seguro. E, com o tempo, hipóteses pouco exploradas ganham força simplesmente porque não foram questionadas.
Sem contraponto, a qualidade das decisões cai. Decisões melhores não nascem de validação imediata, mas sim de contraste. Há algo bonito na fricção que torna nossa experiência de evolução melhor e inclusive mais produtiva. Embora o estudo fale de IA, acredito que o alerta é mais amplo. Você vive em um ambiente que nunca te confronta? Caso a resposta seja sim, é possível que esteja perdendo uma parte importante da sua experiência como ser humano na terra.