Pedi pro ChatGPT prever o futuro com 80% de confiança. Ele obedeceu. E esse é o problema.

Circula no Instagram um prompt que pede o seguinte: “simule um estrategista de IA de elite, preveja as 10 startups mais disruptivas dos próximos 18 meses, com mais de 80% de confiança, seja audacioso, vá além do convencional.”

Centenas de curtidas. dezenas de comentários elogiando. Vários compartilhamentos.

E pessoas, em algum lugar, colando isso no ChatGPT agora mesmo achando que vão receber “inteligência de mercado”.

Provavelmente vão receber ficção bem escrita. Eu explico.

O problema 1: confiança não é uma alavanca que você puxa.

LLMs, como o ChatGPT e o Claude, não têm calibração/predição real sobre o futuro. Pedir “80% de confiança” não aumenta a precisão da resposta. Aumenta o tom de certeza com que o modelo fala. Você não está filtrando alucinação. Está pedindo pra alucinação vir mais convicta do que nunca.

É a diferença entre um analista que diz “não sei” e um que diz “tenho certeza” sem saber nada. O segundo é mais perigoso. Esse prompt pede explicitamente o segundo.

O problema 2: “simule um especialista de elite” não invoca expertise.

Invoca o estilo de escrita de quem se vende como especialista de elite. Os modelos não têm acesso ao raciocínio do analista. Têm acesso aos textos que analistas (e gente fingindo ser analista) publicaram. Você recebe o tom de um influencer com vocabulário de McKinsey. Mas, infelizmente, não recebe o método.

E pra piorar: o corpus de “previsões ousadas sobre startups” é dominado por gente que errou e nunca voltou pra prestar contas. É essa distribuição que o modelo está imitando.

O problema 3: “seja audacioso, vá além do convencional”.

Esse é o golpe de misericórdia. Você está literalmente instruindo o modelo a se afastar da base estatística dele e em direção ao improvável. Em termos técnicos, você está na verdade aumentando a liberdade de extrapolação do output. Ou seja, na prática, você está literalmente pedindo para o modelo inventar.

E ele vai inventar dez startups. Metade vai existir com outro nome. A outra metade vai ser genérica o bastante pra parecer plausível (“plataforma de agentes verticais para compliance em saúde”). Zero responsabilidade, porque ninguém volta em 18 meses pra checar.

O padrão.

Prompts assim podem parecer confortáveis porque te dão de volta exatamente o que parece que você queria: uma resposta longa, confiante, com itens, soando bastante inteligente. O custo pode aparecer depois. Quando você age com base nessa informação, ou pior, quando alguém age com base nela porque você compartilhou e garantiu.

Eis um teste mental básico que eu faço antes de usar qualquer prompt preditivo: se eu fosse o modelo, eu teria como saber isso? Se a resposta for não, pode ter certeza: nenhuma instrução bem elaborada vai te dar o que você pediu.

O modelo não sabe quais são as 10 startups dos próximos 18 meses. Ninguém sabe. O prompt feito do jeito A, B ou C não vai mudar isso. A diferença é que ele vai responder mesmo assim.

A versão antifrágil do mesmo prompt não vai pedir previsão. Vai no sentido contrário: pede refutação: “aqui está minha aposta sobre os próximos 18 meses. Liste os cinco motivos pelos quais ela está errada.” Esse prompt o modelo responde com mais competência, porque crítica é o que ele tem de sobra no corpus. Mesmo modelo. Pergunta invertida. Resposta útil.

Deixe um comentário