Este artigo contém dicas que vou acumulando conforme estudo e uso LLMs (ChatGPT, Claude, Gemini).

Originalmente compartilhadas no LinkedIn.

Peça ao ChatGPT (ou qualquer LLM) que explique o raciocínio ANTES de te dar a resposta!

Por exemplo: “Classifique o comentário em positivo ou negativo. Primeiro explique seu raciocínio e depois dê a resposta.”

Isso aumenta a precisão dele na resposta porque condiciona os tokens na explicação.

Vejo o contrário em vários papers, onde pedem o raciocínio depois da resposta.

Não faça isso!

Peça ao ChatGPT para gerar EXEMPLOS SIMILARES antes de resolver seu problema!

❌ Ruim: “Classifique o sentimento do tweet: ‘Esse produto não atendeu minhas expectativas’”

✅ Melhor: “Classifique o sentimento do tweet: ‘Esse produto não atendeu minhas expectativas’ Primeiro, me mostre 3 exemplos no formato: Tweet: [texto] Sentimento: [positivo/negativo] Depois classifique o tweet original.”

Isso melhora a qualidade por 2 motivos:

  1. O modelo usa casos análogos como referência (como nós humanos fazemos!)

  2. Os exemplos são gerados na “linguagem natural” do próprio modelo

💡 Dica: Quer respostas ainda melhores? Adicione explicações: Tweet: [texto] Análise: [por que é positivo/negativo] Sentimento: [positivo/negativo]

IA em Português? Nem Sempre é a Melhor Opção

Já teve aquele momento em que o ChatGPT passa de Einstein para “Erro 404: Cérebro Não Encontrado” no segundo em que você começa a conversar com ele em português?

Pesquisas recentes confirmam que esses modelos de IA simplesmente funcionam melhor em inglês.

Estamos falando de resultados até 40% melhores!

Até o GPT-4, o mais inteligente de todos os que foram testados, mostra esse viés.

A Solução Simples:

  1. Escreva seu prompt em inglês (mesmo que não seja perfeito)
  2. Se necessário, faça um rascunho em português → Google Translate → IA
  3. Mantenha as frases simples e claras

Seu inglês “ruim” provavelmente vai gerar resultados melhores do que seu português perfeito.

Não é o ideal, mas enquanto as IAs não dominam nosso idioma, esse truque é seu melhor aliado.

Uma estrutura de prompt que tem funcionado muito bem nas minhas aplicações de LLM

  1. Defina um papel (“Você é um programador”)
  2. Dê as instruções, se possível com passo-a-passo (“1. Revise o código, 2. Escreva uma análise, 3. Sugira correções”)
  3. Dê exemplos. Em geral, quanto mais exemplos de “entrada” -> “saída” você der, mais fácil fica para o LLM te dar o resultado esperado

Fora o prompt, você pegar mais de uma resposta (enviar o mesmo prompt várias vezes) e escolher a melhor, ou colar as várias respostas em outro prompt e pedir que ele sintetize as melhores partes numa resposta final.

Truque inteligente para melhorar o RAG

Em vez de ordenar seus exemplos em contexto do mais ao menos relevante, coloque os mais relevantes no início e no final da lista!

Isso aproveita o fato de que os LLMs têm dificuldade em prestar atenção ao meio do contexto, então isso melhorará a eficiência da atenção dada às amostras relevantes.

Fonte

Template de 4 Etapas para Resolver Tarefas Agênticas com LLMs

👉 Gerador: Cria respostas candidatas iniciais a partir de um prompt de instrução, seja através de múltiplos modelos em paralelo ou múltiplas amostras do mesmo modelo.

👉 Crítico: Analisa e fornece feedback sobre os pontos fortes e fracos de cada resposta para orientar as etapas subsequentes.

👉 Classificador: Ordena as respostas por qualidade e seleciona as com melhor desempenho para a próxima fase.

👉 Agregador: Combina múltiplas respostas em uma única saída de maior qualidade que incorpora os melhores elementos de cada uma.

Repetir conforme necessário.

Fonte

O Viés Oculto Dos LLMs Ao Comparar Textos

Pedir a um LLM que compare dois textos geralmente funciona bem.

Na maioria dos casos, ele consegue identificar qual é o melhor com boa precisão.

Mas existe um problema: às vezes a IA acaba preferindo o texto mais longo, mesmo que ele não seja necessariamente o melhor ou mais útil.

Existe uma solução simples para ter avaliações mais precisas.

É uma técnica chamada PREPAIR, que funciona assim:

  • Primeiro, cada texto é avaliado separadamente, como se o outro não existisse
  • Depois, compara-se os resultados dessas avaliações individuais

Por exemplo, imagine dois textos explicando o que é fotossíntese:

Texto A: “Fotossíntese é o processo onde plantas transformam luz solar em energia, usando água e CO2 para produzir oxigênio e carboidratos.”

Texto B: “Fotossíntese é um complexo processo bioquímico que ocorre em organismos fotossintetizantes como plantas verdes. Durante este sofisticado mecanismo, a energia luminosa é convertida em energia química através de uma série de reações que envolvem clorofila, água e dióxido de carbono…”

Em vez de comparar os dois direto, o PREPAIR avalia cada explicação isoladamente.

Só depois ele coloca os dois no mesmo contexto e faz a avaliação final.

Assim fica mais fácil ver que, apesar de mais curto, o Texto A é mais claro e eficiente.

É como pedir opinião para duas pessoas diferentes sobre cada texto isoladamente, antes de fazer a comparação final.

Assim evitamos o viés do “quanto mais extenso, melhor”.

Peça ao LLM que te dê várias alternativas para solucionar um problema

Ruim: “Reescreva essa frase” Bom: “Me dê 5 alternativas de como essa frase poderia ser reescrita”.

Ruim: “Como deixar esse texto melhor?” Bom: “Me dê 3 versões alternativas desse texto, com tons diferentes.”

Ruim: “Simplifique isso.” Bom: “Crie 4 versões mais simples desse parágrafo.”

Em vez de pedir que o ChatGPT aja como alguém, peça uma lista de passos que essa pessoa usaria e passe como instruções.

Por exemplo:

Em vez de “Você é Steve Jobs…”

Pergunte: “Como Steve Jobs faria um brainstorming para criar um novo produto? Escreva passo a passo como se fosse uma lista de instruções para um estagiário”

Pegue essas instruções, passe a limpo e instrua o modelo a seguir esses passos para resolver o problema

Seja o primeiro a saber das novidades em Machine Learning. Me siga no LinkedIn.