Este artigo contém dicas que vou acumulando conforme estudo e uso LLMs (ChatGPT, Claude, Gemini). Originalmente compartilhadas no LinkedIn. Peça ao ChatGPT (ou qualquer LLM) que explique o raciocínio ANTES de te dar a resposta! Por exemplo: “Classifique o comentário em positivo ou negativo. Primeiro explique seu raciocínio e depois dê a resposta.” Isso aumenta a precisão dele na resposta porque condiciona os tokens na explicação. Vejo o contrário em vários papers, onde pedem o raciocínio depois da resposta....
IA é para PowerPoint, ML é para código
Enquanto debatemos ‘IA’ vs ‘ML’, outros lucram com nossa resistência em adaptar a comunicação. Fiz uma pesquisa rápida com meus seguidores no Instagram e o resultado não me surpreendeu: 25% preferem usar “IA”, enquanto 75% optam por “ML”. Natural, já que a maioria que me acompanha é da área técnica. Passei anos defendendo essa distinção, mas hoje vejo a situação de forma diferente. Nossa resistência ao termo IA está nos isolando de quem está descobrindo a área agora, motivados pelos modelos generativos....
Por Que Sua Próxima Vaga Provavelmente Não Virá De Uma Candidatura Online
Eu sei que é chato pensar em ter que criar conteúdo. Ninguém acorda pensando ‘uau, preciso postar algo no LinkedIn hoje!’ (se você acorda, procure ajuda). Mas minha recente excursão ao mercado de trabalho tradicional me mostrou o valor de ter uma rede de contatos forte. Em questão de horas após postar sobre a rejeição da vaga do Google, recebi as primeiras mensagens de pessoas oferecendo indicações para diversas empresas....
Como Usar O Gemini Do Google Via API Em Python
O Gemini é a mais recente tecnologia de inteligência artificial multimodal desenvolvida pelo Google. Assim como o GPT, o Gemini é capaz de processar e gerar texto de forma contextual e coerente, mas vai além ao integrar capacidades de compreensão de imagens, áudio e vídeo. A API do Gemini permite que desenvolvedores integrem essas poderosas capacidades de IA em seus projetos, possibilitando uma ampla gama de aplicações, como: Geração de texto avançada Processamento de áudio e vídeo Criação de chatbots e assistentes virtuais multimodais Neste artigo, exploraremos em detalhes como utilizar o Gemini através da API do Google em Python....
Como Usar O Claude Via API Da Anthropic Em Python
A API do Claude, desenvolvida pela Anthropic, oferece uma alternativa poderosa aos modelos de linguagem da OpenAI. Eu gosto bastante de usar o Claude, porque ele soa mais natural do que o GPT-4 e costuma me dar respostas melhores quando uso com tarefas de programação e ciência de dados. Ele fez 90% do trabalho de criar esse app sobre active learning em machine learning, usando React, que eu nunca tinha estudado....
Preciso Normalizar Ou Escalonar os Dados para Árvores de Decisão?
Em geral, não. Árvores de decisão não são sensíveis a feature scaling (escalonamento) porque suas divisões não mudam com transformações monotônicas dos dados. A normalização também não é necessária, mas pode mudar seus resultados porque não é monotônica, como veremos mais adiante. Dito isso, a implementação numérica de uma biblioteca específica pode fazer com que as previsões da sua árvore de decisão mudem se você não escalonar ou normalizar seus dados....
Como Usar O GPT Via API Da OpenAI Em Python
O GPT (Generative Pre-trained Transformer) é uma tecnologia de ponta no campo do processamento de linguagem natural (NLP). Desenvolvido pela OpenAI, o GPT utiliza aprendizado profundo para compreender e gerar texto de forma contextual e coerente. A capacidade do GPT de entender nuances linguísticas, responder a perguntas complexas e até mesmo gerar conteúdo criativo o torna uma ferramenta valiosa para uma ampla gama de aplicações. Você deve conhecer a interface do ChatGPT, que é um exemplo de como o GPT pode ser usado para criar assistentes virtuais, mas a OpenAI também oferece uma API para que você possa integrar o GPT em seus projetos de maneira programática....
Calculando Importância de Features em Random Forests
Interpretar e identificar as features cruciais em modelos de machine learning pode ser um desafio e tanto, especialmente ao lidar com modelos black-box. Neste tutorial, vamos mergulhar fundo no entendimento da importância global e local das features em Random Forests. Exploraremos várias técnicas e ferramentas para analisar e interpretar essas importâncias, tornando nossos modelos mais transparentes e confiáveis. Para ilustrar as técnicas, utilizaremos o conjunto de dados “Red Wine Quality” do Repositório de Machine Learning da UCI....
Chain-of-Thought Prompting: O Que é e Como Usar?
Chain-of-Thought (CoT) Prompting é uma técnica avançada de engenharia de prompts que incentiva o modelo a “pensar em voz alta”, decompondo problemas em etapas intermediárias antes de chegar a uma conclusão. Isso não apenas melhora a precisão das respostas, mas também torna o processo de “raciocínio” do modelo mais transparente e interpretável. Depois do sucesso demonstrado pelo CoT, as empresas que treinam LLMs começaram a incluir exemplos de raciocínio passo a passo em seus dados, justamente para melhorar a interpretabilidade e a precisão dos modelos....
Como Tunar Hiperparâmetros do LightGBM com Optuna
Como um Grandmaster do Kaggle, eu adoro trabalhar com o LightGBM, uma biblioteca fantástica de machine learning que se tornou uma das minhas ferramentas preferidas. Eu sempre foco em tunar os hiperparâmetros do modelo antes de mergulhar na engenharia de features. Ao ajustar seus hiperparâmetros primeiro, você vai espremer cada gota de desempenho do seu modelo com os dados que já tem. Depois que você tiver os hiperparâmetros ideais, você passa para a engenharia de features....