Pular para o conteúdo

Gastei US$ 500 em uma Semana com Codificação Assistida por IA. Veja o que Aprendi para Não Fazer Isso.

Contextos grandes, modo MAX, Opus 4.6 Thinking — as ferramentas de codificação de IA mais poderosas também são as mais caras. Após uma fatura brutal, descobri como obter 90% do desempenho com 20% do custo.

Durval Pereira
Durval Pereira
9 min

A fatura que mudou meu comportamento

Abri meu painel de faturamento em uma manhã de segunda-feira e encarei o número. Quinhentos e doze dólares. Uma semana. Não um mês — uma semana.

Eu não tinha feito nada incomum. Estava construindo uma feature, depurando uma integração, refatorando alguns testes. Trabalho de engenharia normal. Mas eu estava fazendo isso com todas as configurações no máximo: Opus 4.6 Thinking no modo MAX, contexto de repositório completo, longas conversas multi-turn que acumulavam milhares de tokens por mensagem.

Cada solicitação individual parecia inofensiva. Um rápido "refactor this module" aqui, um "debug this error with full context" ali. Mas com as taxas de token para modelos de pensamento de ponta, o "inofensivo" se acumula rapidamente. Eu estava essencialmente executando um pequeno cluster de GPU toda vez que fazia uma pergunta.

Essa fatura foi o início de um processo muito deliberado para entender para onde o dinheiro estava indo — e, mais importante, para onde não precisava ir.

Para onde o dinheiro realmente vai

Os custos de codificação com IA não são distribuídos uniformemente. Depois de rastrear meu uso por duas semanas, a divisão ficou clara:

O tamanho do contexto é o multiplicador. Cada solicitação envia seu histórico de conversas, arquivos anexados e prompts do sistema para o modelo. Uma nova conversa com uma pequena pergunta pode usar 2.000 tokens. Uma longa conversa com 15 arquivos anexados e uma sessão de depuração multi-turn pode facilmente atingir mais de 100.000 tokens por solicitação. Isso representa uma diferença de custo de 50x para uma única mensagem.

Modelos de pensamento agravam o problema. Modelos como o Opus 4.6 Thinking não apenas leem sua entrada — eles geram uma cadeia de pensamento interna antes de produzir a resposta visível. Essa cadeia de raciocínio pode ter 3 a 5 vezes o comprimento da resposta final, e você está pagando por cada token dela. Uma resposta que parece ter 500 tokens pode ter custado 3.000 tokens nos bastidores.

O modo MAX é o nível premium. Executar um modelo de pensamento no modo MAX remove o limite de saída e oferece toda a profundidade de raciocínio. É extraordinariamente capaz — e extraordinariamente caro. Uma única solicitação complexa no modo MAX pode custar mais do que um dia inteiro de uso normal.

Aqui está um modelo mental aproximado dos níveis de custo:

ConfiguraçãoCusto RelativoQuando se Destaca
Modelo rápido, contexto pequeno1xPerguntas rápidas, edições simples
Modelo padrão, contexto médio5-10xImplementação de feature, code review
Modelo de pensamento, contexto grande30-50xDepuração complexa, decisões de arquitetura
Modelo de pensamento, modo MAX, contexto de repo completo100-200xRefatorações multi-arquivo, análise profunda

Essa última linha é para onde meus US$ 500 foram. Eu estava usando a configuração de 200x para tarefas que uma configuração de 5x teria lidado tão bem.

O fluxo de trabalho consciente dos custos

Após o choque da fatura, desenvolvi uma abordagem em camadas. A principal percepção: combine o modelo com a tarefa, não o contrário. Usar o modelo mais poderoso para tudo é como pegar um helicóptero para ir ao supermercado. Funciona, mas você está pagando por capacidades que não precisa.

Nível 1: Modelo rápido para tarefas mecânicas

A maior parte do que fazemos com assistentes de codificação de IA é mecânica. Renomear uma variável em um arquivo. Gerar um tipo a partir de uma amostra JSON. Escrever um teste de unidade para uma função pura. Adicionar tratamento de erros a um bloco try/catch.

Essas tarefas não exigem raciocínio. Elas exigem correspondência de padrões e geração de código — exatamente o que modelos rápidos e baratos fazem de melhor. Mudei para usar o modelo mais rápido disponível para qualquer coisa que se encaixe nesta descrição:

  • Geração de boilerplate
  • Refatorações simples (renomear, extrair função, variável inline)
  • Escrever testes para funções diretas
  • Gerar tipos, interfaces ou schemas
  • Formatar ou reestruturar código
  • Documentação e comentários

Isso por si só reduziu meu custo diário em 60%. A qualidade da saída para essas tarefas é virtualmente idêntica entre um modelo rápido e um modelo de pensamento de ponta.

Nível 2: Modelo padrão para trabalho de feature

Quando estou implementando uma feature — escrevendo nova lógica, integrando uma API, construindo um componente — uso um modelo de nível padrão sem modo de pensamento. Ele é inteligente o suficiente para entender a intenção, gerar código idiomático e lidar com complexidade moderada.

A disciplina chave aqui é o gerenciamento de contexto. Em vez de anexar toda a minha base de código e perguntar "construa esta feature", anexo apenas os arquivos que são diretamente relevantes:

  • O arquivo que estou editando
  • Os tipos/interfaces dos quais ele depende
  • Um ou dois exemplos de padrões semelhantes na base de código

Três a cinco arquivos, não trinta. Isso mantém a janela de contexto pequena e o custo previsível. Também produz melhores resultados — os modelos funcionam pior com muito contexto irrelevante, não melhor.

Nível 3: Modelo de pensamento para problemas difíceis

Eu reservo os modelos de pensamento caros para problemas genuinamente difíceis — aqueles em que preciso que o modelo raciocine, não apenas gere:

  • Depurar uma race condition em múltiplos serviços
  • Projetar a arquitetura para um novo componente de sistema
  • Entender um erro complexo com um stack trace profundo
  • Revisar código crítico em busca de bugs sutis
  • Desvendar um erro de tipo complicado em uma função genérica TypeScript

Essas são as tarefas onde os modelos de pensamento justificam seu custo. A cadeia de pensamento estendida permite que eles considerem casos de borda, avaliem trade-offs e capturem problemas que os modelos padrão perdem. Mas eles representam talvez 10-15% do meu trabalho diário.

Nível 4: Modo MAX — a opção nuclear

O modo MAX com contexto completo é usado uma ou duas vezes por semana, no máximo. É para momentos em que estou genuinamente travado e preciso que o modelo analise uma grande área de código com raciocínio profundo:

  • Um bug que abrange cinco arquivos e três camadas de abstração
  • Uma refatoração importante onde o modelo precisa entender o módulo inteiro para sugerir uma abordagem segura
  • Revisar um PR inteiro em busca de problemas arquitetônicos

Antes de recorrer ao modo MAX, pergunto a mim mesmo: "Já tentei resolver isso com um modelo mais barato primeiro?" Se a resposta for não, começo por aí. Na maioria das vezes, o Nível 2 ou 3 me leva à resposta.

Estratégias práticas que realmente economizam dinheiro

Além da abordagem de modelo em camadas, alguns hábitos fizeram uma diferença significativa:

Inicie novas conversas frequentemente. Conversas longas acumulam contexto. Cada nova mensagem inclui todo o histórico da conversa. Na mensagem 20, você está enviando um prompt do tamanho de um romance para cada solicitação. Agora, inicio uma nova conversa toda vez que mudo de tarefa — e às vezes no meio da tarefa quando a conversa fica longa.

Seja específico em seus prompts. "Fix this bug" com 10 arquivos anexados é caro e lento. "A função processOrder em order-service.ts lança uma referência nula na linha 47 quando customer.address é undefined — adicione uma cláusula de guarda" é barato e rápido. A especificidade reduz o trabalho que o modelo precisa fazer, o que reduz os tokens, o que reduz o custo.

Use a IA para planejar, depois execute você mesmo. Para features complexas, usarei um modelo de pensamento uma vez para projetar a abordagem — quais arquivos alterar, quais padrões seguir, quais casos de borda tratar. Em seguida, executo o plano usando um modelo rápido (ou apenas minhas próprias mãos). Uma chamada de planejamento cara substitui dez chamadas de implementação caras.

Leia o código você mesmo primeiro. Isso parece óbvio, mas é o hábito que perdi. Quando toda resposta está a um prompt de distância, você para de ler o código. Você pergunta à IA "o que esta função faz?" em vez de gastar dois minutos lendo-a. Essas perguntas de dois minutos, às taxas de token de modelos de pensamento, custam dinheiro real. E ler o código você mesmo constrói um entendimento que nenhum modelo pode substituir.

Aproveite o contexto em cache e indexado. Muitas ferramentas de codificação de IA mantêm um índice local da sua base de código. Consultas contra o índice são baratas ou gratuitas. Use pesquisa, busca de símbolos e go-to-definition antes de anexar arquivos manualmente. Deixe a ferramenta encontrar o contexto relevante em vez de despejar tudo no prompt.

A regra 90/10

Após um mês de gerenciamento deliberado de custos, meus gastos semanais caíram de US$ 500 para cerca de US$ 80-100 — uma redução de 80%. Minha produtividade não mudou visivelmente. Se algo, melhorou, porque eu estava pensando com mais cuidado sobre o que estava perguntando e por quê.

A verdade incômoda é que a maior parte da codificação assistida por IA não precisa de modelos de ponta. Ela precisa de modelos rápidos e baratos aplicados a tarefas bem delimitadas. Os modelos de ponta são genuinamente transformadores para os 10% de problemas difíceis — aqueles em que você está travado, confuso ou tomando uma decisão com consequências significativas. Usá-los para tudo não é apenas caro; é uma muleta que atrofia seu próprio julgamento de engenharia.

O melhor fluxo de trabalho assistido por IA que encontrei é aquele em que eu faço o pensamento sobre o que construir e a IA me ajuda a construí-lo mais rápido. Quando inverto isso — quando terceirizo o pensamento para a IA e me torno um "prompt jockey" — tanto a qualidade quanto o custo vão na direção errada.

Uma nota sobre a economia

Os preços dos modelos de IA continuarão a cair. O que custa US$ 500 hoje pode custar US$ 50 em um ano. Mas o princípio permanecerá: sempre haverá uma hierarquia de capacidades e custos de modelos, e o nível caro sempre será tentador. A disciplina de combinar a ferramenta com a tarefa — de não recorrer reflexivamente à opção mais poderosa — é uma habilidade que rende dividendos independentemente do preço por token.

E se você está lançando isso como despesa para sua empresa, você tem uma razão ainda mais forte para ser intencional. Uma equipe de dez engenheiros, cada um gastando US$ 500/semana em ferramentas de IA, representa US$ 260.000 por ano. Isso é o salário de um engenheiro sênior. Em algum momento, alguém no setor financeiro notará — e você preferiria ter uma história sobre uso deliberado e otimizado do que "apenas tínhamos tudo no modo MAX".


Este artigo faz parte de uma série sobre engenharia de IA e produtividade do desenvolvedor.

Tagsaicostsproductivityllmcursor