Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ara
Amante da vida e da beleza @cline
Anterior @shopify @sourcegraph
Oi, @swyx pergunta para você,
Você sempre diz "faça as coisas, conte para as pessoas." Mas acho que o 'fazer' interfere na forma como é contado.
Eu me perco nessas ações. Tenho que bloquear tempo no meu calendário à força só para me forçar a contar para as pessoas por escrito. E mesmo assim, parece que estou desperdiçando tempo que poderia ser mais para fazer.
Vi algum valor em contar para as pessoas. Mas eu gosto muito mais de fazer isso. Não quero ser redator técnico. Não quero ser desenvolvedor e sou principalmente alérgico à palavra "marketing".
Só quero comunicar ideias o suficiente para que elas realmente sejam adotadas (e as pessoas usem o que eu construo). A vida é curta e, mesmo que eu trabalhe o tempo todo, só há um tempo limitado.
Como você gerencia o saldo? Quais heurísticas você usa? Acho que muitos construtores têm dificuldade com isso e alguns se inclinam demais para um lado.
Adoraria sua opinião.
25
Como @cline vivenciou a "amarga lição" em sua própria jornada.
Quando o Soneto 4 foi lançado, muitas coisas quebraram. O modelo rodava em loops. Levou as instruções ao pé da letra demais e fez coisas estranhas.
Ficamos confusos. O mesmo prompt do sistema funcionou para 3.5, 3.7, tudo antes.
Nesse momento percebemos: nosso prompt estava sobrecarregando sensorialmente o modelo. Todas aquelas instruções cuidadosas que escrevemos? Eles estavam interferindo na forma como o modelo realmente pensa.
A amarga lição para os agentes:
Você acha que pode ajustar prompts e melhorar os modelos. E talvez isso funcione... Por enquanto. Mas com mais computação, os modelos só melhoram sozinhos. E quanto mais você está segurando a mão, mais você realmente atrapalha.
O melhor prompt do sistema é aquele que aponta os agentes na direção certa, mas depois sai do caminho do modelo,
10
Como fazer engenharia reversa de qualquer prompt de código de software de IA de código fechado:
Isso funciona para Claude Code, Windsurf, Copilot e literalmente qualquer coisa, interceptando suas chamadas
Método 1: Charles Proxy (para ferramentas com endpoints internos)
Ferramentas como a Extensão Vscode encaminham para o próprio backend primeiro.
- Instalar Charles Proxy
- Instalar o certificado raiz de Charles
- Observe o trânsito
- Encontrar o ponto final interno que eles estão atingindo
- Marque para proxy SSL em Charles
- Leia tudo
Método 2: Proxy local (para ferramentas que chamam APIs LLM diretamente)
- Ferramentas como Cline, Claude Code chamam diretamente. Charles não vai funcionar, pois o imobilização de certificados bloqueia.
- Criar um proxy local no localhost:8080
- Configurar a extensão para usar isso como sua URL base da API
- Seu proxy encaminha para a API real
- Ler tudo em texto simples
- Você não está interceptando, pois VOCÊ é o endpoint, então não há problemas de certificação.
Com isso, você verá prompts completos do sistema, definições de ferramentas, estrutura de conversa, parâmetros, tudo.

10
Melhores
Classificação
Favoritos
