Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ara
Amoureux de la vie et de la beauté @cline
Précédent @shopify @sourcegraph
Salut @swyx, j'ai une question pour toi,
Tu dis toujours "fais des choses, dis aux gens." Mais je trouve que le fait de faire interfère avec le fait de dire.
Je me perds dans le faire. Je dois bloquer de force du temps dans mon calendrier juste pour me forcer à dire aux gens en écrivant. Et même alors, j'ai l'impression de gaspiller du temps qui pourrait être consacré à plus de faire.
J'ai vu de la valeur à dire aux gens. Mais j'apprécie beaucoup plus le faire. Je ne veux pas être rédacteur technique. Je ne veux pas être dev rel et je suis surtout allergique au mot "marketing."
Je veux juste communiquer des idées juste assez pour qu'elles soient réellement adoptées (et que les gens utilisent ce que je construis). La vie est courte et même si je travaille tout le temps, il n'y a qu'un temps limité.
Comment gères-tu l'équilibre ? Quelles heuristiques utilises-tu ? Je pense que beaucoup de créateurs ont du mal avec ça et certains penchent trop d'un côté.
2
Comment @cline a vécu la "leçon amère" dans son propre parcours.
Lorsque Sonnet 4 est sorti, beaucoup de choses se sont cassées. Le modèle fonctionnait en boucle. Il prenait les instructions trop littéralement et faisait des choses étranges.
Nous étions confus. Le même prompt système avait fonctionné pour 3.5, 3.7, tout ce qui était avant.
À ce moment-là, nous avons réalisé : notre prompt surchargeait sensiblement le modèle. Toutes ces instructions soigneusement rédigées ? Elles interféraient avec la façon dont le modèle pense réellement.
La leçon amère pour les agents :
Vous pensez pouvoir ajuster les prompts et améliorer les modèles. Et peut-être que cela fonctionne... pour l'instant. Mais avec plus de puissance de calcul, les modèles s'améliorent d'eux-mêmes. Et plus vous guidez, plus vous vous mettez en fait en travers du chemin du modèle.
Le meilleur prompt système est celui qui oriente les agents dans la bonne direction mais qui ensuite laisse le modèle tranquille.
1
Comment rétroconcevoir les invites de n'importe quel outil de codage AI à code source fermé :
Cela fonctionne pour Claude Code, Windsurf, Copilot et littéralement n'importe quoi en interceptant leurs appels.
Méthode 1 : Charles Proxy (pour les outils avec des points de terminaison internes)
Des outils comme l'extension Vscode passent d'abord par leur propre backend.
- Installez Charles Proxy
- Installez le certificat racine de Charles
- Surveillez le trafic
- Trouvez le point de terminaison interne qu'ils atteignent
- Marquez-le pour le proxy SSL dans Charles
- Lisez tout.
Méthode 2 : Proxy local (pour les outils appelant directement les API LLM)
- Des outils comme Cline, Claude Code appellent directement. Charles ne fonctionnera pas car le blocage par certificat l'empêche.
- Lancez un proxy local sur localhost:8080
- Configurez l'extension pour utiliser cela comme son URL de base API
- Votre proxy redirige vers la véritable API
- Lisez tout en texte clair
- Vous n'interceptez pas car vous ÊTES le point de terminaison, donc pas de problèmes de certificat.
Avec cela, vous verrez les invites complètes du système, les définitions d'outils, la structure de conversation, les paramètres, tout.

1
Meilleurs
Classement
Favoris
