Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ara
Amante de la vida y la belleza @cline
Anterior @shopify @sourcegraph
Oye, @swyx pregunta para ti,
Siempre dices "haz cosas, cuéntaselo a la gente." Pero encuentro que el hacer interfiere con la narración.
Me pierdo en el proceso. Tengo que bloquear tiempo en mi calendario a la fuerza solo para obligarme a contárselo a la gente escribiendo. Y aun así, siento que estoy perdiendo tiempo que podría dedicarse a más acción.
He visto cierto valor en contárselo a la gente. Pero disfruto mucho más. No quiero ser redactor técnico. No quiero ser desarrollador y soy mayormente alérgico a la palabra "marketing".
Solo quiero comunicar las ideas lo suficiente para que realmente sean adoptadas (y que la gente use lo que construyo). La vida es corta y aunque trabaje todo el tiempo, solo hay un límite de tiempo.
¿Cómo gestionas el saldo? ¿Qué heurísticas usas? Creo que muchos constructores tienen problemas con esto y algunos se inclinan demasiado hacia un lado.
Me encantaría tu opinión.
24
Cómo @cline experimentado la "amarga lección" en su propio camino.
Cuando salió el Soneto 4, muchas cosas se rompieron. El modelo se ejecutaba en bucles. Tomaba las instrucciones demasiado literalmente e hacía cosas raras.
Estábamos confundidos. El mismo aviso del sistema había funcionado en la versión 3.5, 3.7, todo lo anterior.
En ese momento nos dimos cuenta: nuestro prompt estaba sobrecargando sensorialmente el modelo. ¿Todas esas instrucciones cuidadosas que habíamos escrito? Estaban interfiriendo en cómo piensa realmente el modelo.
La amarga lección para los agentes:
Crees que puedes ajustar los prompts y mejorar los modelos. Y quizá eso funcione... Por ahora. Pero con más cálculo, los modelos mejoran por sí solos. Y cuanto más te cojas de la mano, más estorbas realmente.
El mejor prompt del sistema es aquel que apunta a los agentes en la dirección correcta pero luego se aparta del camino del modelo,
9
Cómo hacer ingeniería inversa de cualquier prompt de código de software de IA de código cerrado:
Esto funciona para Claude Code, Windsurf, Copilot y literalmente cualquier cosa interceptando sus llamadas
Método 1: Charles Proxy (para herramientas con endpoints internos)
Herramientas como Vscode Extension encaminan primero a su propio backend.
- Instalar a Charles Proxy
- Instalar el certificado raíz de Charles
- Vigila el tráfico
- Encontrar el punto final interno al que están llegando
- Marcárcalo para proxy SSL en Charles
- Lee todo
Método 2: Proxy local (para herramientas que llaman directamente a APIs LLM)
- Herramientas como Cline, Claude Code call directamente. Charles no trabajará porque el fijamiento de certificados lo bloquea.
- Poner en marcha un proxy local en localhost:8080
- Configurar la extensión para que use esa como su URL base de la API
- Tu proxy reenvía a la API real
- Leerlo todo en texto plano
- No estás interceptando porque ERES el endpoint, así que no hay problemas de certificación.
Con esto verás las indicaciones completas del sistema, definiciones de herramientas, estructura de conversación, parámetros, todo.

9
Populares
Ranking
Favoritas
