El punto de partida que usa Anthropic para explicar cómo funciona Claude es una analogía concreta. Un buen prompt se lee como un contrato corto: claro, sin ambigüedades, con cada sección cumpliendo una función específica. Si alguien con poco contexto no puede seguir las instrucciones del prompt, probablemente Claude tampoco las interpretará bien.
1. Establecé un rol antes de dar la tarea
El primer paso de cualquier prompt efectivo es decirle a Claude quién debe ser. Hay que dedicar una o dos frases a establecer el rol y la descripción de la tarea que querés que haga. Por ejemplo: "Sos un profesor de secundaria especializado en física" o "Sos una IA especializada en revisar formularios legales". Ese encuadre inicial condiciona el tono, el nivel de detalle y el tipo de respuesta que vas a recibir.
2. Describí la tarea con un verbo de acción claro
Vago es el peor enemigo de un prompt. La instrucción debe ser un verbo de acción claro: "Analizá", "Resumí", "Clasificá", "Generá". Cuanto más directo sea el pedido, menos margen hay para que Claude interprete algo diferente a lo que querés. En lugar de "algo sobre marketing", escribí "Elaborá tres estrategias de marketing digital para una PyME de ropa".
3. Contexto primero, instrucciones después
La ubicación de la información dentro del prompt importa. Claude rinde mejor cuando los documentos o datos de referencia van primero, y las instrucciones sobre qué hacer con esos datos van después. Esta estructura reduce la posibilidad de que el modelo confunda el contenido con las instrucciones. Si le das un texto para analizar, pegalo antes de decirle qué querés que haga con él.
4. Usá etiquetas XML para separar las partes del prompt
Claude fue entrenado específicamente para interpretar etiquetas XML como delimitadores estructurales, no como texto. Mientras que otros modelos interpretan las etiquetas XML como texto, Claude las reconoce como separadores de secciones. Esto permite separar instrucciones de contenido de forma que el modelo no confunda unas con otras, algo crítico cuando trabajás con prompts complejos o datos que podrían "contaminar" las instrucciones. Ejemplo: usar <instrucciones>, <contexto> y <formato_salida> como bloques distintos.
5. Incluí ejemplos de lo que querés
Mostrar es más efectivo que solo describir. Agregar ejemplos funciona porque muestran en lugar de solo decir, y además aclaran requisitos sutiles que son difíciles de expresar únicamente mediante descripciones. Anthropic recomienda entre 3 y 5 ejemplos diversos y relevantes para tareas complejas. Si querés un resumen en determinado estilo, incluí un ejemplo de ese estilo.
6. Pedí explícitamente lo que querés como resultado
Claude no infiere instrucciones que no escribiste. Si querés que detecte riesgos, proponga alternativas o verifique contradicciones, tenés que pedirlo de forma explícita. Anthropic advierte que no conviene depender de que el modelo infiera instrucciones implícitas. Si necesitás que la respuesta venga en tabla, en lista, con cierta extensión o en determinado tono, especificalo al final del prompt.
7. Repetí las instrucciones críticas al final
En prompts largos, las instrucciones que aparecen solo al principio tienden a diluirse. Se recomienda repetir las instrucciones críticas, sobre todo cuando se escribe un prompt muy largo. Si hay algo que no puede faltar en la respuesta —un formato específico, un límite de extensión, un elemento obligatorio—, mencionalo al principio y recordalo al final.
