Los Errores Más Comunes al Redactar Prompts para Agentes de IA (Y Cómo Evitarlos)
OpenAI lanzó recientemente la guía «A Practical Guide to Building Agents«, donde ofrece una visión completa sobre cómo diseñar agentes de inteligencia artificial efectivos.
En artículos previos, aprendimos qué es un prompt junto con las herramientas y mejores prácticas para crear prompts efectivos.
En este cierre, nos enfocamos en un paso clave que muchas veces se pasa por alto: detectar y corregir los errores más frecuentes al escribir prompts. Porque incluso con buenos modelos y herramientas, un mal prompt puede arruinar la experiencia del usuario.
¿Por qué es tan fácil equivocarse al redactar prompts?
A simple vista, escribir un prompt parece una tarea sencilla, pero cuando un agente necesita tomar decisiones, interpretar intenciones y actuar con autonomía, cada palabra importa.
Un pequeño error en el diseño puede generar resultados impredecibles: desde respuestas confusas hasta acciones peligrosas o fuera de contexto.
Y es que los agentes no adivinan lo que quisiste decir, solo siguen lo que efectivamente escribiste.
Por eso, detectar los errores más comunes —y aprender a evitarlos— es esencial para construir agentes más confiables y efectivos.
Los errores más frecuentes (y cómo corregirlos), de acuerdo a OpenAI
Aquí repasamos los fallos más comunes al redactar prompts, según la experiencia recogida en la guía de OpenAI:
- Instrucciones vagas o generales
❌ Ejemplo: “Ayuda al usuario con su problema.”
✅ Mejor: “Pregunta al usuario por su número de pedido y verifica el estado con la API de órdenes.” - Falta de manejo de excepciones
❌ ¿Qué pasa si el usuario no responde como esperabas?
✅ Siempre indica qué hacer en casos especiales: “Si el usuario no menciona una ciudad, pídele que lo haga antes de continuar.” - Acciones sin definición clara
❌ “Verifica la información del usuario.”
✅ Mejor: “Consulta la base de datos de clientes con el correo proporcionado.” - Ausencia de condiciones de salida
❌ Prompts sin indicar cuándo el agente debe detenerse o entregar un resultado final.
✅ Define claramente cuándo la tarea termina: “Finaliza la conversación cuando se haya enviado el resumen por correo.” - Exceso de confianza en la comprensión del modelo
❌ Asumir que el modelo “sabrá qué hacer” sin instrucciones específicas.
✅ Recuerda que el modelo responde mejor cuando las reglas están claramente definidas.
Cada uno de estos errores puede corregirse aplicando las herramientas vistas en artículos anteriores: plantillas, ejemplos, división en pasos y pruebas iterativas.y predecible en sus interacciones.
Caso práctico: Un prompt con errores (y cómo mejorarlo)
Veamos un ejemplo sencillo de un prompt problemático:
Prompt inicial (con errores):
“Ayuda al usuario a encontrar un producto en nuestro catálogo.”
¿Qué está mal?
- No indica cómo debe buscar.
- No aclara si debe usar alguna herramienta.
- No dice qué hacer si el usuario no sabe qué quiere.
- No menciona cuándo termina la tarea.
Versión corregida:
“Eres un asistente de compras. Pregunta al usuario qué tipo de producto busca.
Usa la herramienta search_catalog
para mostrarle opciones relevantes.
Si el usuario no está seguro, sugiérele productos populares.
Finaliza cuando el usuario haya agregado un producto al carrito o indique que no necesita más ayuda.”
Fuente de información:
OpenAI (2024). A Practical Guide to Building Agents.
Deja una respuesta