En algún momento, casi todos los proyectos de IA en e-commerce pasan por la misma fase. Al principio, todo parece prometedor. El modelo responde rápido, suena fluido, escribe frases correctas y da la impresión de que «sabe» de qué habla. Se ve bien en una demo. Se ve todavía mejor en una presentación para un cliente.
Entonces llega la realidad.
Un cliente abre una página de producto y pregunta:
- ¿este módulo funciona con mi versión de Magento?
- ¿este producto es compatible con Amasty?
- ¿en qué se diferencia este modelo de otro?
- ¿esta solución es adecuada para una tienda con varias store views?
- ¿puedo implementarla sin trabajo de desarrollo adicional?
Y ahí es cuando queda claro que la IA no solo necesita un «buen modelo». Necesita límites. Necesita prioridad de fuentes. Necesita saber cuándo responder directamente, cuándo hacer una pregunta aclaratoria y cuándo decir con honestidad: «esa información no está en los datos».
Ahí es donde entra en juego el prompt.
En nuestro caso, este no es un tema abstracto. El prompt afecta directamente a cómo funciona Kowal Ask About Product y a cómo utiliza el conocimiento estructurado proporcionado por Kowal AI Product Feed for OpenAI Vector Store.
El mismo modelo, dos comportamientos muy diferentes
Al trabajar con módulos integrados con IA, una cosa se vuelve evidente muy rápido: el mismo modelo puede comportarse como un asesor muy bueno o como un vendedor que rellena demasiados huecos. Eso rara vez viene del propio modelo. La mayoría de las veces, viene del prompt.
Si el prompt es demasiado genérico, la IA intentará ser útil a cualquier precio. En la práctica, eso significa:
- rellenar información que falta,
- construir respuestas a partir de conocimiento general en lugar de datos de la tienda,
- mezclar hechos con suposiciones,
- sonar demasiado segura cuando en realidad debería decir «no tengo datos suficientes».
Si el prompt está bien diseñado, el modelo empieza a comportarse de otra manera:
- respeta las fuentes,
- prioriza las FAQ y la recuperación,
- se mantiene centrado en el producto actual,
- no promete cosas que no están en los datos,
- y, lo más importante, ayuda al cliente a tomar una decisión sin inducirle a error.
Ese es el momento en el que la IA deja de ser una función impresionante y empieza a convertirse en una parte útil del módulo.
Un prompt no sustituye a los datos, pero establece las reglas del juego
La forma más sencilla de pensar en un prompt es verlo como una guía de onboarding para un nuevo miembro del equipo.
Imagina que una nueva persona se incorpora a tu equipo de atención al cliente. Le das acceso a:
- la descripción del producto,
- las FAQ aprobadas,
- los resultados del Vector Store,
- el historial de conversación del cliente.
Darle acceso a estos datos no garantiza que vaya a responder bien. Aun así, tienes que decirle:
- qué fuente debe usar primero,
- qué no puede asumir,
- cómo reaccionar cuando faltan datos,
- si debe responder de forma breve o detallada,
- si debe hacer preguntas aclaratorias,
- y cuándo debe redirigir al cliente a un formulario de contacto.
Un prompt hace exactamente lo mismo. No crea conocimiento. No arregla descripciones de producto débiles. No cubre huecos en la documentación. Define cómo debe gestionar el modelo la información que se le ha proporcionado.
Por eso, en nuestros módulos de IA, el prompt no es un extra. Es una capa de control.
Dónde afecta realmente el prompt al comportamiento del módulo
En teoría, un prompt son solo unas pocas frases. En la práctica, dirige comportamientos muy concretos.
En el AI Assistant de la página de producto, disponible en Kowal Ask About Product, el prompt influye, entre otras cosas, en:
- el tono de la respuesta,
- el idioma de la respuesta,
- lo concisa que es la respuesta,
- los límites del conocimiento del modelo,
- la prioridad de fuentes: contexto local, FAQ, recuperación, historial de conversación,
- el comportamiento cuando la pregunta es ambigua,
- cómo se gestionan las preguntas comparativas y de recomendación,
- cómo reacciona el asistente ante datos incompletos o contradictorios.
Por eso dos tiendas que usan el mismo módulo y el mismo modelo de IA pueden obtener resultados completamente distintos. No porque una tenga una «IA mejor», sino porque una definió con más claridad el papel y las limitaciones del asistente.
El primer error: un prompt que quiere ser amable en lugar de preciso
El error de implementación más habitual se parece a esto:
Responde como un asistente de tienda útil y ayuda al cliente a elegir el mejor producto.
Suena bien. Pero para el modelo no es suficiente. «Ayuda al cliente» sin límites adicionales suele significar:
- sé educado,
- sé convincente,
- intenta mantener la conversación en marcha,
- no dejes al cliente sin respuesta.
Y así es exactamente como aparecen respuestas que suenan bien, pero son débiles en contenido.
Un cliente pregunta por la compatibilidad con una versión concreta de un sistema. El modelo no puede ver esa información en los datos, pero quiere ayudar, así que responde con demasiada seguridad.
Un cliente pregunta por la implementación. El modelo no tiene todo el contexto técnico, pero aun así construye una respuesta que suena segura.
Un cliente pregunta por las diferencias entre productos. El modelo solo conoce bien uno de ellos, pero aun así construye una comparación porque el prompt no le dijo que no lo hiciera.
Este tipo de prompt no es débil porque sea corto. Es débil porque no define límites.
El segundo error: asumir que el modelo descubrirá las prioridades por sí solo
Si el módulo incluye:
- datos de producto,
- FAQ aprobadas,
- historial de conversación,
- Vector Store,
- AI Feed,
entonces el modelo necesita saber qué es lo más importante. En la práctica, esta arquitectura muestra claramente el valor de combinar Kowal Ask About Product con Kowal AI Product Feed for OpenAI Vector Store, porque solo entonces el prompt empieza a trabajar con datos estructurados y preparados para la recuperación.
Sin esta guía, el modelo empieza a tratarlo todo como igual de importante. Y entonces aparecen situaciones en las que:
- el resultado de la recuperación es correcto, pero el modelo se apoya demasiado en un contexto local anterior,
- las FAQ dicen algo específico, pero el modelo lo diluye con comentarios adicionales,
- el historial de conversación aporta tono y emoción, pero no debería situarse por encima de datos de producto sólidos.
Por eso un buen prompt debe indicarlo con claridad:
- primero la recuperación y las FAQ aprobadas,
- después los datos de producto estructurados,
- y finalmente el historial de conversación como contexto de apoyo.
Esto no es una cuestión estética de redacción. Es la diferencia entre una respuesta controlada y una respuesta que solo suena inteligente.
Cuando el prompt empieza a entender la tienda, no solo la IA
El momento más interesante en el trabajo con prompts llega cuando dejamos de escribir «para el modelo» y empezamos a escribir «para el tipo de tienda».
Porque una tienda que vende módulos de Magento no se enfrenta a los mismos riesgos que una tienda de moda.
En una tienda de software, los clientes preguntan por:
- compatibilidad,
- integraciones,
- requisitos,
- alcance de funcionalidades,
- limitaciones de implementación.
Aquí, la IA tiene que ser específica, cuidadosa y técnica. Es mejor que responda de forma breve pero honesta a que entregue una respuesta pulida sin fundamento.
En una tienda de electrónica, las prioridades son diferentes:
- especificaciones técnicas,
- compatibilidad de dispositivos,
- diferencias entre variantes,
- limitaciones de hardware.
Aquí, el prompt debería contener con firmeza al modelo siempre que empiece a adivinar compatibilidades.
En una tienda de moda, el centro de gravedad vuelve a cambiar:
- material,
- ajuste,
- tallaje,
- estilo,
- uso.
La IA puede sonar más natural ahí, pero aun así no debería prometer un ajuste perfecto si la tienda no proporciona tablas de tallas o directrices claras.
En una tienda B2B o técnica, el prompt debería ser todavía más disciplinado:
- sin relleno,
- sin adornos de marketing,
- comunicación clara de requisitos y limitaciones,
- disposición a decir «no lo sabemos» en lugar de difuminar el problema.
Esta es una lección importante: no existe un único prompt perfecto para todas las tiendas. Sin embargo, sí existe un conjunto de buenos principios y muchas especializaciones válidas.
Cómo es un buen prompt inicial
Un buen prompt inicial para un asistente de IA en la página de producto no debería ser excesivamente creativo. Debería ser estable.
En la práctica, debería responder a cinco preguntas:
- ¿Quién es el asistente?
- ¿Qué datos puede utilizar?
- ¿Qué no puede hacer?
- ¿Cómo debe responder?
- ¿Qué debe hacer cuando no sabe algo?
Por eso un prompt base sensato suena más como una instrucción operativa que como un eslogan de marketing.
El objetivo no es hacer que la IA «suene inteligente». El objetivo es asegurarse de que:
- no inventa datos,
- no va más allá del contexto proporcionado,
- responde en el idioma de la tienda,
- puede admitir cuando falta algo en los datos,
- hace una breve pregunta aclaratoria cuando es necesario.
Ese tipo de prompt no impresiona en una presentación. Pero funciona muy bien en una conversación real con un cliente.
El impacto real de un prompt se ve en las preguntas difíciles
Las preguntas fáciles no son una buena prueba para la IA. Si un cliente pregunta por algo claramente descrito en las FAQ, casi cualquier prompt funcionará razonablemente bien.
La verdadera diferencia aparece con preguntas más difíciles:
- «¿funcionará esto con mi configuración?»
- «¿este módulo es mejor que otro?»
- «¿puedo implementarlo sin un desarrollador?»
- «¿este producto resolverá mi problema concreto?»
- «¿es compatible con mi versión, tema o extensión?»
Estas son las preguntas en las que un prompt débil empuja al modelo a adivinar.
Un buen prompt hace lo contrario. Enseña al modelo que debe:
- ceñirse a los hechos,
- mantenerse centrado en el producto actual,
- señalar claramente la información que falta,
- evitar responder de forma demasiado amplia cuando el contexto es limitado.
Por eso un prompt bien diseñado reduce las respuestas arriesgadas con más eficacia que otro cambio estético en la interfaz.
El prompt debería madurar junto con el módulo
Hay algo más que es fácil pasar por alto: un prompt no es algo que configures una vez y olvides para siempre.
Al principio, una tienda puede operar solo con:
- datos de producto,
- unas pocas entradas de FAQ,
- contexto de conversación sencillo.
Después aparecen más capas:
- FAQ mejor estructuradas,
- store views,
- versiones de idioma,
- analítica de preguntas,
- candidatos para FAQ,
- Vector Store,
- AI Feed,
- retrieval-first.
Este es también el punto en el que Kowal AI Product Feed for OpenAI Vector Store deja de ser solo un complemento técnico y se convierte en una de las principales fuentes de conocimiento para el asistente que funciona en Kowal Ask About Product.
Y en ese punto, el prompt también debería evolucionar.
En una fase temprana, el objetivo principal es disciplinar al modelo y reducir las alucinaciones.
En una fase más madura, puedes controlar con más fuerza:
- la prioridad de recuperación,
- cómo se responden las preguntas de comparación,
- el comportamiento cuando los datos están incompletos,
- el estilo de respuesta adaptado a una tienda concreta.
Esta es una de las cosas más interesantes de trabajar con módulos de IA: el prompt evoluciona junto con la arquitectura de conocimiento de la tienda.
Por qué este es un tema sólido para un blog sobre implementaciones de IA
Porque el prompt es una de esas cosas que parecen menores desde fuera, pero que en la práctica tienen un impacto importante en la calidad de la implementación.
Es fácil centrarse en el modelo, la API, el Vector Store o la integración con un feed de producto. Todo eso importa. Pero el prompt es lo que hace que esos elementos empiecen a funcionar según reglas claras. Por eso, en la práctica, tiene sentido pensar en implementar Kowal Ask About Product junto con la capa de datos y recuperación proporcionada por Kowal AI Product Feed for OpenAI Vector Store.
Se puede resumir de forma sencilla:
- el modelo proporciona capacidad,
- los datos proporcionan sustancia,
- la recuperación proporciona acceso al conocimiento,
- pero el prompt define el método de operación.
Y precisamente por eso dos implementaciones construidas sobre la misma tecnología pueden ofrecer resultados de negocio muy diferentes.
Qué valdría la pena tratar en un artículo de continuación
Este tema abre de forma natural la puerta a varios artículos más:
- cómo probar un prompt con preguntas reales de clientes,
- cuándo pasar del modo híbrido a retrieval-first,
- cómo crear FAQ para la IA, no solo para SEO,
- cómo comprobar en los logs si el modelo está utilizando realmente el Vector Store,
- cómo preparar prompts diferentes para tiendas técnicas, de moda y B2B.
Reflexión final
Si solo hubiera una idea que recordar después de este artículo, sería esta:
el prompt no es un complemento de la IA. El prompt es la política de respuesta.
Decide si el modelo solo impresiona o si realmente es fiable. Si adivina o protege sus fuentes. Si suena «comercial» o ayuda de verdad al cliente a tomar una buena decisión.
En e-commerce, eso marca una enorme diferencia. Porque los clientes no necesitan una IA que solo suene bien. Necesitan una IA que responda de forma responsable.



