A certa altura, quase todos os projetos de IA em e-commerce passam pela mesma fase. No início, tudo parece promissor. O modelo responde rapidamente, soa fluente, escreve frases bem construídas e dá a impressão de que «sabe» do que está a falar. Fica bem numa demo. Fica ainda melhor numa apresentação ao cliente.
Depois chega a realidade.
Um cliente abre uma página de produto e pergunta:
- este módulo funciona com a minha versão do Magento?
- este produto suporta Amasty?
- em que é que este modelo é diferente de outro?
- esta solução é adequada para uma loja com várias store views?
- posso implementá-la sem trabalho de desenvolvimento adicional?
E é aí que se torna claro que a IA não precisa apenas de um «bom modelo». Precisa de limites. Precisa de prioridade das fontes. Precisa de saber quando responder diretamente, quando fazer uma pergunta de esclarecimento e quando dizer honestamente: «essa informação não está nos dados».
É aqui que entra o prompt.
No nosso caso, este não é um tema abstrato. O prompt afeta diretamente a forma como o Kowal Ask About Product funciona e como utiliza o conhecimento estruturado fornecido pelo Kowal AI Product Feed for OpenAI Vector Store.
O mesmo modelo, dois comportamentos muito diferentes
Ao trabalhar com módulos integrados com IA, uma coisa torna-se óbvia muito rapidamente: o mesmo modelo pode comportar-se como um consultor muito competente ou como um vendedor que preenche demasiadas lacunas. Isso raramente vem do próprio modelo. Na maioria das vezes, vem do prompt.
Se o prompt for demasiado genérico, a IA tentará ser útil a qualquer custo. Na prática, isso significa:
- preencher informação em falta,
- construir respostas a partir de conhecimento geral em vez de dados da loja,
- misturar factos com suposições,
- soar demasiado confiante quando, na verdade, deveria dizer «não tenho dados suficientes».
Se o prompt for bem concebido, o modelo começa a comportar-se de outra forma:
- respeita as fontes,
- dá prioridade às FAQ e à recuperação de informação,
- mantém-se focado no produto atual,
- não promete coisas que não estão nos dados,
- e, mais importante, ajuda o cliente a tomar uma decisão sem o induzir em erro.
É nesse momento que a IA deixa de ser uma funcionalidade impressionante e começa a tornar-se uma parte útil do módulo.
Um prompt não substitui os dados, mas define as regras do jogo
A forma mais simples de pensar num prompt é vê-lo como um guia de integração para um novo membro da equipa.
Imagine que uma nova pessoa entra na sua equipa de apoio ao cliente. Dá-lhe acesso a:
- a descrição do produto,
- FAQ aprovadas,
- resultados do Vector Store,
- o histórico de conversa do cliente.
Dar-lhe simplesmente acesso a estes dados não garante que responda bem. Continua a ser necessário dizer-lhe:
- que fonte deve usar primeiro,
- o que não está autorizada a assumir,
- como deve reagir quando faltam dados,
- se deve responder de forma breve ou detalhada,
- se deve fazer perguntas de esclarecimento,
- e quando deve encaminhar o cliente para um formulário de contacto.
Um prompt faz exatamente o mesmo. Não cria conhecimento. Não corrige descrições de produto fracas. Não preenche lacunas de documentação. Define como o modelo deve lidar com a informação que lhe foi fornecida.
É por isso que, nos nossos módulos de IA, o prompt não é um extra. É uma camada de controlo.
Onde o prompt realmente afeta o comportamento do módulo
Em teoria, um prompt é apenas algumas frases. Na prática, orienta comportamentos muito específicos.
No AI Assistant na página de produto, disponível no Kowal Ask About Product, o prompt influencia, entre outras coisas:
- o tom da resposta,
- o idioma da resposta,
- o quão concisa é a resposta,
- os limites do conhecimento do modelo,
- a prioridade das fontes: contexto local, FAQ, recuperação de informação, histórico de conversa,
- o comportamento quando a pergunta é ambígua,
- a forma como perguntas comparativas e de recomendação são tratadas,
- como o assistente reage a dados incompletos ou contraditórios.
É por isso que duas lojas que usam o mesmo módulo e o mesmo modelo de IA podem obter resultados completamente diferentes. Não porque uma tenha «melhor IA», mas porque uma definiu o papel e as limitações do assistente com mais clareza.
O primeiro erro: um prompt que quer ser simpático em vez de preciso
O erro de implementação mais comum é algo deste género:
Responde como um assistente de loja prestável e ajuda o cliente a escolher o melhor produto.
Soa bem. Mas, para o modelo, não é suficiente. «Ajudar o cliente» sem limites adicionais muitas vezes significa:
- ser educado,
- ser convincente,
- tentar manter a conversa a avançar,
- não deixar o cliente sem resposta.
E é exatamente assim que surgem respostas que soam bem, mas são fracas em substância.
Um cliente pergunta sobre compatibilidade com uma versão específica de um sistema. O modelo não consegue ver essa informação nos dados, mas quer ajudar, por isso responde com demasiada segurança.
Um cliente pergunta sobre implementação. O modelo não tem o contexto técnico completo, mas ainda assim constrói uma resposta que soa confiante.
Um cliente pergunta sobre diferenças entre produtos. O modelo conhece bem apenas um deles, mas ainda assim constrói uma comparação porque o prompt não lhe disse para não o fazer.
Este tipo de prompt não é fraco por ser curto. É fraco porque não define limites.
O segundo erro: assumir que o modelo vai descobrir as prioridades sozinho
Se o módulo inclui:
- dados de produto,
- FAQ aprovadas,
- histórico de conversa,
- Vector Store,
- AI Feed,
então o modelo precisa de saber o que é mais importante. Na prática, esta arquitetura mostra claramente o valor de combinar o Kowal Ask About Product com o Kowal AI Product Feed for OpenAI Vector Store, porque só então o prompt começa a trabalhar com dados estruturados e prontos para recuperação.
Sem esta orientação, o modelo começa a tratar tudo como igualmente importante. E então surgem situações em que:
- o resultado da recuperação está correto, mas o modelo apoia-se demasiado no contexto local mais antigo,
- a FAQ diz algo específico, mas o modelo dilui a resposta com comentários adicionais,
- o histórico da conversa transporta tom e emoção, mas não deve sobrepor-se a dados de produto concretos.
É por isso que um bom prompt deve indicar isto de forma clara:
- primeiro a recuperação de informação e as FAQ aprovadas,
- depois os dados estruturados do produto,
- e por fim o histórico de conversa como contexto de apoio.
Isto não é uma formulação cosmética. É a diferença entre uma resposta controlada e uma resposta que apenas soa inteligente.
Quando o prompt começa a compreender a loja, não apenas a IA
O momento mais interessante no trabalho com prompts surge quando deixamos de escrever «para o modelo» e começamos a escrever «para o tipo de loja».
Porque uma loja que vende módulos Magento não enfrenta os mesmos riscos que uma loja de moda.
Numa loja de software, os clientes perguntam sobre:
- compatibilidade,
- integrações,
- requisitos,
- âmbito das funcionalidades,
- limitações de implementação.
Aqui, a IA tem de ser específica, cuidadosa e técnica. É melhor responder de forma breve mas honesta do que apresentar uma resposta polida sem base.
Numa loja de eletrónica, as prioridades são diferentes:
- especificações técnicas,
- compatibilidade de dispositivos,
- diferenças entre variantes,
- limitações de hardware.
Aqui, o prompt deve conter fortemente o modelo sempre que este começa a adivinhar compatibilidade.
Numa loja de moda, o centro de gravidade muda novamente:
- material,
- caimento,
- tamanhos,
- estilo,
- utilização.
A IA pode soar mais natural neste caso, mas ainda assim não deve prometer um ajuste perfeito se a loja não fornecer tabelas de tamanhos ou orientações claras.
Numa loja B2B ou técnica, o prompt deve ser ainda mais disciplinado:
- sem floreados,
- sem adornos de marketing,
- comunicação clara de requisitos e limitações,
- disponibilidade para dizer «não sabemos isso» em vez de tornar a questão difusa.
Esta é uma lição importante: não existe um prompt único perfeito para todas as lojas. Existe, no entanto, um conjunto de bons princípios e muitas especializações válidas.
Como é um bom prompt inicial
Um bom prompt inicial para um assistente de IA na página de produto não deve ser demasiado criativo. Deve ser estável.
Na prática, deve responder a cinco perguntas:
- Quem é o assistente?
- Que dados está autorizado a usar?
- O que não está autorizado a fazer?
- Como deve responder?
- O que deve fazer quando não sabe?
É por isso que um prompt base sensato soa mais como uma instrução operacional do que como um slogan de marketing.
O objetivo não é fazer a IA «parecer inteligente». O objetivo é garantir que:
- não inventa dados,
- não vai além do contexto fornecido,
- responde no idioma da loja,
- consegue admitir quando algo está em falta nos dados,
- faz uma pergunta curta de esclarecimento quando necessário.
Esse tipo de prompt não impressiona numa apresentação. Mas funciona muito bem numa conversa real com um cliente.
O verdadeiro impacto de um prompt aparece nas perguntas difíceis
Perguntas fáceis não são um bom teste para a IA. Se um cliente pergunta sobre algo claramente descrito nas FAQ, quase qualquer prompt terá um desempenho razoável.
A verdadeira diferença aparece com perguntas mais difíceis:
- «isto vai funcionar com a minha configuração?»
- «este módulo é melhor do que outro?»
- «posso implementar isto sem um programador?»
- «este produto vai resolver o meu problema específico?»
- «isto é compatível com a minha versão, tema ou extensão?»
Estas são as perguntas em que um prompt fraco empurra o modelo para a adivinhação.
Um bom prompt faz o oposto. Ensina o modelo que deve:
- manter-se nos factos,
- manter-se focado no produto atual,
- assinalar claramente a informação em falta,
- evitar responder de forma demasiado ampla quando o contexto é restrito.
É por isso que um prompt bem concebido reduz respostas arriscadas de forma mais eficaz do que outra alteração cosmética na interface.
O prompt deve amadurecer juntamente com o módulo
Há mais uma coisa que é fácil ignorar: um prompt não é algo que se configura uma vez e se esquece para sempre.
No início, uma loja pode funcionar apenas com:
- dados de produto,
- algumas entradas de FAQ,
- contexto simples de conversa.
Depois surgem mais camadas:
- FAQ melhor estruturadas,
- store views,
- versões linguísticas,
- analítica de perguntas,
- candidatos a FAQ,
- Vector Store,
- AI Feed,
- retrieval-first.
Este é também o ponto em que o Kowal AI Product Feed for OpenAI Vector Store deixa de ser apenas um add-on técnico e se torna uma das principais fontes de conhecimento para o assistente que corre no Kowal Ask About Product.
E, nesse momento, o prompt também deve evoluir.
Numa fase inicial, o principal objetivo é disciplinar o modelo e reduzir alucinações.
Numa fase mais madura, pode controlar de forma mais forte:
- a prioridade da recuperação de informação,
- como são respondidas perguntas de comparação,
- o comportamento quando os dados estão incompletos,
- o estilo de resposta adaptado a uma loja específica.
Essa é uma das coisas mais interessantes no trabalho com módulos de IA: o prompt evolui juntamente com a arquitetura de conhecimento da loja.
Porque este é um tema forte para um blog sobre implementações de IA
Porque o prompt é uma daquelas coisas que parecem menores vistas de fora, mas que têm um grande impacto na qualidade da implementação na prática.
É fácil focar-se no modelo, na API, no Vector Store ou na integração com um feed de produto. Tudo isso é importante. Mas o prompt é o que faz com que esses elementos comecem a trabalhar segundo regras claras. É por isso que, na prática, faz sentido pensar na implementação do Kowal Ask About Product juntamente com a camada de dados e recuperação fornecida pelo Kowal AI Product Feed for OpenAI Vector Store.
Pode resumir-se assim:
- o modelo fornece capacidade,
- os dados fornecem substância,
- a recuperação fornece acesso ao conhecimento,
- mas o prompt define o método de funcionamento.
E é exatamente por isso que duas implementações construídas sobre a mesma tecnologia podem produzir dois resultados de negócio muito diferentes.
O que valeria a pena abordar num artigo seguinte
Este tema abre naturalmente a porta a vários outros artigos:
- como testar um prompt com perguntas reais de clientes,
- quando passar do modo híbrido para retrieval-first,
- como construir FAQ para IA, e não apenas para SEO,
- como verificar nos logs se o modelo está realmente a usar o Vector Store,
- como preparar diferentes prompts para lojas técnicas, de moda e B2B.
Reflexão final
Se houvesse apenas uma ideia a reter deste artigo, seria esta:
o prompt não é um add-on da IA. O prompt é a política de resposta.
Ele decide se o modelo é apenas impressionante ou se é realmente fiável. Se adivinha ou protege as suas fontes. Se soa «comercial» ou se ajuda genuinamente o cliente a tomar uma boa decisão.
No e-commerce, isso faz uma enorme diferença. Porque os clientes não precisam de IA que apenas soa bem. Precisam de IA que responde de forma responsável.



