A un certo punto, quasi ogni progetto AI nell'e-commerce attraversa la stessa fase. All'inizio, tutto sembra promettente. Il modello risponde rapidamente, suona fluido, scrive frasi ordinate e dà l'impressione di 'sapere' di cosa sta parlando. Fa una bella figura in una demo. Ne fa una ancora migliore in una presentazione al cliente.
Poi arriva la realtà.
Un cliente apre una pagina prodotto e chiede:
- questo modulo funziona con la mia versione di Magento?
- questo prodotto supporta Amasty?
- in cosa questo modello è diverso da un altro?
- questa soluzione è adatta a uno store con più store view?
- posso implementarla senza lavoro di sviluppo aggiuntivo?
Ed è allora che diventa chiaro che l'AI non ha bisogno solo di un 'buon modello'. Ha bisogno di limiti. Ha bisogno di priorità delle fonti. Deve sapere quando rispondere direttamente, quando porre una domanda di chiarimento e quando dire onestamente: 'questa informazione non è presente nei dati'.
È qui che entra in gioco il prompt.
Nel nostro caso, questo non è un tema astratto. Il prompt influisce direttamente su come funziona Kowal Ask About Product e su come utilizza la conoscenza strutturata fornita da Kowal AI Product Feed for OpenAI Vector Store.
Lo stesso modello, due comportamenti molto diversi
Quando si lavora con moduli integrati con l'AI, una cosa diventa evidente molto rapidamente: lo stesso modello può comportarsi come un ottimo consulente oppure come un venditore che riempie troppi spazi vuoti. Questo raramente dipende dal modello stesso. Nella maggior parte dei casi dipende dal prompt.
Se il prompt è troppo generico, l'AI cercherà di essere utile a qualunque costo. In pratica, questo significa:
- colmare le informazioni mancanti,
- costruire risposte basate sulla conoscenza generale invece che sui dati dello store,
- mescolare fatti e supposizioni,
- apparire troppo sicura proprio dove dovrebbe dire 'non ho dati sufficienti'.
Se il prompt è progettato bene, il modello inizia a comportarsi in modo diverso:
- rispetta le fonti,
- dà priorità a FAQ e retrieval,
- rimane concentrato sul prodotto corrente,
- non promette cose che non sono presenti nei dati,
- e soprattutto aiuta il cliente a prendere una decisione senza fuorviarlo.
È il momento in cui l'AI smette di essere una funzionalità d'effetto e inizia a diventare una parte utile del modulo.
Un prompt non sostituisce i dati, ma stabilisce le regole del gioco
Il modo più semplice per pensare a un prompt è considerarlo come una guida di onboarding per un nuovo membro del team.
Immagina che una nuova persona entri nel tuo team di assistenza clienti. Le dai accesso a:
- la descrizione del prodotto,
- le FAQ approvate,
- i risultati dal Vector Store,
- la cronologia della conversazione del cliente.
Il solo accesso a questi dati non garantisce che risponderà bene. Devi comunque dirle:
- quale fonte usare per prima,
- cosa non è autorizzata a supporre,
- come reagire quando mancano dati,
- se deve rispondere in modo breve o dettagliato,
- se deve porre domande di chiarimento,
- e quando deve indirizzare il cliente a un modulo di contatto.
Un prompt fa esattamente la stessa cosa. Non crea conoscenza. Non corregge descrizioni prodotto deboli. Non colma lacune nella documentazione. Definisce come il modello deve gestire le informazioni che gli sono state fornite.
Per questo, nei nostri moduli AI, il prompt non è un extra. È un livello di controllo.
Dove il prompt influisce davvero sul comportamento del modulo
In teoria, un prompt è solo qualche frase. In pratica, guida comportamenti molto specifici.
Nell'AI Assistant sulla pagina prodotto, disponibile in Kowal Ask About Product, il prompt influenza, tra le altre cose:
- il tono della risposta,
- la lingua della risposta,
- quanto è concisa la risposta,
- i limiti della conoscenza del modello,
- la priorità delle fonti: contesto locale, FAQ, retrieval, cronologia della conversazione,
- il comportamento quando la domanda è ambigua,
- il modo in cui vengono gestite domande comparative e di raccomandazione,
- come l'assistente reagisce a dati incompleti o contrastanti.
Per questo due store che usano lo stesso modulo e lo stesso modello AI possono ottenere risultati completamente diversi. Non perché uno abbia un'AI 'migliore', ma perché uno ha definito con maggiore chiarezza il ruolo e i limiti dell'assistente.
Il primo errore: un prompt che vuole essere gentile invece che preciso
L'errore di implementazione più comune assomiglia a questo:
Rispondi come un assistente di store disponibile e aiuta il cliente a scegliere il prodotto migliore.
Suona bene. Ma per il modello non basta. 'Aiuta il cliente' senza limiti aggiuntivi spesso significa:
- sii gentile,
- sii convincente,
- cerca di mantenere viva la conversazione,
- non lasciare il cliente senza risposta.
Ed è proprio così che compaiono risposte che suonano bene ma sono deboli nella sostanza.
Un cliente chiede informazioni sulla compatibilità con una specifica versione del sistema. Il modello non vede quell'informazione nei dati, ma vuole aiutare, quindi risponde con troppa sicurezza.
Un cliente chiede informazioni sull'implementazione. Il modello non ha il contesto tecnico completo, ma costruisce comunque una risposta che suona sicura.
Un cliente chiede le differenze tra prodotti. Il modello conosce bene solo uno di essi, ma costruisce comunque un confronto perché il prompt non gli ha detto di non farlo.
Questo tipo di prompt non è debole perché è breve. È debole perché non definisce limiti.
Il secondo errore: presumere che il modello capirà da solo le priorità
Se il modulo include:
- dati prodotto,
- FAQ approvate,
- cronologia della conversazione,
- Vector Store,
- AI Feed,
allora il modello deve sapere cosa conta di più. In pratica, questa architettura mostra chiaramente il valore di combinare Kowal Ask About Product con Kowal AI Product Feed for OpenAI Vector Store, perché solo allora il prompt inizia a lavorare con dati strutturati e pronti per il retrieval.
Senza questa guida, il modello inizia a trattare tutto come ugualmente importante. E allora si creano situazioni in cui:
- il risultato del retrieval è corretto, ma il modello si affida troppo al contesto locale precedente,
- la FAQ dice qualcosa di specifico, ma il modello lo annacqua con commenti aggiuntivi,
- la cronologia della conversazione porta tono ed emozione, ma non dovrebbe superare dati prodotto solidi.
Per questo un buon prompt deve dichiararlo chiaramente:
- prima retrieval e FAQ approvate,
- poi dati prodotto strutturati,
- e infine cronologia della conversazione come contesto di supporto.
Non è una formulazione cosmetica. È la differenza tra una risposta controllata e una risposta che suona soltanto intelligente.
Quando il prompt inizia a capire lo store, non solo l'AI
Il momento più interessante nel lavoro sul prompt arriva quando smettiamo di scrivere 'per il modello' e iniziamo a scrivere 'per il tipo di store'.
Perché uno store che vende moduli Magento non affronta gli stessi rischi di uno store di moda.
In uno store di software, i clienti chiedono informazioni su:
- compatibilità,
- integrazioni,
- requisiti,
- ambito delle funzionalità,
- limiti di implementazione.
Qui l'AI deve essere specifica, prudente e tecnica. È meglio che risponda brevemente ma con onestà, piuttosto che fornire una risposta rifinita senza fondamento.
In uno store di elettronica, le priorità sono diverse:
- specifiche tecniche,
- compatibilità dei dispositivi,
- differenze tra varianti,
- limiti hardware.
Qui il prompt dovrebbe frenare con decisione il modello ogni volta che inizia a ipotizzare la compatibilità.
In uno store di moda, il baricentro si sposta di nuovo:
- materiale,
- vestibilità,
- taglie,
- stile,
- utilizzo.
Lì l'AI può suonare più naturale, ma non dovrebbe comunque promettere una vestibilità perfetta se lo store non fornisce tabelle taglie o linee guida chiare.
In uno store B2B o tecnico, il prompt dovrebbe essere ancora più disciplinato:
- niente fronzoli,
- niente decorazioni di marketing,
- comunicazione chiara di requisiti e limitazioni,
- prontezza nel dire 'non lo sappiamo' invece di sfumare il problema.
Questa è una lezione importante: non esiste un unico prompt perfetto per ogni store. Esiste però un insieme di buoni principi e molte specializzazioni valide.
Com'è fatto un buon prompt iniziale
Un buon prompt iniziale per un assistente AI sulla pagina prodotto non dovrebbe essere eccessivamente creativo. Dovrebbe essere stabile.
In pratica, dovrebbe rispondere a cinque domande:
- Chi è l'assistente?
- Quali dati può usare?
- Cosa non può fare?
- Come dovrebbe rispondere?
- Cosa dovrebbe fare quando non sa?
Per questo un prompt di base sensato suona più come un'istruzione operativa che come uno slogan di marketing.
L'obiettivo non è far 'sembrare intelligente' l'AI. L'obiettivo è assicurarsi che:
- non inventi dati,
- non vada oltre il contesto fornito,
- risponda nella lingua dello store,
- sappia ammettere quando qualcosa manca nei dati,
- ponga una breve domanda di chiarimento quando necessario.
Questo tipo di prompt non impressiona in una presentazione. Ma funziona molto bene in una conversazione reale con un cliente.
Il vero impatto di un prompt emerge nelle domande difficili
Le domande facili non sono un buon test per l'AI. Se un cliente chiede qualcosa descritto chiaramente nelle FAQ, quasi qualunque prompt se la caverà ragionevolmente bene.
La vera differenza emerge con domande più difficili:
- 'funzionerà con la mia configurazione?'
- 'questo modulo è migliore di un altro?'
- 'posso implementarlo senza uno sviluppatore?'
- 'questo prodotto risolverà il mio problema specifico?'
- 'è compatibile con la mia versione, il mio tema o la mia estensione?'
Queste sono le domande in cui un prompt debole spinge il modello a tirare a indovinare.
Un buon prompt fa l'opposto. Insegna al modello che dovrebbe:
- attenersi ai fatti,
- rimanere concentrato sul prodotto corrente,
- segnalare chiaramente le informazioni mancanti,
- evitare risposte troppo ampie quando il contesto è ristretto.
Per questo un prompt ben progettato riduce le risposte rischiose in modo più efficace di un'altra modifica cosmetica dell'interfaccia.
Il prompt dovrebbe maturare insieme al modulo
C'è un'altra cosa facile da sottovalutare: un prompt non è qualcosa che si imposta una volta e poi si dimentica per sempre.
All'inizio, uno store può operare solo con:
- dati prodotto,
- alcune voci FAQ,
- un semplice contesto di conversazione.
Poi compaiono più livelli:
- FAQ meglio strutturate,
- store view,
- versioni linguistiche,
- analisi delle domande,
- candidati per le FAQ,
- Vector Store,
- AI Feed,
- retrieval-first.
Questo è anche il momento in cui Kowal AI Product Feed for OpenAI Vector Store smette di essere solo un componente tecnico aggiuntivo e diventa una delle principali fonti di conoscenza per l'assistente in esecuzione in Kowal Ask About Product.
E a quel punto anche il prompt dovrebbe evolvere.
In una fase iniziale, l'obiettivo principale è disciplinare il modello e ridurre le allucinazioni.
In una fase più matura, puoi controllare più fortemente:
- la priorità del retrieval,
- come vengono risposte le domande di confronto,
- il comportamento quando i dati sono incompleti,
- lo stile di risposta adattato a uno store specifico.
Questa è una delle cose più interessanti del lavoro con i moduli AI: il prompt evolve insieme all'architettura della conoscenza dello store.
Perché questo è un tema forte per un blog sulle implementazioni AI
Perché il prompt è una di quelle cose che dall'esterno sembrano minori, ma nella pratica hanno un impatto importante sulla qualità dell'implementazione.
È facile concentrarsi sul modello, sull'API, sul Vector Store o sull'integrazione con un feed prodotto. Tutto questo conta. Ma il prompt è ciò che fa iniziare questi elementi a lavorare secondo regole chiare. Per questo, nella pratica, ha senso pensare all'implementazione di Kowal Ask About Product insieme al livello dati e retrieval fornito da Kowal AI Product Feed for OpenAI Vector Store.
Si può dirlo in modo semplice:
- il modello fornisce la capacità,
- i dati forniscono la sostanza,
- il retrieval fornisce l'accesso alla conoscenza,
- ma il prompt definisce il metodo operativo.
Ed è esattamente per questo che due implementazioni basate sulla stessa tecnologia possono generare risultati di business molto diversi.
Cosa varrebbe la pena approfondire in un articolo successivo
Questo tema apre naturalmente la porta a diversi altri articoli:
- come testare un prompt rispetto a domande reali dei clienti,
- quando passare dalla modalità ibrida al retrieval-first,
- come costruire FAQ per l'AI, non solo per la SEO,
- come verificare nei log se il modello sta effettivamente usando il Vector Store,
- come preparare prompt diversi per store tecnici, di moda e B2B.
Considerazione finale
Se ci fosse una sola idea da lasciare dopo questo articolo, sarebbe questa:
il prompt non è un componente aggiuntivo dell'AI. Il prompt è la policy di risposta.
Decide se il modello è solo impressionante o davvero affidabile. Se tira a indovinare o protegge le sue fonti. Se suona 'commerciale' o aiuta davvero il cliente a prendere una buona decisione.
Nell'e-commerce, questo fa una grande differenza. Perché i clienti non hanno bisogno di un'AI che suoni soltanto bene. Hanno bisogno di un'AI che risponda in modo responsabile.



