Chatbot AI su WordPress: Cosa Funziona e Cosa È Solo Marketing
Il 90% dei chatbot WordPress sono glorified FAQ con un’interfaccia chat. Li configuri con 20 domande/risposte, li metti in basso a destra, e rispondono solo a frasi esatte. Non è AI. È un albero decisionale con le bolle.
I chatbot AI veri (quelli che usano un LLM come GPT-4 o Claude) sono diversi. Capiscono il contesto, rispondono a domande che non hai previsto, e possono consultare la knowledge base del tuo sito in tempo reale. Ma costano di più, richiedono configurazione seria, e possono dire cose sbagliate se non li guidi.
Questo articolo confronta le soluzioni reali, con pro, contro, costi e limitazioni oneste.
Le 3 Categorie di Chatbot WordPress
Categoria 1: chatbot basati su regole (non AI)
Plugin come Tidio (versione base), WP-Chatbot, Formilla. Funzionano con flussi predefiniti: “se l’utente scrive X, rispondi Y”.
| Pro | Contro |
|---|---|
| Setup in 10 minuti | Rispondono solo a frasi previste |
| Costo basso o gratis | Esperienza frustrante per l’utente |
| Nessun rischio di risposte sbagliate | Non scalano: 100 domande = 100 regole manuali |
| GDPR-friendly (dati in locale) | Nessuna comprensione del linguaggio naturale |
Quando usarli: se hai 10-15 domande ricorrenti molto specifiche e vuoi deflettere ticket di supporto senza rischi. Stop.
Categoria 2: chatbot AI con knowledge base
Plugin come Tidio AI, Chatbase, DocsBot, CustomGPT. Collegano un LLM alla documentazione del tuo sito e rispondono basandosi su quel contenuto.
| Pro | Contro |
|---|---|
| Capiscono domande non previste | Costo $20-100/mese per piani seri |
| Si alimentano dai tuoi contenuti | Possono “allucinare” (inventare risposte) |
| Scalano senza aggiungere regole | I dati passano per server esterni (privacy) |
| Esperienza utente superiore | Richiedono monitoraggio delle risposte |
Quando usarli: se hai documentazione corposa (50+ pagine), un volume di domande che non riesci a gestire manualmente, e budget per il monitoraggio.
Categoria 3: chatbot AI custom (build your own)
Costruisci il chatbot usando le API di Claude o OpenAI, con RAG (Retrieval Augmented Generation) sui contenuti del tuo WordPress.
| Pro | Contro |
|---|---|
| Controllo totale su modello, prompt, dati | Settimane di sviluppo |
| I dati restano sul tuo server | Manutenzione continua |
| Personalizzazione illimitata | Serve competenza tecnica seria |
| Costi API puri (nessun markup SaaS) | Devi gestire embedding, vector DB, etc. |
Quando usarlo: se hai un team tecnico, requisiti di privacy stringenti (PA, healthcare), o un volume tale che il costo SaaS supera lo sviluppo custom.
Implementare un Chatbot AI Custom su WordPress
Se scegli la categoria 3, ecco l’architettura base:
L’architettura RAG per WordPress
Utente digita domanda
↓
WordPress (frontend) invia la query
↓
Backend cerca i contenuti rilevanti (embedding + vector search)
↓
I contenuti trovati + la domanda vengono inviati all'LLM
↓
L'LLM genera la risposta basandosi SOLO sui contenuti forniti
↓
La risposta torna all'utente con link alle fonti
Il pezzo critico è il RAG: Retrieval Augmented Generation. Invece di lasciare che l’LLM risponda dalla sua conoscenza generale (con rischio di allucinazione), gli fornisci i contenuti rilevanti dal tuo sito e gli dici “rispondi solo basandoti su questo”.
Lo stack tecnico
- Embedding: OpenAI text-embedding-3-small o Cohere embed-v3 per vettorizzare i contenuti
- Vector DB: Pinecone (cloud), Qdrant (self-hosted), o ChromaDB (locale/dev)
- LLM: Claude Sonnet (buon rapporto qualità/costo) o GPT-4o-mini (più economico)
- Frontend: widget JavaScript nel footer di WordPress
- Backend: endpoint REST API WordPress o microservizio FastAPI separato
Il prompt di sistema
Questa è la parte più importante. Il prompt di sistema determina la personalità, i limiti e la qualità delle risposte.
$system = "Sei l'assistente AI di [NomeSito]. Rispondi SOLO basandoti sui contenuti forniti nel contesto.
Regole:
1. Se la risposta non è nei contenuti forniti, di' 'Non ho informazioni su questo argomento. Contatta il supporto a support@tuosito.com'
2. Cita sempre la fonte: 'Secondo la nostra guida [Titolo]...'
3. Rispondi in italiano, tono professionale ma amichevole
4. Massimo 200 parole per risposta
5. Se la domanda è ambigua, chiedi di specificare
6. Non inventare MAI informazioni, prezzi, o funzionalità non presenti nel contesto";
La regola #1 è la più importante. Senza di essa, l’LLM inventerà risposte plausibili ma false. Con essa, ammette onestamente di non sapere. Meglio un “non so” che una bugia.
Costi Reali dei Chatbot AI
| Soluzione | Costo mensile | Conversazioni incluse | Setup |
|---|---|---|---|
| Tidio AI | $29-$59 | 50-100 AI risposte | 30 min |
| Chatbase | $19-$99 | 1000-5000 messaggi | 1 ora |
| DocsBot | $19-$49 | 1000-5000 query | 1 ora |
| Custom (Claude API) | $3-10 (solo API) | Illimitate | 20-40 ore dev |
Il punto di break-even per il custom: se spendi più di $50/mese per un SaaS chatbot e hai un developer disponibile, il custom si ripaga in 3-4 mesi.
Errori da Evitare
- Nessun fallback umano: il chatbot AI DEVE avere un’opzione “parla con un umano”. Se l’utente gira in cerchio, la frustrazione diventa odio per il tuo brand
- Knowledge base non aggiornata: se aggiungi un prodotto nuovo e non aggiorni gli embedding, il chatbot dice “non esiste”. Automatizza la re-indicizzazione
- Nessun monitoraggio: logga ogni conversazione. Leggi quelle dove il chatbot ha risposto “non so”. Sono i gap della tua documentazione
- Aspettative irrealistiche: un chatbot AI non è un sostituto del customer support. È un filtro di primo livello che risolve il 60-70% delle domande semplici. Il resto va agli umani
FAQ
Un chatbot AI rallenta WordPress?
No, se implementato correttamente. Il widget frontend è un file JavaScript leggero (10-20KB). Le chiamate API avvengono lato client o via endpoint REST asincrono. L’impatto sui Core Web Vitals è trascurabile se carichi il widget dopo il DOMContentLoaded.
I chatbot AI rispettano il GDPR?
Dipende dalla soluzione. I SaaS cloud (Chatbase, Tidio) processano i dati su server esterni: serve informativa privacy aggiornata e, in alcuni casi, DPA con il fornitore. Le soluzioni custom con LLM su API (Claude, OpenAI) inviano solo il testo della conversazione, non dati personali (a meno che l’utente li scriva). La scelta più GDPR-friendly è il setup custom con vector DB self-hosted.
Posso usare il chatbot per vendere su WooCommerce?
Sì, ed è un caso d’uso forte. Il chatbot può: suggerire prodotti basandosi sulla domanda, rispondere a domande su taglie/spedizioni/resi, e guidare verso il checkout. Ma non lasciare che gestisca ordini o pagamenti direttamente. Troppo rischioso.
Quale soluzione per un sito con requisiti PA?
Custom, senza dubbio. La PA richiede: dati che restano in UE, accessibilità WCAG del widget, logging completo delle conversazioni, e nessun dato inviato a server extra-UE senza base legale. I SaaS americani non soddisfano questi requisiti di default.