//AI in Azienda: Partiamo col BOT! Parte 3
- Max

- 27 feb 2024
- Tempo di lettura: 4 min
Una delle mie motivazioni più grandi nello scrivere riguardo l’AI riguarda la profonda convinzione che l’AI vada COMPRESA. Nella prima parte di questa serie ho introdotto gli Assistenti AI, poi ho cercato di capire la loro dieta per raccontarvela.
Ora entriamo nel dettaglio del loro funzionamento. Perché serve comprendere l’AI per affrontarla con il giusto approccio.

A proposito, i compiti per oggi erano di pensare se il primo piccolo progetto poteva essere un Assistente pubblico o privato (ovvero solo per la vostra organizzazione), ed alimentato con dati pubblici o privati.
Li avete fatti?
Avete scelto di partire con un Assistente Privato basato su Dati Pubblici?
Bene, è la scelta giusta. Le altre combinazioni hanno tutte gradi di difficoltà, e rischio, molto più alte per partire.
E ora vediamo di capire come sono fatti.
Cosa c'è dietro le quinte?
Il 2023 è stato l’anno che ha visto centinaia di “soluzioni già pronte” dedicate ad interagire con i vostri documenti o a creare un questo tipo di soluzioni.
Capire come sono fatte, anche se non siete dei tecnici, vi può aiutare a far chiarezza sul tipo di risultati che potete ottenere.
Ad esempio molti confondono l’AI con i motori di ricerca (Non che le società che sviluppano entrambi cerchino di dirvi qualcosa di diverso). Ma le cose stanno in modo diverso: l’AI Generativa NON CERCA in un archivio ma cerca solo di prevedere la miglior parola successiva (Qui trovate un mio post di qualche tempo fa sull’argomento).
In ogni caso le soluzioni migliori combinano tecnologie diverse come l’AI Generativa, software tradizionale (Come le interfacce di Chat), Database tradizionali o vettoriali (che, spiegato semplice servono per memorizzare i dati in modo accessibile agli algoritmi), API (Ovvero interfacce che servono per far parlare tra loro i software) e tecniche miste quali il RAG (Retrieval Augmented Generation) di cui ho già parlato da qualche parte nel blog.
E ora pillola azzurra o pillola rossa?
🔵 Pillola azzurra: se non volete soffrire sui tecnicismi fermatevi qui, non mi offendo. Potete saltare il prossimo paragrafo senza problemi: vi basta cliccare qui 🙂
🔴 Pillola rossa: continuate a leggere ed entrate, poco poco, in ambito tecnico e, prima di prendere decisioni, cercate di capire come sono strutturate le architetture che permetteranno alla vostra azienda di utilizzare al meglio le AI Generative. Pur considerando che le cose cambiano molto velocemente e dovrete essere bravi a cogliere il cambiamento.
🔴 Come è fatto un Assistente AI dietro le quinte?
Avete scelto la pillola rossa, bene!
Di seguito trovate un’architettura tipica di un Assistente AI in grado di utilizzare, oltre al modello di AI Generativa selezionato, anche i vostri documenti e dati presenti sui diversi database.
Ovviamente ogni soluzione è a sé e potrebbe differire. Ma questa rappresentazione da un’idea abbastanza generale e chiara di come funzionino. Poi, come sempre in informatica, è complicabile a piacere.
Un’architettura tipica di una soluzione di Chatbot basata su AI Generativa con tecnologia RAG. Le parti in BLU sono software 'normali'. In viola quelle più legate ai nuovi mondi dell'AI. Quelle in arancio sono i vostri dati sia in input che in output.
Se non vi piacciono i video cliccate qui...
…qui trovate le descrizioni dei diversi punti
Un’architettura tipica di una soluzione di Chatbot basata su AI Generativa con tecnologia RAG. Le parti in BLU sono normalmente già fatte. Quelle in arancio sono i vostri dati sia in input che in output.
Prompt: Questo è il punto di partenza, gli utenti inseriranno la loro domanda o problema (il prompt). E lo faranno sulla UI - Interfaccia Utente solitamente integrata nella soluzione che avrete scelto.
Query: La vostra domanda viene trasformata dal motore del Bot in una ricerca visto che riguarda informazioni di vostra proprietà che il modello di AI non ha a bordo. Il sistema cerca nelle sue fonti di conoscenza la risposta migliore, un po' come quando cercate qualcosa su Google.
Info: Ecco che arriva l'informazione necessaria, recuperata da un database (DB) o da una collezione di documenti (DOCS).
Prompt + Instructions + Query + Info: Qui avvengono un po’ di cose: l’orchestratore, un software tradizionale, recupera le istruzioni personalizzate che gli avete fornito voi, aggiunge il prompt utente, le informazioni trovate sulla vostra base dati complete della loro query, la domanda originale dell’utente e le invia al modello di AI Generativa (GPT-4.0 ad esempio). Le informazioni vengono gestite dall’API del modello che le elabora, e prepara la risposta.
Answer: Viene consegnata la risposta all’Orchestratore.
Analytics: Il sistema sa che è necessario analizzare ciò che accade al suo interno. Quindi archivia ogni richiesta e risposta e crea le metriche che vi serviranno a controllarlo e monitorarlo in futuro.
Answer: finalmente la risposta arriva all’utente che ha espresso la domanda nel prompt. E il ciclo continua.
Ma leggono e generano testo e basta?
No!
Non l’ho inserito nel grafico ma non vorrei dilungarmi qui perché questo è un argomento importante e che merita tutto il suo spazio. Gli Assistenti AI si stanno già evolvendo in Agenti AI. Ovvero in software che, sfruttando le dinamiche conversazionali degli LLM, eseguano azioni ed automazioni sui sistemi software tradizionali (e non) su cui possono operare.
Ci sono vari livelli di autonomia nelle decisioni che possono prendere questi Agenti. Il primo livello, il più facile, è quello che prevede di fargli eseguire azioni pre-configurate. In Chat GPT, Si chiamano Actions e ne parlo nel secondo capitolo sui GPTs.
Già con questo primo livello di autonomia un assistente potrebbe:
Aprire automaticamente un ticket sul vostro helpdesk come in questo esempio che stiamo utilizzando in greenride.it:

2. Eseguire attività sul vostro ERP (Creare documenti, eseguire workflow)
3. Produrre contenuti grafici (Ad esempio su Canva o in Powerpoint)
4. Pubblicare contenuti sui Social
5. Eseguire azioni costruite su motori di automazione come n8n o Zapier come la seguente, un workflow gestibile da un Agente basato su LLM estratto dal workshop CEO EMPOWERMENT di VJAL INSTITUTE.

e… ogni migliaio di attività di automazione software vi venga in mente di eseguire partendo da un prompt.
Ora che abbiamo capito un po’ di più che siamo davanti ad una soluzione composta da software tradizionale e modelli LLM arriva la domanda importante:
Lo compriamo o lo facciamo?
Le architetture possono variare anche molto e non sempre sono esplicitate dai fornitori che le offrono. Scegliere se partire con una soluzione fatta in casa o acquistata già pronta dipende da molti fattori.
Avete sostanzialmente queste possibilità:
Adottare soluzioni Chiavi in Mano realizzate per questo scopo da grandi o piccole realtà emergenti.
Costruire una soluzione personalizzata.
Ne parliamo nella prossima puntata. Non vi dò compiti per casa ma vi consiglio di arrivare preparati ripassando tutti i post precedenti.
🚀 Per tenerti sempre aggiornato sui miei contenuti:
📝 Iscriviti al Blog Glimpse per non perderti neanche un aggiornamento
📚 Dai un'occhiata a 'Glimpse', il mio romanzo sull'intelligenza artificiale
🗓️ Contattami se vuoi organizzare un Workshop sull’AI o per qualunque idea.
A presto!
Massimiliano



Commenti