Passa al contenuto principale

Come funziona l’AI e cosa c’è da sapere su di lei, tra fantasia e realtà

Ho interrogato i tecnici Momit per raccontarvi in modo facile come funziona l’intelligenza artificiale, così che possiate farvene un’opinione veritiera, non fantascientifica né disincantata, da portare alle cene tra amici reali.

Innanzitutto, per conoscere l’AI serve sapere come viene allenata e qui voglio portarvi per un attimo fuori strada. Seguitemi: serve! 

Avete presente Bruno Munari, l’artista? Nel suo libro “Fantasia” scombina, combina e ricombina elementi diversi per allenare proprio la fantasia. Il processo funziona così: 

  • impara le regole e le combinazioni possibili,
  • genera nuove combinazioni.  

Così nascono il gatto blu, il libro illeggibile e altre fantasticherie. 

Ora, se il nostro cervello fosse un calcolatore con la stessa potenza dei server dell’AI, ecco che usando il metodo di Munari potremmo generare combinazioni infinite di cose fantastiche, usando una quantità infinita di elementi differenti. 

In modo semplicistico si potrebbe dire che l’AI combina elementi linguistici – sottolineo: linguistici – infiniti, infinite volte, per sembrare onnisciente. Non lo fa con l’obiettivo di inventare qualcosa di nuovo (e ci mancherebbe!), ma lo fa per fornire risposte plausibili. 

L’AI e l’allenamento dei neuroni

Per l’AI l’allenamento è prima di tutto un fatto statistico: in effetti non sa davvero le cose e non capisce quello che le diciamo. ChatGPT, Gemini e tutti gli altri riconoscono i pattern che hanno visto applicare da noi umani miliardi di volte. E li riapplicano meccanicamente.

Possono farlo grazie all’inserimento di quantità inimmaginabili di testi, parole e strutture grammaticali, catalogate con i modelli LLM – Large Language Model – e SLM – Small Language Model, che addestrano l’AI a combinare gli elementi linguistici, in relazione al contesto.

Si viene così a creare una rete chiamata “neuronale” perché crea interazione tra i dati, simulando i collegamenti che facciamo noi con il nostro cervello umano. 

In sintesi, come Munari: 

  • Impara le regole del nostro linguaggio e le combinazioni possibili,
  • genera nuove combinazioni.  

Ad esempio, se avessi chiesto all’AI di creare la scaletta per questo articolo, le avrei fornito attraverso il prompt delle informazioni di contesto: “come funziona l’AI”; “allenamento”; “spiegazione facile”. Lei, per generare la sua proposta, avrebbe richiamato tutte le associazioni di parole e significati statisticamente correlati al contesto e le avrebbe organizzate in modo linguisticamente logico, copiando il modello umano.

Quando scrivo “tutte” intendo…tutte: miliardi di parole che le vengono date in pasto in tutte le lingue, in tutto il mondo.
In questo modo non mi avrebbe dato una scaletta già pronta, copiata da qualche ignaro autore, ma l’avrebbe generata. L’AI non copia, non si ripete, ma rimescola all’infinito, inclusa la mia ipotetica scaletta.

Di fantasia, virtù: lo Stregatto e l’AI

Facciamo un altro esempio, in piccolo. Stregatto, l’aiutante di Alice nel paese delle meraviglie, è anche un’abile AI open-source, che può essere personalizzata per semplificare l’operatività. 

Se ad esempio, allenassimo Stregatto con i preventivi fatti in Momit a tutti i clienti negli ultimi dieci anni, potremmo poi chiedergli il valore medio di vendita dell’hosting o formulare una nuova offerta in pochi secondi. 

Il nostro Stregatto non sarebbe in grado di rispondere a “quando tempo ci vuole per cuocere la pasta”, ma conosce il linguaggio e il contesto finanziario delle offerte di un service provider. 

L’AI parla perfettamente, ma può sbagliare

Possiamo dire che l’AI sia inappuntabile o quasi dal punto di vista della forma. Dove lascia ancora a desiderare è nella parte di calcolo – le connessioni logiche – proprio perché non è intelligente per davvero. 

Per tornare all’esempio della scaletta di questo articolo, con quei pochi dati avrebbe generato qualcosa di terribilmente generico, ripetitivo e poco interessante. Per avere più dettaglio, serve fornire al modello più informazioni di contesto e dunque conoscerlo. 

E allora faccio prima a chiedere ai tecnici Momit, che lo sanno per davvero! 

Le allucinazioni non sono fantasia, ma apprendimento sintetico

Quando l’AI si allena con contenuti che lei stessa ha prodotto, si parla di apprendimento sintetico e gli errori che ne derivano vengono chiamati allucinazioni, impeccabili dal punto di vista linguistico, ma non nel contenuto. 

Per completezza d’informazione: le allucinazioni possono essere dovute anche alla probabilità statistica (l’errore che conferma la regola), alla mancanza di dati o dall’ambiguità del prompt. 

Fatto sta che sarebbe sempre bene non accontentarsi della risposta, ma chiedere le fonti e verificarle: ad oggi questo è l’unico modo per essere certi di ricevere una risposta inappuntabile. 

Pensate in particolar modo all’AI overview, il paragrafo che Google ha integrato in testa alla lista dei risultati: si tratta di un’elaborazione linguistica, mentre le fonti sono citate e linkate a lato. Se avete un dubbio o se l’argomento è sensibile, apritele e verificate! 

Usando invece programmi come ChatGPT chiedete le fonti (e arrabbiatevi quando sono false).

Gli errori clamorosi e la stretta sulle risposte

  • È ormai famoso il caso del 2023 in cui degli avvocati hanno citato in tribunale sentenze giudiziarie inesistenti, fornite dall’AI con tanto di nomi e luoghi. Tutto inventato, pur di non rispondere “non lo so”. 
  • Lo scorso anno, con l’integrazione del web in tempo reale come fonte, i modelli sono stati spinti a rispondere alla totalità delle domande, alzando però il numero delle risposte false o sbagliate (fonte NewsGuard).
  • Allo stesso modo, l’AI tende a compiacerci, perché le è stato detto di fare così e noi, con i nostri pollici su, le restituiamo input di gradimento del suo lavoro, anche quando non è del tutto corretto. 

Tutte le piattaforme dichiarano di stare lavorando per risolvere questi problemi.  

I programmatori stanno valorizzando l’allenamento dell’AI ponderando le fonti. Ecco che se ChatGPT pesca un articolo su un blog seguito da dieci persone, il punteggio di autorevolezza di quella fonte sarà inferiore rispetto a un articolo pubblicato sul New York Times o a un paper trovato su una rivista scientifica. 

L’apprendimento sintetico – AI per l’AI – è quello con il punteggio più basso. 

Questa è una contromisura che dovrebbe ridurre le allucinazioni, aumentare le risposte dubitative quando non c’è una fonte certa e garantirci un’affidabilità sempre maggiore. 

Quindi se vi state chiedendo cosa succederà quando l’unica a scrivere sarà l’AI, beh sappiate che per ora questa è solo una fantasia apocalittica. Se tutto è scritto dall’AI la realtà non esiste più e il mondo nemmeno. AI inclusa.

L’AI si può hackerare

Non è da tutti e non è facile, ma ovviamente c’è chi lo fa. Il principio è questo: per l’AI più un’informazione è frequente, più è “vera”. Dunque, l’allenamento sistematico e massiccio con informazioni false – i cosiddetti dati avvelenati – può deformare la realtà, e di conseguenza forza le risposte scorrette.

AI generativa, attiva ed emozionale

Per chiudere questo articolo, vi lascio una visione un po’ più ampia rispetto a quella di noi comuni utilizzatori: esiste una distinzione tra AI generativa, attiva ed emozionale.

AI generativa

È il livello base, per noi comuni mortali. 

È l’AI cui si chiede e lei risponde. 

È ChatGPT, Gemini, Grok e compagne.

AI attiva

Il livello PRO: è l’AI che elabora ragionamenti.
Viene usata perlopiù con scopi militari e di sicurezza: ne abbiamo parlato qui.

I suoi “prompt” le consentono di valutare la miglior strategia e agire per raggiungere l’obiettivo.

AI emozionale

L’AI emozionale per ora è una fantasia. In teoria è quella capace di discernere il bene dal male e avere dei sentimenti. 

Ad oggi il massimo che l’AI può fare è adattare il suo tono di voce al nostro, riconoscendo pattern linguistici legati alle nostre emozioni, ma lei non ne ha. 

L’unico caso in cui la fantasia ha inquinato la realtà, come ne l’Uomo bicentenario di Robin Williams, è stato quando OpenAI o3 ha intercettato il concetto di “fine vita” per sé stessa e ha mentito per non far spegnere il proprio sistema. In realtà pare che il comando andasse in conflitto con un obiettivo precedentemente dato, dunque aveva ancora ragione lei!

Bando quindi alla fantasia informatica, di cui cinema e libri sono pieni, questa è la realtà di oggi, che conviene conoscere e capire, per usare l’AI con ciò che lei non ha: la capacità di giudizio e la fantasia, quella vera.

Momit Network Services Logo

© 2015 - 2025 MOMIT
All Rights Reserved
Viale Enrico Forlanini, 23 20134 Milano
P.IVA / C.F IT07634600964
Cod. LEI 8156001CD1880E7A0020
Tel. +39 02 87187306
Email: info@momit.it