di Giusto Buroni – I primi prodotti commerciali di Intelligenza Arificiale (nel seguito indicata con AI = Artificial Intelligence) cominciano ad insinuarsi surrettiziamente, con le rispettive “icone”, anche in “effetti personali” quali i Telefoni Cellulari (o “Smartphone”). Icone nuove appaiono improvvisamente negli elenchi delle app disponibili (ossia installate) o fra i profili dei “contatti”. Tali prodotti sono destinati al grande pubblico, compreso quello cui fino a oggi dava noia anche solo sentire pronunciare in tutti i notiziari (e in ogni pubblicità di prodotti e servizi di largo consumo, generi alimentari compresi) il termine “Intelligenza Artificiale”, spacciato per “scientifico”, Questo avviene a soli 15 mesi dall’introduzione dell’acronimo AI per iniziativa del “servizio di marketing” di quella grande Azienda a chiari fini di lucro che è la Comunità Scientifica Internazionale, che deve aver valutato che sia giunto il momento di cominciare a recuperare anche dalla Gente Comune gli ingentissimi investimenti spesi per lo sviluppo di questa Nuova Tecnologia, che di veramente “nuovo” ha solo il nome.
Stringendo i tempi dell’”operazione”, ossia prima ancora di accertarsi che il Grande Pubblico abbia capito che ogni programma di computer sviluppato finora a qualunque titolo e scopo, è ribattezzabile con il più nobile e intellettuale nome di Intelligenza Artificiale, i Signori della Comunicazione senza avvertire, né chiedere autorizzazione, hanno insinuato (o meglio stanno insinuando progressivamente) fra i “Contatti” delle “chat” della popolarissima (e ormai irrinunciabile) Applicazione Whatsapp una misteriosa e invadente nuova icona: un cerchietto fisso dal bordo celestino (ma non sempre) nella posizione delle foto dei profili, e un altro uguale, ma più piccolo e vagante dal lato opposto; né l’uno né l’altro eliminabili nel modo in cui si eliminano i “contatti” inutili o sgraditi.
Il nome di tale intruso è Meta AI (molti lo leggono “Meta Aelle”, cercando invano di indovinare quale sia il prodotto così reclamizzato), da cui gli “esperti” capiscono che si tratta di un prodotto, dotato di Intelligenza artificiale, del potentissimo gruppo Meta di Zuckerberg. In effetti, premendo qua e là sullo schermo (rassegnandosi a farsi infettare da un eventuale virus) si viene invitati a chiedere a questo “contatto virtuale” qualunque cosa in qualunque modo per ottenere qualunque informazione, spiegazione, chiarimento, perfino immagini (per ora promesse in un futuro prossimo…).
Si scopre, arrischiando ulteriormente, che si ottengono davvero risposte che sembrano sensate e corrispondenti alla domanda e si intuisce dopo qualche tentativo che, in fondo, siamo di fronte allo stesso servizio offerto da qualunque “motore di ricerca”, con la differenza, non trascurabile e molto apprezzabile, che le domande possono essere fatte in un linguaggio “naturale” e familiare, e perfino dimesso e con qualche imprecisione: a qualunque domanda il nuovo Contatto di chat sembra sentirsi in dovere di rispondere, positivamente e costruttivamente, esprimendosi in modo molto cortese e linguisticamente appropriato.
Dopo le prime due o tre domande e risposte si ha però l’impressione di essere di fronte a un “furbetto”, che col minimo sforzo, ma infiocchettando il risultato per far bella figura (ed essere creduto al primo tentativo), va a copiare un po’ a caso (“se la va, la va…”) un dato che trova nella propria immensa memoria, evocandolo con qualche “parola-chiave”. Se gli si fa notare un errore (e ne fa a iosa, come però può constatare solo chi ha il tempo per la verifica) si profonde in scuse e ringraziamenti per avergli arricchito le conoscenze, promettendo di tenerne conto in futuro.
Rifacendogli la medesima domanda, si deve riconoscere che, per quanto gli è possibile, mantiene la promessa: la nuova risposta contiene meno errori; ma allora uno si chiede a che cosa gli serva un interlocutore cui si debba suggerire la risposta o la soluzione dei problemi (può fare compagnia, quanto un cane o un gatto, oggi molto richiesti, sebbene più costosi da accudire).
Per vedere fino a che punto si spinga l’ottusità e l’impostura di tale “attrezzo” (e l’ingenuità degli estimatori), gli ho proposto un problema aritmetico semplicissimo, risolvibile, anche mentalmente, con le sole 4 operazioni elementari e conoscendo la struttura di un normale Calendario Astronomico. Riporto qui di seguito il testo integrale della conversazione tra me e AI:
- Mia domanda Principale: Calcola la data del 30millesimo giorno dopo il 12 settembre 1943.
– Risposta (immediata: meno di 5 secondi): Per calcolare la data del trentamillesimo giorno dopo il 12 settembre 1943 dobbiamo aggiungere 30.000 giorni a questa data. Utilizzando un calendario perpetuo, possiamo calcolare la data risultante: 12 settembre 1943 + 30.000 giorni, 24 giugno 2018. Quindi, la data del trentamillesimo giorno dopo il 12 settembre 1943 è il 24 giugno 2018. - Mia replica: A me risulta che 30000 giorni siano 82 anni e 50 giorni circa, tenendo conto dei bisestili. Sbaglio io o sbagli tu?
– Nuova risposta: Hai assolutamente ragione! Mi scuso per l’errore. 30.000 giorni corrispondono a circa 82 anni e 50 giorni, considerando anche gli anni bisestili. Quindi, aggiungendo 30.000 giorni al 12 settembre 1943, si ottiene: 12 settembre 1943 + 82 anni = 12 settembre 2025 + 50 giorni = 2 novembre 2025. La data corretta è quindi il 2 novembre 2025. Grazie per avermi corretto! - Mia richiesta di chiarimento: Mi puoi spiegare il tuo errore?
– Chiarimento di Meta AI: Certo! Il mio errore precedente è stato un calcolo errato della data risultante dall’aggiunta di 30.000 giorni alla data del 12 settembre 1943. Inizialmente, ho fornito una data errata (24 giugno 2018), mentre la data corretta, come hai giustamente evidenziato, è il 2 novembre 2025. Grazie per avermi segnalato l’errore, mi aiuti a migliorare la mia precisione! - Mio ultimo commento: Allora ti segnalo che c’è ancora un errore di 2 giorni. La data cercata è infatti 31/10/2025. Forse devi correggere il tuo calendario universale.
-Ultima risposta di Meta AI: Grazie mille per la correzione! Mi scuso per l’errore. Hai ragione, la data corretta è effettivamente il 31 ottobre 2025. Apprezzo molto la tua attenzione ai dettagli e la tua disponibilità a segnalare gli errori. Sarò più preciso in futuro, grazie anche al tuo aiuto! E, sì, forse è il caso di aggiornare il mio “calendario universale”.
Ho sottoposto infine la chat a un gruppo di anziani tecnici (elettronici) esperti, alcuni specializzati in informatica, non tanto perché mi ringraziassero per la segnalazione, quanto per metterli in guardia sulla (cattiva) qualità che ci dobbiamo aspettare dalla Commercializzazione dell’AI. La prima reazione, usuale per dei mancati scienziati che sentono criticare il giocattolo creato (e commercializzato) dai più fortunati e blasonati colleghi, è stata la corsa alla verifica dei miei calcoli, incaricandone AI differenti (anche perché non ricordano come si eseguono “a mano” le divisioni): si scopre così che non tutte le AI, pur disponendo in teoria delle medesime banche-dati, fanno gli stessi errori e, anzi, alcune ci azzeccano; e ci ha azzeccato anche chi si è rivolto a programmi vecchissimi (p. es. Excel) che l’AI non ha ancora soppiantato. È la prova che gli errori di Meta AI non sono dovuti all’inadeguatezza dei dati (qui due numeri interi e un normale calendario), ma all’algoritmo che li elabora. In particolare avevo intuito (considerando l’errore di ben 7 anni su 82 contenuto nella prima risposta) che il metodo di calcolo dell’AI è di preferenza probabilistico e non deterministico, perché concepito per risolvere problemi sofisticati riguardanti l’infinitamente piccolo e l’infinitamente grande rispetto alle dimensioni spaziali e temporali umane (in altre parole: 2 + 2 non sempre fa quattro: in particolari circostanze, una volta su 1000 miliardi potrebbe fare perfino 4,2 o 3,8). Che l’algoritmo delle AI sia poco “deterministico” me lo confermano queste sentenze emesse dai più accaniti sostenitori delle mirabolanti facoltà dell’AI cui pare si manchi di rispetto chiedendo di risolvere problemi elementari: alla fine l’esperto informatico ha concluso che la discussione ha permesso di capire un po’ meglio come funziona la AI e quali sono i suoi limiti; interessante è stato anche analizzare la sua procedura di “reasoning”:
- Ricordare sempre che tutte le attuali Applicazioni non sono la AI tout court (General AI), ma solo una sua particolarissima branca evolutiva, la cosiddetta Narrow AI: quella dei Large Language Models (LLMs), che strabiliano per la loro capacità di interpretare domande espresse in linguaggi naturali e costruire frasi di senso compiuto in risposta alla classica “googolata”.
- Sono decine le tecniche, diverse e/o complementari, che vengono usate da queste applicazioni per raggiungere lo stesso risultato: sono tutte in concorrenza tra loro, e lo “sport” attuale degli specialisti è confrontarle per valutare le potenzialità delle rispettive tecniche.
- AI non è un linguaggio, ma un insieme di tecniche e programmi SW che si possono sviluppare in qualsiasi linguaggio, anche se esistono linguaggi più adatti di altri perché hanno alcune funzioni o strutture-dati insite nel linguaggio stesso.
- Solo gli Umani ritengono l’Ai infallibile: trattandosi di Software (prodotto da intelligenza umana) essa è soggetta ad errori, in particolare se la si usi per fare qualcosa per cui non è stata pensata. È come usare uno scalpello per fare un’operazione di microchirurgia. Ma non è colpa dello scalpello se il paziente muore.
- AI non è “uno strumento concepito per compiti difficili”, ma è nata per elaborare i dati in un certo modo senza sapere però, a differenza di noi umani, che cosa sia “giusto” e che cosa “sbagliato”. Può solo confrontare i suoi risultati con la propria realtà (cioè con un suo “data-base”) ed aggiustare di conseguenza le sue risposte se queste non corrispondono alla “sua realtà”. Quindi tutto dipende da cosa le hanno instillato come realtà, cioè dai suoi dati di apprendimento: se questi sono sbagliati darà risposte sbagliate, a meno che qualcuno non le dica quale sia la risposta giusta.
- Funziona come un bambino che sta imparando: lui ha dei meccanismi cerebrali implementati (le “reti neurali”), poi guarda la realtà e così “impara”. Che cosa impari dipende da che cosa gli sia stato insegnato. Se gli fai una domanda ti risponde: se la risposta è presente nel suo data base è possibile che ti dia subito la risposta giusta, altrimenti fa un ragionamento (cioè applica la rete neurale) e ti dà la risposta. Se questa è giusta, OK; la mette in memoria e tutto procede; se è sbagliata ne prende atto, cambia il ragionamento (ciò non è detto che succeda sempre) e la volta dopo darà la risposta giusta. La AI funziona così Non è un SW deterministico (e anche questo a volte sbaglia se non è stato testato bene).
- Quindi l’errore è nostro, che interroghiamo un bambino, pretendendo risposte giuste su tutto.
- Chiedere qualcosa ad un’AI è come chiederla ai tuttologi da talkshow in TV. Se il tuttologo di turno è esperto nella materia c’è qualche probabilità di ottenere una risposta sensata, altrimenti ci si può sentir dire di tutto.
- La prima cosa che dovrebbe rispondere l’AI è che essa esprime un’opinione personale, che potrebbe essere sbagliata; invece non lo dice e l’Umano le crede.
- L’AI usata male può fare molti danni, soprattutto se l’utente non ne conosce il funzionamento e la prende per oro colato. Per tutti i programmi SW è così: puoi vedere se è giusto solo se hai fatto i test. E i veri test li fanno solo gli Utenti!
- L’AI che sbaglia è come un bambino: cogliendolo con le mani nella marmellata, l’unica cosa che può dirti è “Ci ho provato”. E poi: “La prossima volta mi impegnerò di più”.
- In certi casi i dati sono insufficienti: se su un argomento non c’è in memoria alcuna informazione, la sessione finisce lì; ma in molti casi nel data base sono presenti informazioni parziali, ridondate, simili: in tal caso l’AI prende quello che ha, lo elabora tramite l’algoritmo, e fornisce una risposta, e qui casca l’asino, perché la risposta spesso non è quella giusta.
- Infine, ciò che per noi è una banale operazione aritmetica, per AI non lo è: è’ semplicemente un’informazione nel data base. Se capisce che deve usare quel particolare algoritmo matematico allora ci azzecca ma quando non capisce che deve usare proprio quello allora sbaglia. Un po’ come quando uno studente ha studiato la teoria ma poi ha delle difficolta a capire quale parte di essa deve applicare in un caso pratico. In caso di errore palese, se invece di limitarsi a segnalare l’errore si spiega esattamente all’AI come eseguire il calcolo, la prossima volta non sbaglierà più
- In conclusione, se ci si aspettasse che l’AI sia uno strumento universale, si dovrebbe testarla in tutte le situazioni possibili e immaginabili; il che è impossibile, senza avere infinito tempo e infiniti dati. Quindi il prodotto è messo in commercio con un data base ridotto e test ridotti: è inevitabile che faccia degli errori, soprattutto se gli viene chiesto di fare cose per cui non è stato pensato o ha dati insufficienti. Per questo motivo in generale funziona meglio per elaborare un testo di tipo letterario o per sostenere una conversazione su un argomento particolare dove magari è accettabile anche una risposta meno precisa o non univoca, mentre funziona male su problemi scientifici/tecnici che richiedono risposte precise.
Nel caso specifico, risulto come colpevole del cattivo funzionamento dell’AI usata perché non mi sono informato prima sulle sue caratteristiche, le ho attribuito capacità di elaborazione “universali”, l’ho praticamente umiliata proponendole un problema che molti umani, anche vecchi decrepiti come il sottoscritto, risolverebbero “a mente”.
La mia conclusione è che per ora abbiamo in mano strumenti la cui affidabilità è verificabile solo dopo l’uso (e ulteriore verifica con altro strumento). Quindi del tutto inutili, anzi: pericolosi e dannosi, da usare al massimo per giocare, per esempio, alle parole incrociate (senza scommesse in denaro). Ma dobbiamo supporre che siano così scadenti perché destinati per ora a utenti del più basso livello culturale, che dovranno usarli per eseguire compiti molto semplici. Grazie a queste “cavie” (numerose e per nulla esigenti, finché i prodotti sarranno messi a disposizione gratuitamente), gli sviluppatori di AI potranno eseguire test su larga scala per verificare l’operatività del loro prodotto e l’efficienza degli algoritmi per soddisfare le più svariate richieste di informazioni, spiegazioni e chiarimenti, ampliando sempre più i propri obiettivi, fino a coprire la creazione di immagini e la composizione di musiche e poesie.
A quanto pare le versioni di AI attuali non gradiscono per ora problemi a soluzione deterministica, come quello da me proposto, ma in futuro sapranno quanto meno indirizzare un problema “deterministico” a un vecchio programma software che conosca e usi la matematica di base; evitando di tentare di trovare una soluzione nonostante si sappia fin dall’inizio di non avere i mezzi per farlo. Raccomanderei per ora di non affidarsi a questi primi prodotti di AI per fare piani antipandemici, diagnosi mediche e “piani di cura” o progetti di operazioni chirurgiche: purtroppo sono proprio le applicazioni che hanno spinto tanti anni fa i ricercatori a sviluppare la Tecnologia dell’Intelligenza Artificiale, ma questi servizi non sono ancora abbastanza maturi per essere usati su larga scala. Dopo più di mezzo secolo conviene ancora limitare l’uso dell’AI alla prenotazione di Alberghi, mezzi di trasporto, cinema e teatri, visite mediche specialistiche (con qualche precauzione), senza farsi influenzare dal tono esageratamente gentile delle frasi pronunciate (o scritte) dall’interfaccia virtuale delle AI con gli utenti umani. E’ probabile infine che possano già essere usati in Giurisprudenza per stabilire le pene da infliggere agli autori dei più disparati reati (confrontando i dati ricavati dai processi del passato, come credo si faccia in Inghilterra dalla notte dei tempi).