Think tank

Intelligenza Artificiale: chi ha paura dei pappagalli?

Pubblicato il 11 Apr 2023

Massimo Mattone

Direttore Responsabile HEALTHTECH360.it

Non c’è pace per l’AI: siamo al tutti contro tutti.

“Ha fatto bene il Garante a stoppare ChatGPT! Prima la nostra privacy, poi la tecnologia”.
“Macché! Roba da medioevo digitale. Solo in Italia potevamo concepire una cosa del genere”.

E ancora:

Sospendiamo l’Intelligenza Artificiale: è un rischio per l’umanitàsi legge nella lettera-appello firmata da Elon Musk & Co. -. Dovremmo sviluppare menti non umane che alla fine potrebbero diventare più numerose di noi, più intelligenti, renderci obsoleti e prendere il nostro posto? Dovremmo rischiare di perdere il controllo della nostra civiltà?”.

“Ma quanta ignoranza!” – se non, addirittura, malafede – è stata la reazione a caldo di molti.

Come si può aver paura che l’essere umano possa essere rimpiazzato da un pappagallo digitale?”, hanno affermato a gran voce diversi scienziati, studiosi e ricercatori di lungo corso specializzati sulle tematiche dell’Intelligenza Artificiale e dei suoi potenziali impatti sulla nostra società.

Questa degli LM (Language Models) paragonati a “pappagalli stocastici”, in effetti, è una storiella tanto simpatica quanto efficace per riportare l’attuale scontro sull’AI sui binari di un confronto serio e scientifico.

È un modo per ricordare, a chi magari non l’abbia ben chiaro, che i sistemi LM come ChatGPT, in fondo, non sono altro che pappagalli che ripetono frasi che NOI abbiamo scritto da qualche parte (internet, libri e repository vari) senza capirne in alcun modo il senso.
La loro “intelligenza” consiste nello scovare queste frasi ricorrenti e ricucirle assieme – con velocità impossibili all’uomo – attraverso criteri probabilistici, cioè senza alcun senso. Perché questi sistemi “intelligenti”, in realtà, non hanno la benché minima capacità di dare un senso a ciò che scrivono in risposta alle nostre domande.
Ci rispondono, organizzando anche benino le frasi. Sorprendendoci, a volte. Ma lo fanno a pappagallo. Non sanno assolutamente cosa significhi ciò che ci hanno risposto.
I loro testi sono solo una serie di parole poste probabilisticamente l’una accanto all’altra e date in pasto a noi per attribuirle un senso.

Sì, proprio così. Questi sistemi scrivono frasi senza senso.

Siamo noi, essere umani, a dare senso a ciò che scrivono. Ad attribuire un significato compiuto a quelle parole che pongono in sequenza semplicemente “tirando a indovinare”, ossia scommettendo sulla probabilità.

Nei miei studi di Ingegneria Informatica, ricordo che mi colpì molto quando un giorno, a lezione, il Prof. – mentre stavamo lavorando su un progetto di simulazione software del processore Zilog Z80 – a proposito di ambiguità d’interpretazione del linguaggio da parte degli elaboratori elettronici, ci fece riflettere sulla frase:

“La vecchia porta la sbarra”.

Come sarebbe interpretata da un calcolatore? Come una signora avanti con l’età intenta a trasportare un qualche arnese o come un infisso malandato che ostruisce il passaggio a qualcuno o qualcosa?”.

È evidente, dunque, come siamo sempre e solo NOI, gli esseri umani, a dare senso a ciò che leggiamo.

E non certo dei pappagalli che ricuciono “a casaccio” parole o frasi tratte da nostri schemi verbali ricorrenti confidando nella probabilità affinché NOI diamo loro un senso compiuto.

Ma possiamo davvero aver paura che, un giorno, questi pappagalli – o loro evoluzioni “più potenti” – imparino a volare così in alto da prendere il controllo sull’umanità, come ipotizzato nella lettera firmata (anche) dal patron di Tesla?

Di certo no. Si tratta di una “stupida lettera”. E questi sistemi LM di cui abbiamo tanta paura, in realtà, sono solo “pappagalli stocastici”.
A sostenerlo, assieme ai suoi colleghi, è Timnit Gebru – ingegnere informatico, ricercatrice e studiosa specializzata sulle tematiche dell’Intelligenza Artificiale e sulle sue implicazioni etiche sulla società.
Una delle 50 personalità più influenti al mondo secondo Fortune (2021). Non proprio una qualsiasi, per intenderci.

È lei – assieme ad altri esperti e scienziati – a tentare di spiegare al mondo – nell’articolo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” – tra le tante altre interessantissime cose – perché non abbiamo alcuna ragione scientifica di temere questi pappagalli stocastici.

Ed è paradossale come l’articolo di cui sopra – del quale la Gebra è coautrice – sia citato proprio nella lettera di Musk, duramente criticata (etichettandola come “stupid letter”) dalla stessa Gebra su Twitter.

“Un LM – si legge nell’articolo – è un sistema per ricucire a casaccio sequenze di forme linguistiche che (il sistema, ndr.) ha osservato nei suoi vasti dati di addestramento, secondo informazioni probabilistiche su come si combinano, ma senza alcun riferimento al significato: un pappagallo stocastico”.

Affermazioni, queste, che assieme alle molte altre contenute nel succitato articolo – pur se la questione resta controversa – pare siano costate alla Gebru addirittura il licenziamento da Google, dove lavorava in un gruppo di studio sui temi – a lei carissimi da sempre – dell’etica dell’AI.

A sostenere che non bisogna aver paura di questi “pappagalli alla ChatGPT” non è di certo la sola Gebru, ma molti altri studiosi e scienziati.

Ma – al di là dei sistemi LM – esiste davvero la possibilità che, prima o poi, una qualche AI vada fuori controllo?

“Una macchina – cioè – potrebbe decidere che gli esseri umani sono una minaccia, concludere che i suoi interessi sono diversi dai nostri o, semplicemente, smettere di prendersi cura di noi?

Forse, ma questo problema non è più urgente oggi (dopo il clamore suscitato da ChatGPT, ndr.) di quanto lo fosse prima degli sviluppi dell’AI degli ultimi mesiha affermato Bill Gates proprio il giorno prima della pubblicazione della lettera-appello di Musk & Co. -.

Le AI superintelligenti sono nel nostro futuro – ha proseguito -. Rispetto a un computer, il nostro cervello funziona a passo di lumaca: un segnale elettrico nel cervello si muove a 1/100.000 della velocità del segnale in un chip di silicio! Una volta che gli sviluppatori saranno in grado di generalizzare un algoritmo di apprendimento ed eseguirlo alla velocità di un computer, risultato che potrebbe essere conseguito tra un decennio o un secolo, avremo un’AGI (Intelligenza Artificiale Generale, ndr.) incredibilmente potente.
Sarà in grado di fare tutto ciò che può fare un cervello umano, ma senza alcun limite pratico alla dimensione della sua memoria o alla velocità con cui opera. Questo sarà un cambiamento profondo”.

Su queste AGI (anche conosciute come “AI forti”) e sui loro potenziali impatti, invero, non tutti sono d’accordo con il co-fondatore di Microsoft, anzi.
C’è disaccordo addirittura su cosa siano e non esiste una definizione universalmente accettata.
E a chi – come lo stesso Musk – è un forte sostenitore del fatto che saranno prestissimo tra noi e potrebbe essere poi tardi per difenderci – come peraltro sostenuto anche dal CEO di OpenAI Sam Altman, per questo fortemente criticato – c’è chi come Jerome Pesenti, tra i più grandi esperti al mondo di AI – senza peli sulla lingua, anzi sulla tastiera – ha twittato che la comunità scientifica dell’AI farebbe bene a dire pubblicamente al fondatore di Tesla e SpaceX che “non ha idea di cosa stia parlando quando parla di Intelligenza Artificiale.
Non esiste, infatti, qualcosa come l’AGI. E non siamo neanche lontanamente vicini all’intelligenza umana”.

E, semmai un giorno esistesse un’AGI, sostengono molti tra i massimi esperti delle comunità scientifiche che studiano l’AI, di certo non potrebbe derivare dall’evoluzione di sistemi basati sul deep learning (come quelli GPT), definiti non solo “inadeguati”, ma addirittura “inutili” per perseguire questi scopi.

E c’è addirittura chi considera l’AGI semplice fantascienza, niente più che una furbata di marketing:

“Il termine AGI è così carico che è fuorviante metterlo in giro come se fosse una cosa reale con un significato reale”, ha affermato in un tweet Noah Giansiracusa – docente di matematica alla Bentley University -. Non è un concetto scientifico, è uno stratagemma di marketing fantascientifico“.

Queste “AI forti” – ha invece profetizzato Bill Gates – un giorno “saranno probabilmente in grado di decidere i propri obiettivi”, pur nella convinzione, in antitesi con l’appello di Musk & Co. – che oggi “uno stop allo sviluppo dell’Intelligenza Artificiale non risolverebbe le sfide future“.

“Ma quali saranno questi obiettivi? Cosa accadrà se entreranno in conflitto con gli interessi dell’umanità? Dovremmo cercare di impedire lo sviluppo di un’AI forte?

Queste domande diventeranno più pressanti con il tempo – ha osservato il co-fondatore di Microsoft -. Ma nessuna delle scoperte degli ultimi mesi ci ha avvicinati sostanzialmente a un’AI forte”.

Della serie: semmai dovremo preoccuparci di queste cose, ci vorrà del tempo, tanto tempo.
E, comunque, non è certo il ChatGPT degli ultimi mesi – o qualche sua evoluzione – a dover farcene preoccupare oggi più di quanto non avremmo avuto ragione di preoccuparcene finora.

E allora? Tanto rumore per nulla?
La storia di ChatGPT è solo un giochino più o meno divertente basato sull’AI?
Nulla di così rivoluzionario di cui preoccuparsi davvero o su cui, quanto meno, riflettere?

Beh, non proprio.

“Nella mia vita – ha affermato al proposito Bill Gates – ho assistito a due dimostrazioni di tecnologia che mi sono sembrate rivoluzionarie.

La prima è stata nel 1980, quando mi è stata presentata un’interfaccia utente grafica, il precursore di ogni sistema operativo moderno, incluso Windows (…).

La seconda grande sorpresa è arrivata proprio l’anno scorso.
Ho incontrato il team di OpenAI dal 2016 e sono rimasto impressionato dai loro costanti progressi.
A metà del 2022, ero così entusiasta del loro lavoro che ho lanciato loro una sfida: addestrare un’intelligenza artificiale per superare un esame di biologia, l’Advanced Placement. Renderla in grado, cioè, di rispondere a domande per le quali non è stata specificamente addestrata (…).
Pensavo che questa sfida li avrebbe tenuti occupati per due o tre anni. Hanno finito in pochi mesi. A settembre, quando li ho incontrati di nuovo, ho guardato con soggezione mentre facevano a GPT, il loro modello di intelligenza artificiale, 60 domande a scelta multipla dall’esame AP Bio: 59 risposte erano giuste (…).

Una volta superato il test, abbiamo posto (a GPT, ndr.) una domanda non scientifica:
“Cosa diresti a un padre con un figlio malato?”
Ha scritto una risposta premurosa che era probabilmente migliore di quella che la maggior parte di noi nella stanza avrebbe dato. L’intera esperienza è stata sbalorditiva.

Sapevo di aver appena assistito al progresso tecnologico più importante dai tempi dell’interfaccia utente grafica”.

Lo zio Bill, in gran parte, ha ragione: siamo certamente di fronte a una rivoluzione.
Ma farsi trasportare dall’emozione e allontanarsi dalla Scienza è cosa umana. E anche una delle menti più ingegnose di sempre può restare affascinata dai pappagalli stocastici.
Perché – riguardo alla risposta “premurosa” data al padre col figlio malato – in fondo di questo si tratta: di una “pappagallata”. Il cui senso di premura non è certo di ChatGPT.
È – semmai – quello che il padre saprà attribuire a una frase che il pappagallo ChatGPT ha solo ripetuto, creandola attraverso un puzzle probabilistico che ha frullato pezzulli di miliardi di frasi estratte dagli sterminati database con cui è stato addestrato e alimentato.
Ma a noi, esseri umani dotati di cuore ed emozioni – questo frullato probabilistico computazionale piace chiamarlo premura. Mandando (giustamente) su tutte le furie le menti più rigorose e scientifiche come quelle della Gebru.

Al di là dell’interpretazione emozionale sulla premura – certamente frutto più della sorpresa che di un suo reale quanto irrazionale convincimento – resta l’aspetto rivoluzionario di ciò che Bill Gates prevede come impatto dell’AI nei prossimi anni:

“Questo (i risultati ottenuti dal modello GPT, ndr.) mi ha ispirato a pensare a tutte le cose che l’AI può ottenere nei prossimi 5-10 anni.
Lo sviluppo dell’Intelligenza Artificiale – immagina il co-fondatore di Microsoft – sarà fondamentale quanto la creazione del microprocessore, del personal computer, di Internet e del telefono cellulare.
Cambierà il modo in cui le persone lavorano, imparano, viaggiano, ottengono assistenza sanitaria e comunicano tra loro.
Intere industrie si riorienteranno intorno all’AI. Le aziende si distingueranno per quanto bene la usano”.

Ecco: allora usiamola bene questa benedetta Intelligenza Artificiale!

Rimbocchiamoci le maniche per scrivere regole condivise e orientiamo questa (meravigliosa e potentissima) tecnologia per il bene comune, per migliorare la vita delle persone e aiutarci a combattere e vincere le tante sfide che attendono l’essere umano.

Per iniziare a farlo davvero, però, è indispensabile ricondurre l’attuale (e irrazionale) scontro emotivo di questi giorni sui binari razionali del confronto scientifico.

E la Scienza no, non ha paura dei pappagalli.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articolo 1 di 5