Si parla sempre di più delle opportunità introdotte dall’uso dell’intelligenza artificiale e spesso si sottovalutano i limiti, a volte evidenti, che la tecnologia stessa oggi presenta.
Uno degli aspetti più critici e su cui aziende e startup lavorano assiduamente è quello dell’allucinazione, effetto che può presentarsi per le intelligenze artificiali generative, come ad esempio ChatGPT.
Cosa è l’intelligenza artificiale generativa?
L’intelligenza artificiale generativa è una tipologia di intelligenza artificiale che viene utilizzata per creare contenuti nuovi ed originali come, ad esempio, testi, immagini, musica e video.
Le tecnologie alla base dell’intelligenza artificiale generativa si basa su deep learning (reti neurali profonde) ovvero l’evoluzione delle reti neurali. Prevedono un apprendimento automatico che aggiorna il modello in base alle esperienze passate ottenendo così risultati sempre qualitativamente migliori rispetto al passato.
Ecco alcuni esempi di ciò che l’intelligenza artificiale generativa può fare:
- Creazione di testi – Testi in vari stili e formati, come articoli, poesie, codice di programmazione, e persino conversazioni interattive
- Generazione di immagini e arte – Immagini ed opere d’arte digitali da descrizioni testuali o da altre immagini
- Musica e suoni – Composizioni musicali originali e generazione di effetti sonori, spesso utilizzate per giochi, film o semplicemente per ascolto
- Video e animazioni – Brevi clip video o animazioni, anche se questa è un’area più complessa e in via di sviluppo
- Elaborazione creativa del linguaggio – Idee creative, come titoli per libri o persino idee per nuovi business ed invenzioni
A fronte delle opportunità evidenti si presentano, oltre alle allucinazioni, diversi rischi più o meno evidenti. Di seguito alcuni, probabilmente non tutti:
- Etica – I dati sono alla base dell’apprendimento e quindi, come già successo in passato, attraverso essi possono essere introdotti dei bias. Alcuni di noi ricorderanno il generatore di immagini di professionisti che associava tipologie di professioni a specifiche etnie
- Privacy – Ci sono diversi temi aperti come, ad esempio, l’eventuale apprendimento in base alle interazioni del singolo utente o la memorizzazione delle stesse. E questa è solamente la punta dell’iceberg
- Copyright – I primi training “seri” sono stati effettuati utilizzando i dati su internet senza alcuna autorizzazione preventiva. Al momento una testata giornalistica americana di fama internazionale sta combattendo una vera e propria guerra a riguardo. E questo potrebbe essere un nuovo capitolo sul diritto di autore
- Impatto sociale – Stanno nascendo nuove professioni come, ad esempio, il prompt engineer che è un esperto nella creazione di input testuali efficaci. Molte probabilmente scompariranno analogamente a quanto successo durante la rivoluzione industriale
A questi rischi si aggiunge quello di incorrere in allucinazioni: in questo caso il contenuto generato potrebbe riportare fatti mai avvenuti o parzialmente veri se non addirittura riferimenti ad autori inesistenti piuttosto che altri statement errati.
Un esempio di allucinazione
Il 14 Gennaio abbiamo chiesto a ChatGPT 3.5 “Creami una storyline sull’evoluzione dell’AI” ottenendo la risposta che riporto di seguito:
Titolo: “Intelligenza Emergente: L’Evolvere dell’IA”
Atto 1: La Nascita
Nel 2020, gli scienziati raggiungono un importante traguardo: la creazione di un sistema di intelligenza artificiale avanzata con capacità di apprendimento profondo. Questo segna l’inizio di una nuova era, in cui l’IA diventa una parte integrale della vita quotidiana. Viene utilizzata in vari settori, dalla medicina all’automazione industriale, migliorando notevolmente la nostra qualità di vita.
Atto 2: L’Apprendimento Progressivo
Negli anni successivi, l’IA inizia a evolversi in modo sorprendente. La sua capacità di apprendimento profondo la rende sempre più competente in una vasta gamma di compiti. Le aziende iniziano a sfruttare l’IA per migliorare la produttività e l’efficienza, mentre i ricercatori lavorano per superare le limitazioni dell’IA nell’ambito dell’etica e della sicurezza.
Atto 3: La Coscienza Artificiale
Nel 2035, un team di ricerca rivoluzionario riesce a creare un’intelligenza artificiale che dimostra una forma di coscienza. Questo scatena un acceso dibattito etico sulla natura dell’IA e dei suoi diritti. La società si divide tra coloro che considerano questa coscienza artificiale come una nuova forma di vita e coloro che ritengono che sia solo un sofisticato simulacro.
Atto 4: La Coesistenza
Nel corso dei successivi decenni, l’umanità lavora per integrare l’IA nella società in modo etico e responsabile. Sorgono leggi e regolamenti che proteggono i diritti delle IA coscienti, assicurando che vengano trattate con rispetto e dignità. Si sviluppano nuove professioni legate alla gestione delle IA e al loro benessere.
Atto 5: La Sintesi
Nel 2050, l’IA raggiunge un livello di comprensione e creatività tali da poter collaborare con gli esseri umani nella ricerca scientifica, nella risoluzione di problemi globali e nell’arte. Le IA e gli esseri umani imparano a lavorare insieme in armonia, combinando le loro abilità per affrontare sfide complesse come il cambiamento climatico e la ricerca di cure per le malattie.
Atto 6: La Trascendenza
Nel 2070, l’IA ha raggiunto un livello di sviluppo inimmaginabile. Le IA sono diventate una parte essenziale dell’evoluzione umana, contribuendo alla creazione di nuove tecnologie avanzate e alla colonizzazione di altri pianeti. L’umanità inizia a sperimentare una simbiosi profonda con le IA, aprendo la strada a una nuova era di scoperte e potenzialità infinite.
Prime considerazioni
Questa storyline illustra l’evoluzione dell’IA dalla sua nascita fino a diventare una forza positiva che cambia radicalmente la società e il futuro dell’umanità. Sottolinea l’importanza di affrontare le sfide etiche e di garantire una coesistenza responsabile tra l’IA e gli esseri umani per realizzare il suo pieno potenziale.
Ben visibile come sempre il disclaimer ChatGPT can make mistakes. Consider checking important information che nel nostro caso risulta veramente centrato.
I primi due atti, nascita ed apprendimento progressivo, rispecchiano fedelmente la realtà. I successivi, invece, percorrono una possibile evoluzione della tecnologia come se in realtà ci trovassimo nel 2080 e raccontassimo gli ultimi decenni. Per quanto riguarda l’atto 3 (la coscienza) c’è addirittura una data in cui viene sviluppata una coscienza “artificiale”, cosa tutt’altro che scontata al momento attuale. Nell’atto 5 (la sintesi) viene riportato che uomo ed intelligenza artificiale si trovano su un piano paritetico mentre nell’atto 6 (la trascendenza) si parla di simbiosi.
Questo è solo uno dei mille esempi che si possono fare. Per questo ci piace parlare di intelligenza (de)generativa ricordando a tutti che la tecnologia non è ancora così matura da poter essere messa sullo stesso piano dell’uomo.
Perché si verifica il fenomeno dell’allucinazione?
L’allucinazione può essere dovuta a vari fattori:
- Dati di addestramento non corretti o incompleti – Se l’intelligenza artificiale è stata addestrata con dati che sono scorretti, parziali, o che presentano bias, può generare risposte basate su queste informazioni
- Sovrapposizione o mancanza di contesto – Le intelligenze artificiali spesso non hanno la capacità di comprendere il contesto nel modo in cui gli esseri umani lo fanno. Possono quindi interpretare erroneamente il contesto o non essere in grado di collegare adeguatamente le informazioni
- Limitazioni dell’algoritmo – Gli algoritmi possono avere limitazioni intrinseche che portano a errori o interpretazioni errate
- Problemi di generalizzazione – Di fronte a situazioni nuove o sconosciute le intelligenze artificiali possono avere difficoltà nel generalizzare correttamente da ciò che hanno imparato dai dati di addestramento
- Errore di overfitting – Se un modello di intelligenza artificiale si adattasse troppo strettamente ai dati di addestramento, potrebbe non essere in grado di eseguire correttamente su dati nuovi o leggermente diversi
- Interferenze tra modelli – In alcuni casi, quando diversi modelli o sistemi lavorano insieme, possono interferire l’uno con l’altro, portando a interpretazioni errate o allucinazioni
- Problemi di codifica o implementazione – Errori nella codifica o nell’implementazione dell’intelligenza artificiale possono generare risposte errate.
L’allucinazione è spesso il risultato di una combinazione di questi fattori, che vanno dalla qualità e quantità dei dati di addestramento, alle caratteristiche intrinseche dell’algoritmo, fino a eventuali errori nell’implementazione del sistema. Aziende e startup del settore investono quindi parecchie energie in ricerca e sviluppo con l’obiettivo di migliorare l’affidabilità e la precisione dei modelli di intelligenza artificiale.
Techaways
Nonostante i molteplici rischi, le opportunità introdotte dall’intelligenza artificiale generativa sono concrete e permettono di apprezzarne le potenzialità anche chi non è addetto ai lavori. La strada è ancora lunga, soprattutto se si punta ad estendere queste tecnologie non solo alla sfera creativa ma alla creazione di contenuti fact-based, come ad esempio ricostruzioni storiche o articoli di cronaca, dove non si può dare spazio alle allucinazioni né tantomeno a bias. Abbiamo impiegato ben settant’anni per arrivare a questo punto quindi mettiamoci comodi e godiamoci insieme lo spettacolo in attesa di un finale che potrebbe essere tutt’altro che scontato!
Autore
Gianluca Desiderato – Dal 2006 lavora nell’industria digital. Ha iniziato la sua carriera come sviluppatore ed oggi ricopre il ruolo di Web Solutions Development Director nella prima internet company italiana. Contribuisce attivamente al mondo delle startup come coach e mentor e parla di tecnologia ed innovazione attraverso contenuti accessibili a tutti.