Simulare una conversazione, scrivere un racconto, riassumere per punti un testo, creare video o immagini di ogni tipo. Sono queste alcune delle funzioni che, ad oggi, l’intelligenza artificiale può mettere in campo. Un tema di stretta attualità, ma anche tanto discusso. Proprio recentemente all’USI si è dibattuto sui rischi delle tecnologie del linguaggio. È davvero come quello umano? Le macchine possono davvero fare tutto? Abbiamo rivolto queste domande alla professoressa dell’Università di Washington Emily Bender, una delle 100 persone più influenti al mondo su questo tema.
L’intelligenza artificiale è davvero simile al linguaggio umano o in cosa si distingue?
“Quando interagiamo con ChatGPT, questa ci restituisce delle parole che per noi hanno senso e che comprendiamo. Per questo tendiamo a immaginare una ‘mente’ dentro ChatGPT, che però non c’è. Facciamo tutto noi. Quando entriamo in contatto con il linguaggio, di solito viene da una persona. È solo con strumenti come ChatGPT che per la prima volta vediamo il linguaggio venire da nessun luogo”.
Uno dei rischi delle tecnologie del linguaggio è che si possa pensare che con l’intelligenza artificiale si possa fare tutto…
“In effetti sembra così perché usiamo il linguaggio per fare molte cose. Abbiamo macchine che parlano di medicina, di legge, di sport ma in realtà non sono dottori o avvocati. Ci danno solo il linguaggio. Le macchine padroneggiano la forma del linguaggio, ovvero la sintassi, la pronuncia o lo spelling, ma non hanno accesso al significato, alla semantica. Ogni volta che sembrano essere intelligenti in realtà siamo noi che diamo senso all’informazione che ne scaturisce. È meglio pensare che siano degli strumenti e chiedergli a loro volta degli strumenti di progettazione per quello che ci serve fare”.
Strumenti che possono essere utili nella nostra quotidianità, ma che hanno però anche i loro limiti…
“Si possono fare delle trascrizioni automatiche in italiano, si può prendere un messaggio vocale e usarlo per un’e-mail e la maggior parte delle volte è anche corretto. Ma se ci trovassimo in un’aula di un tribunale, l’AI non sarebbe in grado di redigere uno scritto di un testimone o comunque ci sarebbe bisogno l’intervento di una persona che faccia i dovuti controlli”.
La presenza umana rimane dunque imprescindibile. L’AI ha però anche un impatto ambientale non indifferente…
“Il grosso problema è che l’intelligenza artificiale si sta allenando con tantissimi modelli linguistici diversi. Questo implica numerosi computer e altrettanta energia, acqua per raffreddare i data center e tanto materiale per costruire chip. Tutto questo è nascosto al consumatore, ma sta avendo un grande impatto ambientale. Un impatto che sta diventando sempre più grande man mano che il modello si espande”.
In un mondo che corre, in cui la stessa intelligenza artificiale ha aperto nuove strade percorribili, cosa aspettarsi dal futuro?
“Possiamo immaginare un futuro positivo e uno negativo. Il futuro positivo è un'applicazione specifica e ben progettata, che esegue la traduzione automatica, la trascrizione automatica, ecc. Quel genere di cose che possono essere testate per quello che intendono fare. Nel futuro negativo abbiamo testi falsi o testi sintetici e persone che fingono che sia istruzione, che sia psicoterapia, che sia un buon contratto legale. Tutto questo può causare un grosso pasticcio”.