ChatGpt: quando le macchine diventano troppo umane
ChatGpt, il nuovo chatbot di intelligenza artificiale (Ai) sviluppato da OpenAI, sta facendo molto parlare di sé per le sue sorprendenti capacità. Guy Parsons, esperto di marketing e appassionato di Ai, ha chiesto al chatbot di creare un film horror ambientato su una piattaforma petrolifera e il risultato è stato una sinossi con tensione, personaggi ben delineati e accenni a un oscuro segreto.
Il chatbot è addestrato tramite testi provenienti da libri, articoli e siti web che sono stati “puliti” e strutturati con un processo chiamato apprendimento supervisionato. ChatGpt è in grado di scrivere in codice, inventare canzoni, e comporre poesie o haiku. Può anche raccontare barzellette e spiegare perché sono divertenti. Tuttavia, dietro alla prosa efficace del sistema c’è una mancanza di profondità e il chatbot commette errori fattuali, confondendo eventi e persone, e fa ampio affidamento a tropi e luoghi comuni.
La preoccupante somiglianza con il mondo reale
ChatGpt è stato addestrato con testi presi dal mondo reale, e il mondo reale è in sostanza fondato sulle “cazzate scorrevoli”, come le ha descritte The Verge. Il problema non è limitato alle sole industrie creative, ma è ovunque: nei post virali su LinkedIn, nei podcast, nella politica, nell’economia, nell’istruzione, nella consulenza e anche nel giornalismo. Il mondo è zeppo di persone che hanno raggiunto il vertice perché sono state in grado di parlare in modo credibile senza dire nulla di concreto.
In questo contesto, la capacità di ChatGpt di imitare il processo preconfezionato con cui vengono realizzati molti prodotti culturali, come film, libri e podcast, diventa ancora più preoccupante. Il chatbot imita un mondo che è già troppo pieno di cazzate scorrevoli, producendo parole che sono perlopiù prive di sostanza.