L’intelligenza artificiale generativa (GAN) è una tecnologia promettente, ma anche molto delicata. Lo sa bene Meta, l’azienda di Mark Zuckerberg che ha investito molto in questo settore. L’esperienza con Galactica, una delle prime IA generative presentate dall’azienda, ha dimostrato che non è facile controllare questi algoritmi e che la strada verso un loro utilizzo diffuso è ancora lunga.

Galactica, la IA generativa di Meta

Galactica è stata presentata da Meta il 15 novembre del 2022, solo due settimane prima dell’avvento di ChatGpt, un’altra IA generativa che ha fatto molto parlare di sé. Galactica era un modello linguistico di grandi dimensioni (LLM), addestrato su 48 milioni di esempi di articoli scientifici, in grado di generare testo, tradurre, predire e riassumere informazioni su argomenti complessi.

L’obiettivo di Galactica era aiutare scienziati e ricercatori a svolgere il loro lavoro in modo più efficiente. Ma la demo aperta al pubblico ha mostrato fin da subito alcuni problemi, tra cui errori grossolani nell’offerta di informazioni.

La chiusura di Galactica

Dopo soli tre giorni dalla presentazione, Galactica è stata chiusa. Qualcuno aveva infatti trovato il modo di usarla per produrre disinformazione e linguaggio violento.

Meta ha pubblicato un comunicato in cui spiega che le IA generative come Galactica possono generare testo che sembra autentico ma non è accurato. L’azienda ha deciso di rimuovere la versione beta di Galactica, ma il modello resterà a disposizione dei ricercatori che vorranno farne uso.

L’importanza della trasparenza e del lavoro aperto

Il caso Galactica ha dimostrato che l’IA generativa è ancora una tecnologia molto delicata e che deve essere utilizzata con molta cautela. Meta ha dichiarato che l’unico modo per migliorare questa tecnologia è attraverso un lavoro aperto, trasparente e riproducibile.

Secondo Joelle Pineau, Managing Director, Fundamental AI Research di Meta, è importante che il pubblico comprenda in modo trasparente i pregi e i difetti di questi modelli di linguaggio. Proprio attraverso i feedback degli utenti, infatti, si possono mitigare i difetti.

Il ruolo dei ricercatori

Per Meta, i ricercatori hanno un ruolo fondamentale nello sviluppo dell’IA generativa. Sono loro che devono lavorare per migliorare i modelli di linguaggio, renderli più precisi e affidabili, e garantire che vengano utilizzati per il bene della società.

L’esperienza con Galactica ha dimostrato che il lavoro dei ricercatori è ancora fondamentale per evitare problemi come quelli riscontrati. Pineau ha sottolineato che la trasparenza e la condivisione dei dati sono fondamentali per migliorare l’IA generativa, perché solo così si può comprendere e mitigare i suoi difetti. Questo significa che è necessario lavorare insieme, anche attraverso la creazione di comunità di ricercatori e di utenti, per far sì che l’IA generativa sia utilizzata nel modo migliore possibile.

Il problema dell’allucinazione dei dati nell’IA generativa

Come già segnalato in precedenza, il problema dell’allucinazione dei dati nell’IA generativa è molto concreto. Questo problema si verifica quando l’intelligenza artificiale produce con estrema confidenza un testo che appare plausibile e coerente ma che, in realtà, nasconde inesattezze. Errori facilmente individuabili nelle risposte a quesiti superficiali, ma quasi impossibili da scovare se l’argomento trattato è estremamente complesso.

Questo tipo di problematica non riguarda solo Meta, ma è comune a molte altre aziende che si occupano di Intelligenza Artificiale. Tuttavia, Meta ha un obiettivo ambizioso: diventare leader nell’IA generativa. Per farlo, è necessario che questa IA sia il più possibile “responsabile”. Ma anche una IA “responsabile” può diventare un problema se non viene gestita con la dovuta attenzione.

Allucinazione Dati AI

Il caso Galactica

Galactica è stata presentata da Meta il 15 novembre del 2022, solo due settimane prima dell’avvento di ChatGpt, un’altra IA generativa che ha fatto molto parlare di sé. Galactica era un modello linguistico di grandi dimensioni (LLM), addestrato su 48 milioni di esempi di articoli scientifici, in grado di generare testo, tradurre, predire e riassumere informazioni su argomenti complessi.

L’obiettivo di Galactica era aiutare scienziati e ricercatori a svolgere il loro lavoro in modo più efficiente. Ma la demo aperta al pubblico ha mostrato fin da subito alcuni problemi, tra cui errori grossolani nell’offerta di informazioni. Dopo soli tre giorni dalla presentazione, Galactica è stata chiusa. Qualcuno aveva infatti trovato il modo di usarla per produrre disinformazione e linguaggio violento.

Meta ha pubblicato un comunicato in cui spiega che le IA generative come Galactica possono generare testo che sembra autentico ma non è accurato. L’azienda ha deciso di rimuovere la versione beta di Galactica, ma il modello resterà a disposizione dei ricercatori che vorranno farne uso.

L’importanza della trasparenza e del lavoro aperto

Il caso Galactica ha dimostrato che l’IA generativa è ancora una tecnologia molto delicata e che deve essere utilizzata con molta cautela. Per evitare di incorrere in errori simili in futuro, Meta ha annunciato di voler fare un maggiore uso della trasparenza e del lavoro aperto.

Questo approccio prevede di condividere pubblicamente i dati, gli algoritmi e le tecniche utilizzate per sviluppare le IA generative. In questo modo, altri ricercatori e sviluppatori potranno contribuire al miglioramento di questi modelli, segnalare eventuali problemi e suggerire soluzioni.

Inoltre, Meta ha annunciato di voler investire maggiormente in ricerca e sviluppo dell’IA generativa, al fine di garantire la massima qualità e sicurezza dei propri prodotti. Questo include anche l’implementazione di sistemi di controllo per prevenire l’utilizzo improprio delle IA generative.

Il coinvolgimento della comunità

Un altro aspetto importante del lavoro aperto è il coinvolgimento della comunità. Meta ha già avviato iniziative per coinvolgere esperti, accademici e membri della comunità nella progettazione e valutazione dei suoi prodotti di IA generativa. Questo può contribuire a migliorare la qualità e l’affidabilità delle IA prodotte dall’azienda, nonché a prevenire l’utilizzo improprio dei modelli.

Ad esempio, Meta ha collaborato con l’Università di Stanford per sviluppare una piattaforma di benchmarking per le IA generative. Questa piattaforma consente agli utenti di confrontare le prestazioni delle diverse IA e di segnalare eventuali problemi.

L’importanza della regolamentazione

Infine, un altro modo per garantire la sicurezza e l’affidabilità delle IA generative è attraverso la regolamentazione. Attualmente, non esistono regolamenti specifici per le IA generative, ma ci sono molte discussioni in corso sul tema.

Meta regolamentazione

In questo contesto, Meta ha dichiarato di essere favorevole a una maggiore regolamentazione delle IA generative, al fine di garantire che queste tecnologie siano utilizzate in modo sicuro e responsabile. Tuttavia, l’azienda ha anche sottolineato l’importanza di una regolamentazione equilibrata, che non limiti l’innovazione e lo sviluppo di nuove tecnologie.

Meta e la sua storia nell’Intelligenza Artificiale

Meta ha iniziato a investire nell’Intelligenza Artificiale già nel 2013, quando Mark Zuckerberg ha convinto i maggiori esperti dell’IA a lavorare per Facebook in cambio di stipendi milionari. La società ha continuato a investire centinaia di milioni di dollari in questo settore.

Nel 2022, Meta ha lanciato BlenderBot, un chatbot con cui dialogare in modo naturale, simile a ChatGpt. Tuttavia, BlenderBot è stato presto usato per generare teorie cospirative e hate speech, portando Meta a ridurre le sue capacità. Questo rischio è presente ogni volta che si cerca di limitare l’IA generativa, perché il risultato potrebbe essere una piattaforma noiosa e priva di entusiasmo.

L’importanza della presentazione dell’Intelligenza Artificiale

Oggi, in un momento di grande rivoluzione nell’IA, l’aspetto cruciale è come questa tecnologia viene presentata. ChatGpt ha stupito tutti con la sua capacità di scrivere racconti, poesie, lettere romantiche e per questo gli vengono perdonate molte cose.

D’altra parte, Galactica e Bard hanno sconfinato in campi dove l’errore non è contemplato, almeno fino a quando non diventa frutto dell’esperienza umana. Microsoft ha optato per un’IA più innocua, come Bing, che offre consigli per la scelta di ricette e di auto. Ma quando Bing sarà aperto a tutti, sarà più facile manipolare l’IA e vedremo cosa accadrà.

In ogni caso, l’addestramento dell’IA in base ai feedback degli utenti sembra essere la strada migliore per allinearla alle loro azioni e ai loro giudizi, come ha dichiarato Satya Nadella, CEO di Microsoft, in occasione del lancio del nuovo Bing, che attinge all’IA di ChatGpt per conversare con gli utenti.

Conclusione

In conclusione, il ritardo di Meta nell’Intelligenza Artificiale potrebbe rappresentare un campanello d’allarme per l’azienda, che ha l’obiettivo di diventare leader nell’IA generativa. Tuttavia, l’IA generativa è una tecnologia promettente ma delicata, e la sua gestione richiede molta attenzione per evitare problemi come la disinformazione e il linguaggio violento. L’addestramento dell’IA in base ai feedback degli utenti sembra essere la strada migliore per allinearla alle loro azioni e ai loro giudizi. Infine, in un momento di grande rivoluzione nell’IA, l’aspetto cruciale è come questa tecnologia viene presentata, perché un’IA troppo sicura e priva di entusiasmo potrebbe diventare noiosa e perdere l’attenzione degli utenti.