ChatGPT è la super intelligenza artificiale sviluppata da OpenAI che sta attirando molta attenzione. Si è dimostrata incredibilmente potente e ha grandi potenzialità per il futuro, ma non sempre con metodologie propriamente etiche.
Sommario
Il successo di ChatGPT
Microsoft ha compiuto un maxi-investimento in ChatGPT e questo dimostra l’importanza economica che questa nuova generazione di intelligenza artificiale ha acquisito. Tuttavia, non mancano le critiche e le preoccupazioni riguardanti la capacità di ChatGPT di proporre un linguaggio pressoché naturale, come si è visto nel mondo della pubblicazione scientifica.
Le critiche e i rischi associati
Alcune critiche a ChatGPT riguardano il rischio di essere terreno fertile per i cybercriminali, e il timore di perdere la leadership nel campo dei motori di ricerca. Inoltre, la possibilità che ChatGPT possa essere utilizzata per spam, ransomware e, in generale, attacchi informatici, preoccupa molte persone. Senza dimenticare l’inganno, in quanto non è facile andare ad individuare il vero autore di un determinato testo.
Le regole per l’uso etico degli LLM
Urgono regole di base sull’uso etico degli LLM da parte di editori e autori. Springer Nature ha definito dei princìpi fondamentali per evitare il rischio che un testo frutto di una intelligenza artificiale venga tacciato come lavoro di un essere umano. Ad esempio, nessuno strumento LLM sarà accettato come autore accreditato su un motore di ricerca e chi usa strumenti LLM è tenuto a riportarlo nell’articolo/testo. Inoltre, per smascherare eventuali frodi è possibile verificare la presenza o meno nel testo delle fonti, poiché ChatGPT non è ancora in grado di citarle in modo autonomo.