ChatGPT è un pericolo?

Condividi:

Settimana scorsa ChatGPT è stato disabilitato in Italia, soprattutto dopo che il 20 marzo il programma subì una perdita di dati (in gergo “data breach”) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento. In un precedente articolo avevamo già discusso delle potenzialità e delle problematiche portate in gioco da questo nuovo strumento, un chatbot di elaborazione del linguaggio naturale guidato dalla tecnologia AI che ti consente di avere conversazioni simili – se non uguali – a quelle umane. Questo modello sviluppato dalla società di ricerca e intelligenza artificiale OpenAI (lanciato il 30 novembre 2022), permette infatti di rispondere a domande e assisterti in attività come la composizione di e-mail, saggi o codici di programmazione. E il successo di tale piattaforma fu letteralmente disarmante: secondo, infatti, un’analisi della banca svizzera USB, ChatGPT è l’applicazione più in rapida crescita di tutti i tempi, stimando come avesse già 100 milioni di utenti attivi a gennaio, solo due mesi dopo il suo lancio nel mercato (per fare un confronto, l’app asiatica TikTok – che oramai tutti abbiamo scaricato nei nostri telefoni – ha impiegato nove mesi per raggiungere tale risultato).

Vediamo, però, nel seguente articolo le motivazioni del blocco in Italia e, principalmente, le preoccupazioni globali dello sviluppo di questa intelligenza artificiale.

 

ChatGPT bloccato in Italia

L’Italia è diventato il primo Paese occidentale a bloccare ChatGPT. Il Garante per la protezione dei dati personali, infatti, ha affermato che vi sono stati problemi di privacy relativi al modello di intelligenza artificiale, dichiarando la necessità di vietare e indagare su OpenAI “con effetto immediato”.

Più nel dettaglio, l’autorità italiana ha rilevato – e affermato nel provvedimento emanato – la mancanza di un’informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti dal sistema; ma, soprattutto, l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Infine, nonostante il servizio sia rivolto ai maggiori di 13 anni (secondo i termini pubblicati dalla stessa piattaforma americana), l’Autorità italiana evidenzia come non sia presente nessun filtro per la verifica dell’età degli utenti, esponendo centinaia di minori a risposte assolutamente inidonee rispetto al loro grado di autoconsapevolezza.

OpenAI, quindi, che non ha una sede nell’Unione Europea ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo. Nel frattempo, lo stesso Ceo di OpenAI, Sam Altaman ha affermato su Twitter il 31 marzo: “Ovviamente ci rimettiamo al governo italiano e abbiamo smesso di offrire ChatGPT in Italia (anche se pensiamo di seguire tutte le leggi sulla privacy). L’Italia è uno dei miei Paesi preferiti e non vedo l’ora di tornarci presto”.

 

Una preoccupazione crescente

Alcuni dei più grandi nomi della tecnologia hanno, sempre la scorsa settimana, richiesto ai laboratori di intelligenza artificiale di interrompere l’addestramento dei più potenti sistemi di AI per almeno sei mesi, citando “profondi rischi per la società e l’umanità”. In particolare, tali preoccupazioni sono state narrate all’interno di una lettera, firmata da dozzine di leader tecnologici, professori e ricercatori – tra cui il CEO di Tesla, Elon Musk – e pubblicata dal Future of Life Institute, un’organizzazione no profit (ampiamente sostenuta dallo stesso Musk).

Entrando più nel dettaglio, la lettera (che comprende anche un sistema di raccolta firme per bloccare i sistemi di sviluppo AI) dichiara che, come anche affermato dai Principi Asilomar AI (una delle prime e più influenti serie di principi di governance delle intelligenze artificiali emanate nel 2017), “l’AI avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate”. Ed è questo ciò che già sottolineavamo nel nostro precedente articolo: l’“invasione” dell’AI in letteralmente quattro mesi e, soprattutto, la loro immensa potenzialità non sostenuta da un adeguato sistema governativo e giuridico. “Dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?”. Sono queste le domande che la lettera espone al pubblico, affermando chiaramente come questi potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili.

Ovviamente non possiamo ipotizzare come sarà il futuro. Non possiamo prevedere se la “vittoria delle macchine” sarà un panorama plausibile fra qualche anno. L’unica cosa di cui, però, siamo certi è che ormai è troppo tardi. Tutte le applicazioni, dai classici sistemi di ricerca a quelle “per divertimento”, utilizzano ampi strumenti – principalmente algoritmi – per balcanizzare il pubblico in “bolle” personali, mostrando all’utente solamente ciò che gli potrebbe piacere e nascondendolo molto spesso da una realtà e verità completa. ChatGPT non è quindi che un altro nuovo, pesante, tassello di un sistema ampiamente in crescita; evoluzione e “maturazione” di uno strumento totalmente contraddittorio: sempre più presente e opprimente, ma sempre più nascosto e difficile da controllare. Oramai le leggi non potranno più anticipare il problema; dovranno solo “tappare i buchi” e coprire possibili errori.

Arienti Stefano

Arienti Stefano

Scopri altri articoli