ChatGPT-4: “l’umana tecnologia” tra progresso e divieti. La risposta Europea

Dopo il clamoroso boom di ChatGPT-3, il 14 marzo 2023 è stata annunciata l’uscita di ChatGPT-4, la quarta versione del software OpenAI, un chatbot AI al quale puoi fare qualsiasi domanda e lui risponderà.

I costruttori del futuro

GPT, l’acronimo di Generative Pre-trained Transformer, è una tecnologia di deep learning sviluppata dalla società di ricerca e implementazione AI, OpenAI.                                                                                   L’organizzazione, con sede a San Francisco, è stata fondata da alcuni imprenditori di spicco, tra cui Elon Musk, Sam Altman, Peter Thiel, il capo scienziato di OpenAI Ilya Sutskever, Jessica Livingston e il cofondatore di Linkedin Reid Hoffman. Inoltre, nel 2019 ha unito le forze con il gigante tecnologico Microsoft, il quale, tramite un investimento pluriennale e multimiliardario, ha ottenuto la licenza esclusiva per la tecnologia dell’azienda di intelligenza artificiale.

Il chatbot ancora più intelligente

Rispetto alla versione precedente, questo modello linguistico garantisce una maggiore accuratezza nelle risposte del 40% ed è più avanzato in tre aree chiave: creatività, contesto più lungo e input visivo. Possiamo notare questi miglioramenti del software grazie alla realizzazione di test sull’accuratezza delle risposte di ChatGPT-4.

Nell’ambito creativo è capace di comporre musica, sceneggiature nello stile preferito, arrivando ad elaborare fino a 25.000 parole. Ma una delle più grandi novità rimane proprio l’utilizzo di input multimediali, come immagini e video, da cui sviluppa idee logiche in relazione ad essi. Nell’esempio mostrato nella livestream di presentazione, da uno sketch a matita, caricato come immagine, Sam Altman ha chiesto di generare un sito internet. In pochi minuti, GPT-4 è riuscito a realizzarlo.

Nuove frontiere, dunque, non solo di scritturae di comprensione del linguaggio naturale, ma anche di creazione informatica.

Sono proprio questi i fattori che hanno permesso alle aziende di interfacciarsi in un modo del tutto nuovo con l’intelligenza artificiale, velocizzando e semplificando le tempistiche in ambiti come ricerca e sviluppo, servizio clienti, consulenza finanziaria, creazione di contenuti, generazione di giochi e istruzione.

In più la tecnologia ChatGPT può anche essere utilizzata per far incrementare i livelli di cyber security:

  • ChatGPT può assistere gli analisti della sicurezza nello studio e nella segnalazione delle minacce, il che porterà a una più rapida scoperta e correzione dell’esposizione ad esse;
  • man mano che la tecnologia ChatGPT prende piede nel mondo dello sviluppo del software, può essere formata con contenuti più sicuri. Gli sviluppatori che usano questo tipo di tecnologia riutilizzeranno software con sempre meno vulnerabilità, una manutenzione più semplice e linee guida più sicure, portando a implementazioni più solide di secure-by-design.
  • l’uso di questa tecnologia da parte di red team e blue team può essere portato al livello successivo quando si tratta di test di penetrazione della cybersecurity, scansione delle vulnerabilità, programmi di bug bounty, scoperta/analisi della superficie di attacco e molto altro ancora.

Ma, nonostante possa sembrare di interagire con una persona umana, si tratta pur sempre di un chatbot digitale che mostra diversi limiti e pericoli non trascurabili. Proprio OpenAI ha affermato di star lavorando per affrontare situazioni di pregiudizi sociali, allucinazioni e suggerimenti contraddittori.

Il momentaneo blocco italiano

L’Italia si è mossa da subito, con le proprie istituzioni, per risolvere problemi legati alla privacy. Il Garante per la Protezione dei Dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI.

Nel provvedimento, il Garante ha rilevato la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Da ultimo, nonostante il servizio sia rivolto ai maggiori di 13 anni, l’Autorità ha evidenziato come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti, esponesse i minori a risposte inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

Da parte sua, OpenAI, con un articolo del 5 aprile apparso sul sito web della società americana, ha ribadito l’impegno a mantenere l’intelligenza artificiale sicura e vantaggiosa: “Ci impegniamo attivamente con i governi sulla forma migliore che tale regolamentazione potrebbe assumere. Lavoriamo duramente per prevenire i rischi prevedibili prima della distribuzione, tuttavia, c’è un limite a ciò che possiamo imparare in un laboratorio”.

“Per quanto concerne il rispetto della privacy, in particolare, OpenAI rende noto che non utilizzano i dati per vendere servizi, pubblicità o creare profili di utenti, ma per rendere il sistema più utile per le persone. Sono stati presi accorgimenti tecnici per rimuovere le informazioni personali dal set di dati di addestramento, per perfezionare i modelli allo scopo di rifiutare le richieste di informazioni personali dei privati e rispondere efficacemente alle richieste degli individui di eliminare le loro informazioni personali dai nostri sistemi. Questi passaggi riducono al minimo la possibilità che i modelli in uso possano generare risposte che includono informazioni personali di privati.”

OpenAI ha dichiarato dunque di rispettare le regole sulla protezione dei dati ed in ogni caso si è posta in collaborazione con il Garante per ulteriori tutele. Il Garante ha invece evidenziato come non ci sia alcuna intenzione da parte dell’autorità di frenare lo sviluppo e la diffusione della AI e ha richiesto l’introduzione di strumenti per le tutele necessarie verso i dati degli utenti.

La società si è dunque impegnata a migliorare la trasparenza nell’utilizzodell’intelligenza artificiale, per tutelare i diritti degli utenti e delle categorie più a rischio ed è riuscita, dopo settimane di sospensione, a ripristinare il servizio in Italia.

È stata quindi introdotta una schermata di benvenuto con i rimandi alla nuova informativa sulla privacy e alle modalità di trattamento dei dati personali per il training degli algoritmi;  inserito nella maschera di registrazione al servizio la richiesta della data di nascita prevedendo un blocco per gli utenti infratredicenni e, nell’ipotesi di ultratredicenni ma minorenni una conferma del consenso dei genitori all’uso del servizio.

Queste condizioni dovranno essere migliorate tramite la presentazione di un piano per realizzare un sistema di verifica dell’età (entro il 31 maggio) e la realizzazione di una campagna di comunicazione su radio, tv, media e internet per informare le persone su come algoritmi come ChatGPT usano i dati personali (da lanciare entro il 15 maggio).

Tra i provvedimenti già adottati, OpenAI ha proposto una sorta di versione in “incognito” per gli utenti, che consente di disabilitare di default la cronologia delle conversazioni, escludendole dai dati utilizzati per allenare l’algoritmo. Perché è importante? Perché i dati personali che servono a ChatGPT per migliorare le proprie capacità di stabilire in modo probabilistico quale parola viene dopo un’altra, generando un testo di senso compiuto, non sono tanto il nostro nome, cognome, la data di nascita o il codice fiscale, ma tutte quelle informazioni che ci rappresentano (come gusti musicali, letterari, abitudini sessuali, tendenze politiche) che dichiariamo o lasciamo intendere quando interroghiamo il chatbot e che il sistema deve fare propri per fornire una risposta il più possibile attendibile e in linea con le nostre richieste.

La situazione in altri paesi europei

L’Italia è così diventata il primo paese a regolamentare ChatGPT, ma altri paesi dell’Unione europea potrebbero presto seguirne l’esempio.

Il commissario federale tedesco per la protezione dei dati e la libertà di informazione, Ulrich Kelber, ha infatti affermato che la Germania potrebbe interrompere temporaneamente ChatGPT nel caso si decidesse di verificare se la tecnologia viola il regolamento generale sulla protezione dei dati (GDPR) dell’Unione Europea. Nel frattempo, le autorità di Francia e Irlanda stanno tenendo d’occhio le indagini dell’Italia, secondo un report dell’agenzia Reuters. Anche la Spagna potrebbe unirsi al gruppo di paesi che procedono contro ChatGPT, mentre i legislatori svedesi sembrano meno propensi a prendere una decisione nel breve periodo.

Allo stesso tempo, la Commissione Europea sta portando avanti il progetto che conduce all’EU AI Act, la prima legislazione a livello mondiale che tenta di regolamentare l’IA in maniera strutturale e completa. Il disegno di legge è in ritardo poiché i responsabili sono alla ricerca dell’equilibrio adatto tra la regolamentazione della privacy e i rischi per la sicurezza, senza andare contro allo sviluppo tecnico e al potenziale economico sottostante alle nuove tecnologie di intelligenza artificiale. Anche perché l’innovazione non si può bloccare: lo dimostra la censura da parte del Garante italiano, aggirato con una semplice VPN o con PizzaGPT e altri strumenti simili, che si sono diffusi grazie alle API open source di OpenAI.

Dunque, si tratta di una proposta di legge europea non per fermare lo sviluppo dell’intelligenza artificiale ma per regolare i punti più delicati come i sistemi che possono mettere a rischio la privacy, la democrazia, i diritti umani, i dati medici. La Comunità Europea sta lavorando in un’ottima direzione, mentre in America l’aspetto commerciale è quello prevalente e non esiste alcuna forma di tutela o di regolamentazione.

Conclusioni

Chiaramente il problema dell’intelligenza artificiale generativa non è soltanto questo. Non bastano i meccanismi di privacy by design e privacy by default, ovvero i controlli e i rimedi per tutelare la privacy degli interessati, specie se minori. Come scrive Massimiliano Masnada, Partner di Hogan Lovells occorre creare una nuova cultura tecnologica che si fondi sull’etica e sul rispetto dei diritti fondamentali.

Tutto ciò fa sorgere tante domande critiche: è giusto limitarne l’uso? Quanto è spessa la linea tra finzione e realtà? Potrebbe diventare l’unica fonte di ricerca online? È costruttivo per la crescita dei ragazzi? I pro superano i contro?

Sappiamo con certezza che dietro ogni forma di progresso ci sono sia aspetti positivi che negativi. In questo caso vengono inglobati entrambi, perché, come abbiamo visto, se da un lato ChatGPT4 è uno strumento di conoscenza in grado di agevolarci nella vita di tutti i giorni e nel lavoro, dall’altro potrebbe essere un pericolo per la nostra privacy, per la diffusione di fake news e per tutte le avanzatissime funzioni del software che possono comportare significative perdite di posti di lavoro, disinformazione e manipolazione dell’opinione pubblica. Ma la preoccupazione più grande è sicuramente quella di un crescente analfabetismo funzionale e di ritorno. Il mancato esercizio delle capacità di analisi, critiche, di interrogarsi e costruire le risposte, che costa tempo e fatica, rischia di produrre col tempo persone dipendenti da strumenti pronti ad offrire risposte immediate che gli stessi utenti non sono in grado di valutare, interpretare e comprendere appieno.

Dunque, è lecito domandarci: dobbiamo veramente essere entusiasti circa l’evoluzione di questo potentissimo strumento? Ai postumi l’ardua sentenza.

Valeria Di Francesco

Link:

1. https://openai.com/research/gpt-4
2. https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847
3. https://notiziario.uspi.it/chatgpt-4-la-nuova-versione-del-software-ai-di-openai/
4. https://tg24.sky.it/tecnologia/2023/04/28/chatgpt-italia-di-nuovo-disponibile
5. https://time.com/6263022/what-to-know-about-chatgpt-4/
6. https://www.infodata.ilsole24ore.com/2023/04/01/chatgpt-disabilitato-in-italia-la-questione-dei-dati-di-chatgpt-e-le-ragioni-del-blocco-del-garante-della-privacy/
7. https://www.hwupgrade.it/news/web/blocco-a-chatgpt-altre-nazioni-europee-potrebbero-seguire-l-italia_115577.html

Lascia un commento

Ti piacerebbe scrivere per il nostro blog?

Contattaci per entrare a far parte della redazione di UIF