Show More
Menu
Image
Hi there! I am Federico Trotta

Technical WriterFreelance

Vietato ChatGPT In Italia: Cosa è Successo e Perché

Aprile 1, 2023
By Federico
In AI
0 Comments
Post Image

Hai sicuramente sentito che chatGPT è stato vietato in Italia. Come sviluppatore e utente di chatGPT, mi sento un po’ confuso.

Siamo onesti: abbiamo assolutamente bisogno di regolamentare l’AI. Ma non solo.
Qui il problema è legato alla raccolta di dati. E lasciatemi ricordare a tutti noi che molti servizi “hanno problemi” con la raccolta di dati. Quindi, lasciatemi scrivere questo articolo per aiutare voi (e me) a capire cosa stia succedendo qui in Italia in queste ultime ore, riguardo al divieto di chatGP.

La questione del Garante

Questa è la situazione di oggi se si cerca di accedere a chatGPT dall’Italia:

Ban di chatgpt by Federico Trotta.
Il blocco di chatGPT in Italia. Immagine dell’Autore.

Quali sono i problemi che il Garante ha con chatGPT? Vediamoli e cerchiamo di capire. Ecco la dichiarazione ufficiale:

IL GARANTE PER LA PROTEZIONE DEI DATI PERSONALI

VISTO il Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 (di seguito, “Regolamento”);

VISTO altresì il Codice in materia di protezione dei dati personali (d.lgs. 30 giugno 2003, n. 196);

PRESO ATTO dei numerosi interventi dei media relativamente al funzionamento del servizio di ChatGPT;

RILEVATO, da una verifica effettuata in merito, che non viene fornita alcuna informativa agli utenti, né agli interessati i cui dati sono stati raccolti da OpenAI, L.L.C. e trattati tramite il servizio di ChatGPT;

RILEVATA l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT;

RILEVATO che il trattamento di dati personali degli interessati risulta inesatto in quanto le informazioni fornite da ChatGPT non sempre corrispondono al dato reale;

RILEVATO, inoltre, l’assenza di qualsivoglia verifica dell’età degli utenti in relazione al servizio ChatGPT che, secondo i termini pubblicati da OpenAI L.L.C., è riservato a soggetti che abbiano compiuto almeno 13 anni;

CONSIDERATO che l’assenza di filtri per i minori di età di 13 anni espone gli stessi a risposte assolutamente inidonee rispetto al grado di sviluppo e autoconsapevolezza degli stessi;

RITENUTO pertanto che nella situazione sopra delineata, il trattamento dei dati personali degli utenti, compresi i minori, e degli interessati i cui dati sono utilizzati dal servizio si ponga in violazione degli artt. 5, 6, 8, 13 e 25 del Regolamento;

RAVVISATA, pertanto, la necessità di disporre, ai sensi dell’art. 58, par. 2, lett. f), del Regolamento – in via d’urgenza e nelle more del completamento della necessaria istruttoria rispetto a quanto sin qui emerso nei confronti di OpenAI L.L.C., società statunitense sviluppatrice e gestrice di ChatGPT, la misura della limitazione provvisoria del trattamento;

RITENUTO che, in assenza di qualsivoglia meccanismo di verifica dell’età degli utenti, nonché, comunque, del complesso delle violazioni rilevate, detta limitazione provvisoria debba estendersi a tutti i dati personali degli interessati stabiliti nel territorio italiano;

RITENUTO necessario disporre la predetta limitazione con effetto immediato a decorrere dalla data di ricezione del presente provvedimento, riservandosi ogni altra determinazione all’esito della definizione dell’istruttoria avviata sul caso;

RICORDATO che, in caso di inosservanza della misura disposta dal Garante, trova applicazione la sanzione penale di cui all’art. 170 del Codice e le sanzioni amministrative previste dall’art. 83, par. 5, lett. e), del Regolamento;

RITENUTO, in base a quanto sopra descritto, che ricorrano i presupposti per l’applicazione dell’art. 5, comma 8, del Regolamento n. 1/2000 sull’organizzazione e il funzionamento dell’ufficio del Garante, il quale prevede che «Nei casi di particolare urgenza e di indifferibilità che non permettono la convocazione in tempo utile del Garante, il presidente può adottare i provvedimenti di competenza dell’organo, i quali cessano di avere efficacia sin dal momento della loro adozione se non sono ratificati dal Garante nella prima riunione utile, da convocarsi non oltre il trentesimo giorno»;

VISTA la documentazione in atti;

TUTTO CIÒ PREMESSO IL GARANTE:

a) ai sensi dell’art. 58, par. 2, lett. f), del Regolamento dispone, in via d’urgenza, nei confronti di OpenAI L.L.C., società statunitense sviluppatrice e gestrice di ChatGPT, in qualità di titolare del trattamento dei dati personali effettuato attraverso tale applicazione, la misura della limitazione provvisoria, del trattamento dei dati personali degli interessati stabiliti nel territorio italiano;

b) la predetta limitazione ha effetto immediato a decorrere dalla data di ricezione del presente provvedimento, con riserva di ogni altra determinazione all’esito della definizione dell’istruttoria avviata sul caso.

Il Garante, ai sensi dell’art. 58, par. 1, del Regolamento (UE) 2016/679, invita il titolare del trattamento destinatario del provvedimento, altresì, entro 20 giorni dalla data di ricezione dello stesso, a comunicare quali iniziative siano state intraprese al fine di dare attuazione a quanto prescritto e di fornire ogni elemento ritenuto utile a giustificare le violazioni sopra evidenziate. Si ricorda che il mancato riscontro alla richiesta ai sensi dell’art. 58 è punito con la sanzione amministrativa di cui all’art. 83, par. 5, lett. e), del Regolamento (UE) 2016/679.

Ai sensi dell’art. 78 del Regolamento, nonché degli artt. 152 del Codice e 10 del d. lg. 1° settembre 2011, n. 150, avverso il presente provvedimento può essere proposta opposizione all’autorità giudiziaria ordinaria, con ricorso depositato al tribunale ordinario del luogo ove ha la residenza il titolare del trattamento dei dati, entro il termine di trenta giorni dalla data di comunicazione del provvedimento stesso, ovvero di sessanta giorni se il ricorrente risiede all’estero.

In Roma, 30 marzo 2023

IL PRESIDENTE
Stanzione

Analizziamo le ragioni del Garante

Innanzitutto, lascia che ti dica una cosa: se leggi attentamente, OpenAI ha scritto “abbiamo disattivato chatGPT per gli utenti in Italia su richiesta del Garante italiano”. Quindi, il Garante ha chiesto chiarimenti sulle pratiche di OpenAI, e loro hanno deciso di disattivare il servizio. Sono sicuro che sia successo perché OpenAI abbia bisogno di tempo prima di rispondere (e fare eventuali correzioni).

Detto questo, cerchiamo di analizzare le ragioni del Garante. Lasciamo le regolamentazioni e le leggi alle nostre spalle e concentriamoci di più sulle questioni di dati e AI. Per me, le parti importanti sono le seguenti:

  • CONSIDERANDO i numerosi interventi sui media riguardanti il funzionamento del servizio ChatGPT“. Certo, i media svolgono un ruolo importante nel modo in cui le cose funzionano, in generale. Non conosco il tuo paese, ma scommetto che funzioni così anche lì: i media trasmettono principalmente notizie negative. Quindi, la mia domanda è: quante buone notizie su chatGPT sono state trasmesse dai media? Quante di queste sono state prese in considerazione dal Garante? Inoltre, trovo la dichiarazione troppo vaga…
  • AVENDO OSSERVATO, da una verifica effettuata a tal riguardo, che non vengono fornite informazioni agli utenti, né ai soggetti cui i dati sono stati raccolti da OpenAI, L.L.C. e elaborati attraverso il servizio ChatGPT“. Questo è un vero punto sulla privacy, non c’è nulla da dire.
  • CONSTATANDO l’assenza di una base giuridica adeguata per quanto riguarda la raccolta dei dati personali e il loro trattamento ai fini della formazione degli algoritmi alla base del funzionamento di ChatGPT“. Un altro punto importante. Come hanno addestrato i Data Scientist chatGPT? Hanno avuto accesso ad esempio a email personali o di lavoro? Beh, potrebbero averlo fatto…
  • AVENDO OSSERVATO che il trattamento dei dati personali dei soggetti interessati è inesatto in quanto le informazioni fornite da ChatGPT non corrispondono sempre ai dati reali”. Beh, è così che funziona il Machine Learning… inoltre, come dichiarato, chatGPT non è collegato a Internet, quindi non è aggiornato per le notizie attuali…
  • “Inoltre si OSSERVA l’assenza di qualsiasi verifica dell’età degli utenti in relazione al servizio ChatGPT, che, secondo i termini pubblicati da OpenAI L.L.C., è riservato a individui di almeno 13 anni”. Punto valido, ma è lo stesso per i social media. E i social media sono molto più pericolosi per i giovani di 13 anni! E inoltre: come potremmo verificare l’identità delle persone? L’utilizzo di una Carta d’Identità darebbe accesso a dati personali!
  • “CONSIDERANDO che l’assenza di filtri per gli utenti di età inferiore ai 13 anni li espone a risposte completamente inadeguate al loro livello di sviluppo e consapevolezza di sé”. Altro punto valido, ma ancora una volta: come è diverso da come funzionano i social media? E inoltre: di che tipo di risposte stiamo parlando? Ricordiamo che i genitori possono vietare l’accesso a determinati siti web se necessario…

Il buono ed il cattivo

Lasciami dire una cosa: mi preoccupo molto della mia privacy. Questo è il motivo per cui non uso più Facebook e non ho mai usato Instagram.

Mi piace scrivere di me, ma non pubblico foto di me stesso, della mia famiglia o qualsiasi cosa che considero troppo privata.

Quindi, è bene che abbiamo un’autorità come Garante.

Inoltre, nel caso non lo sapessi, molte Big Tech hanno pagato milioni di euro per non essere conformi alla normativa sulla privacy dell’UE e dell’Italia (GDPR). Facebook è uno di essi. Quindi, è un’ottima autorità.

Ma lasciami dire come penso che andrà a finire: nei prossimi giorni comparirà un disclaimer, forse OpenAI pagherà qualche soldo e tutto sarà concluso. Questo sarebbe un brutto finale, anche se non finirà così perché i veri problemi di privacy resteranno probabilmente sotto al tappeto.

Quindi, le mie domande attuali sulla privacy sono le seguenti:

  • Come possiamo proteggere i bambini da chatGPT? Mi pare di capire che molti di loro lo stiano utilizzando come fosse uno psicologo. Questo è sicuramente un problema.
  • Come è stato addestrato chatGPT? Abbiamo accettato di fornire i nostri dati, oppure i Data Scientist hanno fatto scraping dei nostri dati senza il nostro consenso? Penso di conoscere la risposta, ma comunque la cosa è già stata fatta…
  • Come OpenAI utilizza i nostri dati? Voglio dire, sappiamo che utilizzano le prompt per migliorare l’algoritmo, ma come? Possiamo evitare di dare il nostro consenso?

Inoltre, mi pare di capire che Facebook ora sia molto restrittivo, forse a causa delle sanzioni che hanno dovuto pagare in passato per non essere conformi alle norme sulla privacy dell’UE e dell’Italia. Gli esperti mi dicono che i minori sono ora maggiormente protetti rispetto al passato, ma temo che non sia così per tutti i social media, e penso a TikTok, ad esempio (fatemi sapere se mi sbaglio!). E come stanno le cose per tutte le app presenti nei negli APP store, invece?

La questione dei dati aziendali

Alcune persone su Internet dicono che una delle ragioni per cui dovremmo preoccuparci di chatGPT è che utilizza i prompt (quindi, anche le nostre risposte) per migliorare l’algoritmo. Ciò potrebbe portare OpenAI ad acquisire dati aziendali.

Bene, questo è un motivo valido, ma lasciatemi dire una cosa: non dovrebbe essere obbligo delle aziende creare regolamenti interni per gestire casi come questo? Per esempio: “Cari colleghi, siamo lieti che possiate utilizzare uno strumento potente come chatGPT nel vostro lavoro quotidiano, tuttavia…” e segue un elenco di divieti.

Conclusioni

Sono un sostenitore della protezione dei miei dati e credo che il Garante abbia diverse ragioni valide. Non sono d’accordo con la sospensione del servizio ma, come si può vedere, ci sono soluzioni alternative disponibili.

Inoltre, ricordiamoci che chatGPT non è più l’unico servizio sul mercato che fornisce soluzioni simili. Quindi, possiamo anche utilizzare un altro servizio, oppure online trovi diverse soluzioni per utilizzare comunque chatGPT in Italia. Tuttavia, credo che siamo arrivati ​​a un punto in cui le istituzioni devono essere tempestive.

L’AI ha bisogno di regolamentazioni, in particolare per la protezione dei dati, e non possiamo più arrivare al punto in cui un servizio viene rilasciato sul mercato e, dopo 4 mesi, qualcuno lo interrompe perché non è conforme.

Servizi del genere sono utili per velocizzare e migliorare le attività quotidiane, quindi non possiamo semplicemente sospenderli dopo che le persone si sono abituate ad essi. Autorità e istituzioni devono accelerare i loro processi di regolamentazione e devono iniziare a considerare la regolamentazione dell’AI prima che il processo sfugga loro di mano.



Federico Trotta

Sono Federico Trotta e sono un Technical Writer.

Vuoi collaborare con me? Contattami.

Federico Trotta

Technical Writer: I document digital products and write articles about AI & Python programming.

Leave a reply