Show More
Menu
Image
Hi there! I am Federico Trotta

Technical WriterFreelance

Perché la Regolamentazione dell’AI è Vitale per il Manifatturiero

Ottobre 20, 2023
By Federico
In AI
0 Comments
Post Image

Gli ultimi mesi sono stati incredibilmente prosperi per l’intelligenza artificiale a tutti i livelli. Inoltre, anche se il divieto temporaneo di ChatGPT in Italia ha portato ad alcuni primi passi verso la regolamentazione dell’IA nell’UE, dobbiamo ancora fare di più. E infatti ricordiamo che anche Sam Altman, CEO di OpenAI, chiede una regolamentazione sull’AI (e non è il solo, per fortuna).

Tuttavia, ci sono campi che, a mio avviso, necessitano di una regolamentazione urgente sull’intelligenza artificiale e sull’uso dei dati, per diversi motivi.

Uno di questi campi è il manifatturiero e alcuni dei motivi sono che, spesso, le prestazioni dei lavoratori sono storicamente basate sui dati mentre, nel frattempo, i sistemi robotizzati e di intelligenza artificiale stanno sostituendo la forza lavoro umana.

In questo articolo discuteremo alcuni dei motivi per cui dovremmo intraprendere discussioni serie e immediate sulle normative etiche sull’uso dei dati e dell’intelligenza artificiale nel settore manifatturiero.


Sicurezza e responsabilità

Dal blog di Federico Trotta: un uomo con cappello che scende da una scala mobile con scritto "security" sul retro della maglietta
Foto di Ryan McGuire da Pixabay

Il modello della produzione intelligente si rinnova ogni anno. Molte fabbriche in tutto il mondo, infatti, stanno implementando sistemi autonomi per completare diverse attività.

Un esempio che possiamo considerare sono i magazzini automatizzati di Amazon. Se non ne hai mai visto uno, ecco un video.

Ora la domanda è: cosa succede se uno scaffale trasportato dai robot viene caricato male e i pacchi cadono addosso a un operatore umano?

Generalizziamo: cosa succede se, per qualsiasi motivo (magari un malfunzionamento), un essere umano viene danneggiato da un sistema autonomo? Chi è responsabile di questi casi? E come potremmo tutelare l’uomo in caso di incidente sul lavoro grazie ad un sistema autonomo? Chi ne pagherà le conseguenze e i danni?

Queste sono solo alcune delle domande a cui dovremmo rispondere.

Job Displacement

L’introduzione della robotica prima e dell’AI ora stanno portando al job displacement di molte figure nel mercato del lavoro.

Questo non è affatto sbagliato, secondo me, poiché ci sono alcuni compiti più adatti ai sistemi automatizzati, soprattutto se dotati di AI.

Faccio un esempio. Alcuni anni fa sono stato operatore di qualità in un’azienda manifatturiera. Odiavo quel lavoro – e infatti lo feci solo per circa sei mesi – perché lo trovavo ripetitivo e senza alcun valore aggiunto da parte mia. Questo è il tipico lavoro che può essere svolto da un sistema automatizzato dotato di AI.

Immaginiamo un nastro trasportatore dove posizioniamo tutti i pezzi da controllare. Passano sotto una telecamera e, grazie alla Computer Vision e al Deep Learning, il sistema determina quali pezzi devono essere scartati e quali no.

Ora, ancora oggi questo tipo di lavoro viene svolto principalmente dall’uomo: preleva i pezzi e ne controlla la conformità qualitativa. Tuttavia, negli ultimi anni sono stati distribuiti sul mercato molti sistemi automatizzati di controllo della qualità, e per buone ragioni.

Comunque, prima di tutto, la verità è che è abbastanza complicato (ad oggi) poter sostituire gli esseri umani al 100% in questi compiti. Voglio dire che, se volessimo che l’automazione e l’AI controllassero il 100% dei pezzi prodotti da un’azienda, avremmo bisogno di un grande sforzo per poterlo fare.

Immaginiamo, ad esempio, un’azienda manifatturiera che produce automobili. Avremmo bisogno di controllare: diversi fili, diversi pezzi di plastica, diversi pezzi di metallo e così via. Parliamo di centinaia di pezzi diversi, per intenderci. Ed è per questo che oggi questi sistemi vengono utilizzati solo per controllare le parti più delicate.

Parliamo il“linguaggio del Deep Learning”: non sarebbe sostenibile addestrare algoritmi DL per centinaia di parti diverse, ottenendo migliaia di immagini ciascuna per addestrare i modelli di DL e creando diversi nastri trasportatori per controllare queste parti. Quindi, data questa difficoltà intrinseca, la realtà è che oggi non possiamo semplicemente sostituire gli esseri umani con sistemi automatizzati e di AI in queste mensioni.

In ogni caso, la verità è che i lavoratori specializzati rappresentano un valore aggiunto per questo tipo di compiti, ed è per questo che le aziende (e forse i governi) devono creare programmi in grado di riqualificarsi e fornire nuove opportunità all’interno delle fabbriche per questo tipo di lavoratori.

In questo modo, mentre le aziende continuano a introdurre sistemi di intelligenza artificiale, possono riqualificare i propri lavoratori per migliorare il valore che vendono ai clienti.

Comprensione, chiarezza, e trasparenza

Una delle grandi sfide per gli “addetti ai lavori” è spiegare perché i sistemi di intelligenza artificiale formulino alcune raccomandazioni e come arrivino a determinate conclusioni.

La mancanza di spiegabilità è certamente una sfida da risolvere, e questo è particolarmente importante in un campo come il manifatturiero: gli operatori non devono considerare l’AI come “magia nera”.

Anche questo si ricollega al paragrafo precedente: la riqualificazione della forza lavoro richiede anche che le persone capiscano l’AI e siano in grado di spiegare come funziona agli altri dipendenti: in questo modo la spiegabilità diventa un impegno aziendale.

Ad esempio, se un sistema di qualità AI etichetta un pezzo come non conforme ma, dopo che un operatore lo ha controllato, abbiamo scoperto che il sistema AI ha fallito, dobbiamo spiegare agli operatori perché un errore dello 0% non è possibile, anche se oggi i modelli ML, come le reti neurali, hanno un tasso di errore molto basso.

Utilizzo dei dati e performance dei lavoratori

Dal blog di Federico Trotta: una immagine che mostra un grafico con andamento crescente nel tempo.
Foto di Tumisu da Pixabay

I sistemi di AI necessitano di un’enorme quantità di dati per addestrare gli algoritmi. Questi spesso includono informazioni sensibili relative ai processi produttivi e ai dati dei lavoratori.

Quindi, prima di tutto, la regolamentazione deve indirizzare le linee guida sulla raccolta e l’archiviazione dei dati, nonché almeno alcuni requisiti minimi contro le violazioni dei dati.

Inoltre, dobbiamo tenere conto di un utilizzo molto sensato dei dati nel settore manifatturiero. Molte aziende, infatti, soprattutto le più grandi, utilizzano i dati di produzione per valutare le performance degli operatori. In altre parole: se gli operatori riescono a concludere il proprio lavoro in un certo lasso di tempo e rispettando determinati standard di qualità, ricevono un compenso (in denaro, in genere).

Ora, questo tipo di utilizzo e analisi dei dati deve essere regolamentato in modo che, da un lato, gli operatori non diventino robot che vanno a lavorare solo per essere ricompensati per le loro prestazioni (e magari spingono altri operatori a lavorare di più affinché nessuno perda la ricompensa). D’altro canto, performance basate sui dati di produzione possono portare i manager ad “alzare l’asticella” con piccoli incrementi per far fare agli operatori sempre qualcosa di più: questo può portare al burnout o a peggiori danni fisici e psicologici che devono assolutamente essere evitati.


Conclusioni

In questo articolo abbiamo discusso alcuni argomenti che devono essere affrontati immediatamente, almeno a livello di discussione, per prendere seriamente in considerazione l’etica dell’IA nella produzione.

Inoltre, considerando la natura globale del settore manifatturiero, dovremmo pensare di stabilire standard e regolamenti internazionali sull’intelligenza artificiale. Promuovere collaborazioni tra paesi per affrontare le sfide etiche, infatti, può rappresentare una pietra miliare fondamentale nel mondo di oggi poiché l’intelligenza artificiale sta prendendo piede nelle aziende di tutto il mondo.

Pur comprendendo che l’etica è spesso legata alle tradizioni di un Paese, ciò può facilitare l’armonizzazione delle normative e promuovere pratiche responsabili, prevenendo usi non etici dei sistemi di intelligenza artificiale.


NOTA: questo articolo è stato originariamente creato in inglese e pubblicato su Towards Data Science.


Federico Trotta

Sono Federico Trotta e sono un Technical Writer.

Vuoi collaborare con me? Contattami.

Federico Trotta

Content & Technical Writer. I write about AI, programming, personal development & business.

Leave a reply