Avv. Giuseppe Croari – Dott. Salvatore Benigno

L’Intelligenza Artificiale (AI) è spesso utilizzata dalle imprese del settore tessile per automatizzare alcune fasi del processo produttivo o per migliorare la customer experience. In tale settore, infatti, l’IA può essere utilizzata per:

  1. gestire la catena degli approvvigionamenti;
  2. gestire il ciclo produttivo del capo d’abbigliamento;
  3. prevedere le future tendenze;
  4. personalizzare l’esperienza d’acquisto dei clienti.

I sistemi di AI, tuttavia, devono essere utilizzati in modo prudente e consapevole, per sfruttarne al meglio le potenzialità e garantire i diritti e le libertà di coloro che ne vengono in contatto.

La proposta di regolamento dell’UE

Con tale consapevolezza, nell’aprile 2021 la Commissione Europea presentava una proposta di regolamento sull’Intelligenza Artificiale (c.d. AI Act) al fine di regolarne lo sviluppo e l’applicazione nel territorio Europeo.

Sebbene il processo legislativo relativo all’AI Act non si sia ancora concluso, è possibile individuare alcune delle principali caratteristiche che si ritroveranno nel testo definitivo.

Sul punto, infatti, il 9 dicembre scorso è stato finalmente raggiunto un accordo – politico – tra i principali attori del processo legislativo (Commissione Europea, Parlamento Europeo e Consiglio dell’Unione Europea).

Con tale Accordo si è confermato l’approccio normativo fondato sui rischi che i sistemi di Intelligenza Artificiale generano per i diritti e le libertà degli individui. Lo scopo è introdurre un quadro normativo su diversi livelli: maggiori sono i rischi generati dall’AI, maggiori sono gli obblighi e i divieti imposti dalla normativa.

Livelli di rischio

L’attuale proposta si fonda su 4 livelli di rischio:

  • Rischio basso;
  • Rischio alto;
  • Rischio inaccettabile;
  • Rischio per la trasparenza.

BASSO RISCHIO

I sistemi a basso rischio sono esenti dagli obblighi e dai divieti imposti dall’AI Act. Le imprese fornitrici di tali sistemi potranno eventualmente aderire a codici di condotta, eventualmente elaborati dalle stesse imprese fornitrici.

ALTO RISCHIO

Il fulcro del quadro normativo delineato dall’AI Act, invece, si articola intorno ai sistemi di Intelligenza Artificiale classificati ad alto rischio. Per questi sistemi, infatti, sono previsti una serie di obblighi che i produttori, gli importatori, i distributori e gli stessi utenti sono chiamati a rispettare. A titolo puramente esemplificativo, l’attuale proposta prevede:

  • la predisposizione di un sistema per la gestione dei rischi;
  • l’utilizzo di dati per l’addestramento dell’AI dotati di requisiti qualitativi;
  • l’adozione di adeguata documentazione a riprova della conformità del sistema di AI alle previsioni normative;
  • la predisposizione di un sistema che garantisca la sorveglianza umana e la comprensione dei processi applicati dall’AI.

RISCHIO INACCETTABILE

Il terzo livello di rischio, invece, è classificato come “inaccettabile”, poiché contrario ai principi e ai valori dell’Unione Europea e ai diritti fondamentali dell’individuo. Per i sistemi a rischio inaccettabile, l’attuale proposta prevede un secco divieto. A titolo puramente esemplificativo, sono vietati i sistemi che determinano:

  • il c.d. “social scoring”, ossia sistemi che attribuiscono una valutazione e classificazione dell’individuo;
  • la manipolazione del comportamento dell’individuo mediante l’utilizzo di meccanismi subliminali;
  • l’identificazione biometrica da remoto ed in tempo reale dei soggetti presenti in luogo pubblico, ossia l’identificazione degli individui mediante l’utilizzo di dati biometrici, quali il volto, il fisico, etc.

TRASPARENZA

Infine, la proposta di regolamento prevede alcuni specifici obblighi in tema di trasparenza per determinati sistemi di AI, definiti a rischio moderato o a rischio per la trasparenza. Per questi l’attuale proposta prevede:

  • che i sistemi «destinati ad interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA»;
  • che le persone fisiche siano informate in merito al funzionamento dei sistemi che consentono  il riconoscimento di emozioni o la categorizzazione biometrica;
  • che i sistemi che alterano immagini, audio e video in modo da renderli apparentemente veritieri o autentici (c.d. “deep fake”) informino le persone fisiche che tali contenuti siano stati generati o manipolati artificialmente.

In attesa della versione definitiva

Come anticipato, nonostante si sia raggiunto un accordo politico sull’AI Act, il procedimento legislativo non si è ancora concluso. In attesa di addivenire ad una versione definitiva, l’utilizzo e lo sviluppo dell’Intelligenza Artificiale non può certamente arrestarsi.

Per tale ragione, la Commissione Europea ha avviato un procedimento per raggiungere ad un patto transitorio (Patto per l’AI) con i principali attori del mercato europeo. Le imprese che intendono farsi trovare preparate in vista dell’entrata in vigore dell’AI Act possono partecipare attivamente presentando la propria canditura attraverso il sito istituzionale della Commissione Europea.