Sfogliare il testo completo della legge sull'AI online utilizzando il nostro AI Act Explorer.

Controllo della conformità alla legge sull'AI dell'UE

L'EU AI Act introduce nuovi obblighi per le entità situate all'interno dell'UE e altrove. Utilizzate il nostro strumento interattivo per determinare se il vostro sistema di IA sarà soggetto o meno a questi obblighi.

Se desiderate essere aggiornati sui vostri obblighi ai sensi dell'EU AI Act, vi consigliamo di iscrivervi alla EU AI Act Newsletter.

Per maggiore chiarezza, si consiglia di rivolgersi a un legale professionista e di seguire le indicazioni nazionali. Maggiori informazioni sull'applicazione della legge europea sull'AI nel vostro Paese saranno probabilmente fornite nel 2024.

Feedback - Stiamo lavorando per migliorare questo strumento. Inviate il vostro feedback a Taylor Jones all'indirizzo taylor@futureoflife.org

Il testo utilizzato in questo strumento è la "Legge sull'intelligenza artificiale (Regolamento (UE) 2024/1689), versione della Gazzetta ufficiale del 13 giugno 2024". File interistituzionale: 2021/0106(COD)

Changelog

26 marzo 2024

  • Corretto un bug che impediva ai Deployer di ricevere gli obblighi previsti dall'Articolo 29.
  • Rimosso il seguente avviso nel risultato "Obblighi ad alto rischio": "Un'ulteriore esclusione per i sistemi che sono "puramente accessori rispetto alla relativa azione o decisione da prendere" sarà definita entro un anno dall'introduzione della legge sull'AI." Questa esclusione non è più presente nell'articolo 7 della bozza finale.

11 marzo 2024

  • Aggiornato il Compliance Checker per riflettere la "bozza finale" dell'AI Act.

Privacy dei dati: Per potervi inviare i risultati via e-mail, siamo tenuti a memorizzare i vostri dati inseriti in questo modulo, compreso il vostro indirizzo e-mail. Se non utilizzate la funzione e-mail, nessuno dei vostri dati verrà memorizzato. Non memorizziamo nessun altro dato che possa essere utilizzato per identificare l'utente o il suo dispositivo. Se desiderate rimanere anonimi, utilizzate un indirizzo e-mail che non riveli la vostra identità. Non condividiamo i vostri dati con altre parti. Se desiderate che i vostri dati vengano cancellati dai nostri server, contattate taylor@futureoflife.org.

Domande frequenti

Chi ha sviluppato questo strumento e perché?

Questo strumento è stato sviluppato dal team del Future of Life Institute. Non siamo in alcun modo affiliati all'Unione Europea. Abbiamo sviluppato questo strumento volontariamente per favorire l'effettiva attuazione della legge sull'IA, perché riteniamo che la legge sull'IA sostenga la nostra missione di garantire che la tecnologia dell'IA rimanga benefica per la vita ed eviti rischi estremi su larga scala.

Posso integrare questo strumento nel mio sito web?

Il nostro strumento è costruito in modo tale da rendere difficile l'implementazione su altri siti. Non disponiamo di un'API. Pertanto, per la quasi totalità dei casi, vi suggeriamo di mettere questo strumento a disposizione degli utenti del vostro sito web, collegandovi a questa pagina web; siete invitati a utilizzare queste immagini di mockup per inserire lo strumento nel vostro sito.

Quando entra in vigore la legge sull'IA dell'UE?

La legge europea sull'AI è entrata in vigore il 1° agosto 2024. Segue ora un periodo di attuazione di due o tre anni, poiché le varie parti della legge entrano in vigore in date diverse. Il nostro calendario di attuazione fornisce una panoramica di tutte le date chiave relative all'attuazione della legge.

Durante il periodo di attuazione, si prevede che gli organismi di normazione europei sviluppino standard per l'AI Act.

Quali sono le categorie di rischio definite dall'EU AI Act?

Il quadro normativo della legge definisce quattro livelli di rischio per i sistemi di intelligenza artificiale: inaccettabile, elevato, limitato e minimo o nullo. I sistemi che presentano rischi inaccettabili, come la minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone - dal social scoring dei governi ai giocattoli che utilizzano l'assistenza vocale - saranno vietati. I sistemi ad alto rischio, come quelli utilizzati nelle infrastrutture critiche o nelle forze dell'ordine, dovranno soddisfare requisiti rigorosi, tra cui la valutazione del rischio, la qualità dei dati, la documentazione, la trasparenza, la supervisione umana e l'accuratezza. I sistemi che presentano rischi limitati, come i chatbot, devono rispettare gli obblighi di trasparenza in modo che gli utenti sappiano che non stanno interagendo con esseri umani. I sistemi a rischio minimo, come i giochi e i filtri antispam, possono essere utilizzati liberamente.

Quale percentuale di sistemi di IA rientrerà nella categoria ad alto rischio?

Non è certo quale percentuale di sistemi di IA rientrerà nella categoria ad alto rischio, poiché sia il campo dell'IA che la legge sono ancora in evoluzione. La Commissione europea ha stimato in uno studio d'impatto che solo il 5-15% delle applicazioni sarà soggetto a regole più severe. Uno studio condotto da appliedAI su 106 sistemi di IA aziendali ha rilevato che il 18% era ad alto rischio, il 42% a basso rischio e il 40% non era chiaro se ad alto o basso rischio. I sistemi con una classificazione del rischio non chiara in questo studio erano principalmente nei settori delle infrastrutture critiche, dell'occupazione, delle forze dell'ordine e della sicurezza dei prodotti. In un'indagine correlata su 113 startup dell'UE che si occupano di IA, il 33% delle startup intervistate riteneva che i propri sistemi di IA sarebbero stati classificati come ad alto rischio, rispetto al 5-15% valutato dalla Commissione europea.

 

Quali sono le sanzioni previste dalla legge sull'IA dell'UE?

In base alla posizione adottata dal Parlamento europeo, l'utilizzo di pratiche di IA vietate di cui all'articolo 5 può comportare multe fino a 40 milioni di euro o al 7% del fatturato mondiale annuo, se superiore. Il mancato rispetto dei requisiti di governance dei dati (ai sensi dell'articolo 10) e dei requisiti di trasparenza e fornitura di informazioni (ai sensi dell'articolo 13) può portare a multe fino a 20 milioni di euro, o al 4% del fatturato mondiale, se superiore. L'inosservanza di qualsiasi altro requisito o obbligo può comportare multe fino a 10 milioni di euro o al 2% del fatturato mondiale, sempre se superiore. Le ammende sono graduate a seconda della disposizione violata, con le pratiche vietate che ricevono le sanzioni più alte e le altre violazioni che ricevono ammende massime più basse.

 

Quali sono le misure che l'EU AI Act attua specificamente per le PMI?

La legge europea sull'intelligenza artificiale mira a fornire sostegno alle PMI e alle startup, come specificato nell'articolo 55. Tra le misure specifiche vi è la concessione di un accesso prioritario alle sandbox normative per le PMI e le startup con sede nell'UE, se vengono soddisfatti i criteri di ammissibilità. Inoltre, saranno organizzate attività di sensibilizzazione e di sviluppo delle competenze digitali su misura per rispondere alle esigenze delle organizzazioni più piccole. Inoltre, saranno creati canali di comunicazione dedicati per offrire orientamenti e rispondere alle domande di PMI e startup. Sarà inoltre incoraggiata la partecipazione delle PMI e di altre parti interessate al processo di sviluppo degli standard. Per ridurre l'onere finanziario della conformità, le tariffe per la valutazione della conformità saranno ridotte per le PMI e le start-up in base a fattori quali la fase di sviluppo, le dimensioni e la domanda di mercato. La Commissione riesaminerà regolarmente i costi di certificazione e conformità per le PMI/startup (con il contributo di consultazioni trasparenti) e collaborerà con gli Stati membri per ridurre tali costi, ove possibile.

 

Posso conformarmi volontariamente all'EU AI Act anche se il mio sistema non rientra nell'ambito di applicazione?

Sì! La Commissione, l'Ufficio AI e/o gli Stati membri incoraggeranno codici di condotta volontari per i requisiti di cui al Titolo III, Capitolo 2 (ad esempio, gestione del rischio, governance dei dati e supervisione umana) per i sistemi di IA non considerati ad alto rischio. Questi codici di condotta forniranno soluzioni tecniche per il modo in cui un sistema di IA può soddisfare i requisiti, in base alla finalità del sistema stesso. Verranno presi in considerazione altri obiettivi come la sostenibilità ambientale, l'accessibilità, la partecipazione degli stakeholder e la diversità dei team di sviluppo. Nell'incoraggiare i codici di condotta si terrà conto delle piccole imprese e delle startup. Si veda l'articolo 69 sui Codici di condotta per l'applicazione volontaria di requisiti specifici.