AI Act – NUOVA

Verso un’Intelligenza Artificiale Affidabile e Sicura

Le nostre soluzioni per la conformità all’AI Act

L'AI Act promuove un'Intelligenza Artificiale affidabile che pone al centro la salute, la sicurezza e i diritti fondamentali dell'uomo.

Adotta un approccio basato sul rischio, classificando i sistemi di intelligenza artificiale in base al loro potenziale impatto.
 Impone requisiti rigorosi per i sistemi ad alto rischio o a rischio sistemico.

Una grande sfida per le aziende

L’adeguamento all’AI Act è una sfida nuova e unica per la natura complessa della tecnologia che ne è alla base. Una consulenza efficace deve conoscere le caratteristiche tipiche di questo dominio per poterle affrontare.

Sfida #1

I sistemi IA sono generalmente creati, distribuiti e utilizzati da un network di aziende e stakeholders, che coinvolge professionisti di estrazione diversa come sviluppatori software, data scientist, UX designer, esperti di cybersecurity, compliance officer, solo per citarne alcuni.

Risposta #1

I nostri esperti hanno una competenza verticale che va oltre le conoscenze legali. Nessuna pretesa di sostituire le altre professionalità, ma la volontà di confrontarsi con tutti agli attori coinvolti su temi di sicurezza, qualità del dato, privacy by design e valori etici.

Sfida #2

L’ambito di operatività di alcuni modelli, a partire dai noti LLMs è talmente vasto che è davvero complesso prevedere i possibili scenari di rischio derivanti dai contesti specifici in cui verranno utilizzati.

Risposta #2

L’esperienza acquisita da BSD Legal nel settore della privacy by design di software e applicazioni fa la differenza anche in questo settore. In fondo l’AI Act condivide con il GDPR lo stesso approccio basato sul rischio.

Sfida #3

La qualità dei dati e dei processi, a partire dalla fase di training, sono fondamentali in una prospettiva non solo tecnica o legale, ma anche etica.

Risposta #3

Abbiamo stretto una forte partnership con Immanence, società benefit che vuole trasformare l’approccio alle tecnologie digitali valutando negli impatti e i rischi etici per garantire uno sviluppo tecnologico nel pieno rispetto dei diritti umani.

Sfida #4

Dopo l’implementazione, emerge la sfida di verificare che il sistema IA continui a soddisfare tutti i requisiti necessari (post market monitoring). Questo perché gli algoritmi dei sistemi IA -come gli output da essi generati- possono cambiare, continuando ad “imparare” nel periodo successivo alla loro messa in commercio.

Risposta #4

La metodologia alla base della nostra valutazione del rischio, si spinge fino ad analizzare i cambiamenti prevedibili nelle prestazioni o output dei sistemi IA, in un’ottica pro attiva e non reattiva a possibili cambiamenti, come richiesto dalle migliori prassi di AI by design.

Cosa richiede l’AI ACT

Ecco una panoramica della documentazione o dei requisiti necessari in relazione alla tipologia di sistema IA. Le responsabilità, però, possono variare a seconda del ruolo dell’attore (provider, importer, distributor o deployer).

TECHNICAL DOCUMENTATION per Sistemi IA ad Alto Rischio

Ad alto livello deve contenere una descrizione degli elementi hardware e software del sistema, delle sue finalità e dell’output desiderato; un assessment sulle misure procedurali e tecniche per implementare la supervisione umana e facilitare l’interpretazione.

QUALITY MANAGEMENT SYSTEM per Sistemi IA ad Alto Rischio

In un’ottica di governance comprende informazioni su: design, sviluppo, test, aderenza alle specifiche tecniche, gestione dei dati e del rischio, monitoraggio post-market, procedure di segnalazione degli incidenti, record keeping, gestione delle risorse e un framework di accountability.

RISK MANAGEMENT SYSTEM per Sistemi IA ad Alto Rischio

Un processo continuo e iterativo incentrato sull’identificazione, stima e valutazione dei rischi, sull’adozione di misure mirate per la loro mitigazione, sulla considerazione delle competenze e della formazione necessaria da parte degli operatori.

LOG MANAGEMENT SYSTEM per Sistemi IA ad Alto Rischio

Il sistema deve registrare automaticamente una serie di eventi (logs) per documentare il periodo di ciascun utilizzo del sistema, il database di riferimento utilizzato per controllare i dati di input o le persone fisiche coinvolte nella verifica dei risultati.

POST-MARKET MONITORING SYSTEM per Sistemi IA ad Alto Rischio

Per definire e documentare un sistema di raccolta e analisi attiva dei dati sulle prestazioni del sistema durante tutto il ciclo di vita dell’IA, garantendo il rispetto continuo delle normative, comprese le interazioni con altri sistemi.

INSTRUCTIONS OF USE per Sistemi IA ad Alto Rischio

Una sorta di manuale d’uso di facile lettura, a carattere fortemente esplicativo: deve includere dettagli del provider, caratteristiche del sistema, capacità e limitazioni prestazionali, misure perla supervisione umana, requisiti di calcolo e manutenzione e meccanismi di log management.

CERTIFICATION & REGISTRATION PROTOCOLS per Sistemi IA ad Alto Rischio

Una sorta di manuale d’uso di facile lettura, a carattere fortemente esplicativo: deve includere dettagli del provider, caratteristiche del sistema, capacità e limitazioni prestazionali, misure perla supervisione umana, requisiti di calcolo e manutenzione.

FUNDAMENTAL RIGHTS IMPACT ASSESSMENT per Sistemi IA ad Alto Rischio

Per identificare e mitigare l’impatto negativo che l’implementazione del sistema di IA potrebbe avere sui principi etici e sui diritti fondamentali delle persone, concentrandosi su rischi di danni a persone o gruppi specifici in relazione al contesto di utilizzo.

TRANSPARENCY OBLIGATIONS per Sistemi IA a Rischio Limitato

Gli obblighi di trasparenza impongono ai fornitori e agli utilizzatori di determinati sistemi di intelligenza artificiale di informare le persone fisiche sulle interazioni con l’intelligenza artificiale, contrassegnare i contenuti sintetici, informare le persone sui sistemi.

OTHER REQUIREMENTS per sistemi e modelli IA per finalità generali

Ulteriori obblighi di trasparenza per alcuni sistemi utilizzati per scopi diversi e un regime più rigoroso soprattutto nei confronti di modelli che potrebbero comportare un rischio sistemico con impatti ad esempio sulle infrastrutture critiche, su settori critici o su processi democratici.

Da dove iniziare? Prova subito il nostro "HIGH-RISK AI SYSTEM DETECTOR"

Uno strumento che abbiamo ideato per determinare se un sistema di intelligenza artificiale è classificato come ad alto rischio ai sensi del Regolamento Europeo sull’Intelligenza Artificiale (AI ACT).

Con il nostro Detector valuti facilmente il livello di rischio dei tuoi sistemi di intelligenza artificiale.

PROVA SUBITO "HI-RISK AI SYSTEM DETECTOR"

Perché questo aspetto è cruciale? Perché identificare il tuo sistema come ad alto rischio o meno innesca una serie di obblighi, da rigorosi requisiti di conformità, nel primo caso, a condizioni normative più snelle e leggere, nel secondo. Questo strumento rappresenta quindi il primo passo verso la comprensione degli obblighi legati al Regolamento, fornendo chiarezza sul percorso normativo che è necessario seguire.

La nostra metodologia

La nostra esperienza nella gestione del rischio, in tema di privacy by design, ci ha guidato nella creazione di una metodologia che fornisca una consulenza lungo tutto il ciclo vitale dell’AI fino alla fase di monitoraggio post market, come richiesto dal Regolamento.

Stage 1.
INITIAL ASSESSMENT

Iniziamo con una valutazione dettagliata del vostro Sistema IA, per identificare in quale specifica categoria di rischio rientra. A quel punto saremo in grado di identificare i requisiti necessarie e/o le eventuali lacune di conformità.

Stage 2.
STRATEGIC PLANNING

Sulla base della valutazione, elaboriamo un piano strategico che delinea i passaggi necessari per la conformità, considerando la natura specifica del vostro Sistema o Applicazione IA.

Stage 3.
DOCUMENTATION & REPORTING

Il nostro team redigerà la documentazione legale ed etica – quest’ultima con il supporto di Immanence – che è necessaria rispetto al rischio analizzato, oltre ai report richiesti dalla normativa per la conformità del sistema.

Stage 4.
CONTINUOS MONITORING & UPDATES

Le normative sull’IA si stanno evolvendo. Nuove linee guida e codici di condotta verranno pubblicati dopo l’AI Act. L’obiettivo è quindi quello di fornire un monitoraggio e aggiornamento continuo per garantire che i vostri sistemi rimangano conformi ai più recenti requisiti legali.

Scopri Immanence, il nostro partner

BSD Legal è orgogliosa di collaborare con Immanence, una società benefit leader nel campo della valutazione dei rischi etici delle tecnologie digitali. L’approccio unico di Immanence si distingue per la sua sensibilità nel valutari gli impatti legati al contesto socio-tecnico, al fine di prioritizzare le questioni etiche e gli impatti sociali più rilevanti di ogni tecnologia. Insieme ad Immanence siamo in grado di allargare lo spettro dei nostri servizi di consulenza, garantendo valutazioni ulteriori a quelle legali e di sicurezza, verso una tecnologia etica, responsabile e sostenibile.

AI Talks

INTRODUZIONE AL MACHINE LEARNING PER TUTTI (PT.1)
PRIVACY BY DESIGN APPLICATA ALL'INTELLIGENZA ARTIFICIALE
I RISCHI DEL RICONOSCIMENTO FACCIALE
INTRODUZIONE AL MACHINE LEARNING PER TUTTI (PT. 2)

Vuoi saperne di più?

Invia un messaggio

Compila il form e scopri come possiamo aiutarti.