Regolamentazione dell'Intelligenza Artificiale in Svizzera

< Torna al blog

Pubblicazioni Fidinam & Partners Protezione dati e Privacy Svizzera

Introduzione

Negli ultimi anni, l’Intelligenza Artificiale (IA) ha conosciuto una rapida evoluzione, portando sia opportunità che sfide giuridiche, specialmente in materia di trasparenza e tracciabilità delle decisioni automatizzate. La Svizzera, pur non disponendo ancora di una legislazione specifica sull’IA, ha riconosciuto la necessità di valutare il proprio quadro normativo in relazione alle nuove regolamentazioni internazionali, come la Convenzione del Consiglio d’Europa e l’AI Act dell’UE. Per questo motivo, il Consiglio Federale ha incaricato il DATEC (UFCOM) e il DFAE (Segreteria di Stato, Divisione Europa) di elaborare un’analisi della situazione attuale, che servirà da base per definire un approccio regolatorio equilibrato1

L'analisi commissionata dal Consiglio Federale in breve

 
L’analisi evidenzia che il futuro quadro regolatorio della Svizzera deve rispondere ai seguenti tre obiettivi principali:
  1. Rafforzare la Svizzera come centro di innovazione garantendo che il paese rimanga competitivo a livello tecnologico ed economico;
  2. Tutelare i diritti fondamentali e la libertà economica, assicurando che l’uso dell’IA sia trasparente e responsabile;
  3. Accrescere la fiducia del pubblico nell’IA, garantendo una regolamentazione chiara e un uso etico delle tecnologie IA.
 
Alla luce di tali obiettivi, il Consiglio federale, nella sua seduta del 12 febbraio, ha definito i seguenti parametri chiave2:
  • La Convenzione sull’IA del Consiglio d’Europa (di seguito “Convenzione”) sarà integrata nel diritto svizzero;
  • Laddove sono necessarie modifiche legislative, queste devono essere il più possibile specifiche per il settore. La regolamentazione generale e intersettoriale è limitata alle aree centrali rilevanti per i diritti fondamentali, come la protezione dei dati.
  • Oltre alla legislazione, si stanno sviluppando anche misure giuridicamente non vincolanti per l'attuazione della Convenzione. Queste possono includere accordi di autodichiarazione o soluzioni industriali.

Con questo approccio, il Consiglio federale mira a garantire un equilibrio tra innovazione e protezione dei diritti fondamentali, evitando oneri sproporzionati per le imprese, assicurando allo stesso tempo che il quadro giuridico svizzero resti adattabile alle evoluzioni tecnologiche e agli standard internazionali per non creare barriere al commercio.

 

1. Integrazione della Convenzione del diritto svizzero

Il Consiglio Federale ha deciso di ratificare la Convenzione del Consiglio d’Europa sull’Intelligenza Artificiale, optando per un approccio più flessibile e meno vincolante rispetto all’AI Act dell’UE. 
La Svizzera ha ritenuto che il quadro normativo europeo fosse eccessivamente restrittivo, introducendo obblighi rigidi per le aziende e imponendo requisiti di classificazione del rischio che potrebbero penalizzare l’innovazione. La Convenzione offre un quadro più flessibile, lasciando agli Stati maggiore autonomia nell’attuazione delle misure necessarie.

2.   Regolamentazione Settoriale

La Svizzera dispone già di normative settoriale applicabile all’AI e di una Legge sulla protezione dei dati (LPD) tecnologicamente neutra, che garantisce la protezione dei dati senza bisogno di un quadro regolatorio rigido come quello dell’UE.

Ad esempio, i seguenti settori hanno già adottato regolamenti specifici per gestire i rischi e le opportunità dell’AI:

  • Energia → Implementazione di IA per l’ottimizzazione della distribuzione e la sicurezza della rete.
  • Trasporti → Regolamentazione della guida autonoma e delle infrastrutture intelligenti.
  • Sanità → Uso dell’IA per il miglioramento della diagnostica e del trattamento personalizzato.
  • Finanza → Monitoraggio del rischio IA e prevenzione della discriminazione algoritmica.
  • Sicurezza pubblica → Uso dell’IA per il riconoscimento biometrico e l’analisi predittiva. (ad esempio settore dell’Energia, trasporti, Sanità). 

Per quanto riguarda la LPD, la sua revisione totale è stata formulata in modo tecnologicamente neutro e pertanto direttamente applicabile anche al trattamento dei dati basati sull’IA3. Va ricordata l’introduzione di obblighi vincolanti per il titolare del trattamento come l’obbligo di trasparenza, di mitigare i rischi dei trattamenti, allestire valutazione d’impatti in presenza di rischio elevato, e i diritti delle persone interessate come ad esempio quello di opporsi ad un trattamento automatizzato dei dati e la possibilità di richiedere un intervento umano di fronte a decisioni individuali automatizzate.

Tuttavia, l’addestramento dei sistemi IA richiede una raccolta di massa di dati personali da numerose fonti e di conseguenza non è in linea con i principi di minimizzazione, riconoscibilità, accuratezza o finalità dei dati.

Pertanto, pur essendo già regolata in modo relativamente completo dal quadro legislativo esistente, alcune modifiche potrebbero essere necessarie per rafforzare la trasparenza e migliorare l’efficacia delle garanzie esistenti. Tra le possibili misure legislative4:

  • Obbligo di informazione per le decisioni automatizzate: attualmente, l’obbligo di trasparenza si applica solo se una decisione è presa esclusivamente tramite un sistema automatizzato. L’IA viene spesso utilizzata come supporto decisionale e non rientra in questa normativa.
  • Dichiarazione dei sistemi IA utilizzati: mentre oggi l’annuncio è volontario, si valuta la possibilità di rendere obbligatoria la registrazione dei sistemi di IA nel settore pubblico.
  • Mitigazione dell’“effetto scatola nera”: documentazione dettagliata, audit e test regolari per garantire che gli algoritmi rimangano comprensibili e tracciabili.
  • Coordinamento tra la regolamentazione dell’IA e la LPD, in particolare per l’obbligo di condurre un’analisi d’impatto sulla protezione dei dati.


3.    Misure non giuridicamente vincolanti

Oltre alla legislazione e agli interventi normativi, il Consiglio Federale prevede l’attuazione di misure non giuridicamente vincolanti per facilitare l’applicazione della Convenzione del Consiglio d’Europa e garantire una regolamentazione più flessibile. Queste misure comprendono per esempio:

  • Accordi di autodichiarazione: Le imprese e le istituzioni pubbliche potranno aderire volontariamente a principi etici e best practice per l’uso responsabile dell’IA, favorendo una maggiore trasparenza e responsabilità senza l’imposizione di obblighi normativi.
  • Soluzioni di settore: Elaborazione di linee guida specifiche per l’uso dell’IA in ambiti come sanità, finanza e sicurezza, al fine di evitare una regolamentazione rigida e permettere un adattamento più agile alle esigenze dei diversi settori.
  • Registri volontari per i sistemi IA nel settore pubblico: Il Centro Nazionale per l’IA (CNAI) tiene un registro volontario dei sistemi IA impiegati nelle amministrazioni pubbliche. Il Consiglio Federale valuterà il potenziamento di questa misura per garantire maggiore trasparenza senza introdurre nuovi obblighi legali.
  • Certificazioni e standard tecnici volontari: Introduzione di certificazioni di conformità per i sistemi IA che rispettano determinati criteri di sicurezza e trasparenza, consentendo agli operatori di dimostrare il proprio impegno nell’uso responsabile dell’IA.

Queste misure non vincolanti si affiancano agli interventi normativi per creare un ecosistema regolatorio equilibrato, che garantisca l’innovazione e la protezione dei diritti fondamentali senza ostacolare lo sviluppo tecnologico.

 

4.    Prossimi passi

il Consiglio Federale ha delineato una serie di azioni future per garantire un quadro normativo aggiornato e coerente con le evoluzioni tecnologiche:

  • Elaborazione di un progetto di consultazione entro il 2026
    Il Dipartimento Federale di Giustizia e Polizia (DFGP) insieme al DATEC e al DFAE lavorerà su proposte legislative per integrare le disposizioni della Convenzione, con particolare attenzione alla trasparenza, protezione dei dati e non discriminazione.
  • Monitoraggio e coordinamento internazionale
    La Svizzera continuerà a collaborare con l’UE e il Consiglio d’Europa per armonizzare la propria regolamentazione con gli standard globali, senza compromettere la flessibilità necessaria per supportare l’innovazione.


Conclusione

La Svizzera ha scelto un approccio bilanciato per la regolamentazione dell’IA, cercando di garantire innovazione, protezione dei diritti fondamentali e fiducia pubblica. La ratifica della Convenzione del Consiglio d’Europa, l’adattamento delle regolamentazioni settoriali e l’attuazione di misure non giuridicamente vincolante riflettono una strategia pragmatica e flessibile, in linea con le esigenze economiche e sociali del paese. 
 
 
 

Fidinam & Partners


Questo articolo è stato redatto da Isabel Costa, Manager Privacy di Fidinam & Partners.

Clicca qui per contattarci e rivolgerci domande specifiche sulla tematica in oggetto. 


[1] Testo del rapporto all’attenzione del Consiglio federale al seguente link: file:///C:/Users/costa/Downloads/Regolamentazione%20(1).pdf
[2] link al sito dell’ufficio federale delle comunicazione UFCOM : https://www.bakom.admin.ch/bakom/it/pagina-iniziale/digitale-e-internet/strategia-svizzera-digitale/intelligenza-artificiale.html
 [3] Nota dell’IFPDT del 9.11.2023 al seguente Link : https://www.edoeb.admin.ch/it/09112023-lattuale-legge-sulla-protezione-dei-dati-e-direttamente-applicabile-allia
[4] Analisi giuridiche di base pagina 58: cf. al seguenti link (sito dell’ufficio delle comunicazione UFCOM ): https://www.bakom.admin.ch/bakom/it/pagina-iniziale/digitale-e-internet/strategia-svizzera-digitale/intelligenza-artificiale.html

 

Non perderti gli aggiornamenti: iscriviti alla newsletter!