L’UE vuole essere pioniera nella regolamentazione dell’intelligenza artificiale (AI), l’ultima innovazione tecnologica che i 27 vedono come un’opportunità ma anche una sfida in termini di sicurezza. Si tratta di uno dei dossier più importanti che la Spagna ha sulla scrivania della Presidenza del Consiglio dell’Unione Europea. Lanciato nel 2021, due anni di intensi negoziati hanno delineato un protocollo che avrebbe coperto ciò che è accaduto a Internet e ai dati personali, e l’Europa ha impiegato quasi 20 anni per creare un quadro giuridico per dichiarare ciò che Facebook stava facendo in questo campo. o Instagram è illegale. Incaricato dei negoziati per questi 27 semestri, il governo spagnolo ha fatto tutto il possibile per attuare la nuova legge e portare il Parlamento europeo ad un accordo con il Consiglio e la Commissione, ma Francia, Germania e Italia lo hanno fatto. La loro estensione finale si è distinta per una richiesta che ha reso difficili i negoziati.
In un documento congiunto a cui ha accesso elDiario.es, questi tre paesi non regolano la tecnologia, ma solo il suo utilizzo. I sistemi che possono eseguire più tipi di attività, come il modello GPT basato su ChatGPT, sono liberi da vincoli che ne limitano le capacità. Solo le aziende che hanno utilizzato GPT per uno scopo specifico rientreranno nell’ambito di applicazione del regolamento.
Prendendo come esempio lo scandalo Badajoz, un gruppo di minorenni ha utilizzato un software di intelligenza artificiale per creare foto di nudo dei propri compagni di classe. Francia, Germania e Italia hanno proposto di vietare la progettazione di un’app in grado di fornire foto di donne. Tuttavia, il modello di intelligenza artificiale per la generazione di immagini utilizzato da tale app (in grado di generare immagini di donne nude da foto reali e molteplici attività) non è soggetto alle norme dell’UE.
Tutti e tre i paesi propongono che questo tipo di IA ad ampio spettro sia regolata da un “codice di condotta” redatto tra le società che la sviluppano. Raccomandano agli sviluppatori di pubblicare “schede” con “informazioni rilevanti per comprendere la funzionalità del modello, le sue capacità e i suoi limiti”, soggette a “un certo livello di trasparenza e sicurezza”.
Francia, Germania e Italia chiedono all’Europa di evitare di sanzionare le aziende che “inizialmente” non rispettano il codice di condotta. “Se le violazioni del codice di condotta relative ai requisiti di trasparenza vengono ripetutamente osservate e segnalate senza correzione da parte degli sviluppatori del modello, verrà istituito un sistema di sanzioni dopo aver condotto un’analisi adeguata e una valutazione d’impatto delle carenze identificate e del modo migliore per affrontarle.”
“L’UE vuole posizionarsi in prima linea nella rivoluzione dell’IA. Ciò richiede un quadro normativo che incoraggi l’innovazione e la concorrenza in modo che gli attori europei possano emergere e portare la nostra voce e i nostri valori nella corsa globale all’IA”, sostengono nel documento congiunto.
Pressioni dell’industria francese
La richiesta di Francia, Germania e Italia va oltre la posizione negoziale stabilita il 27 dicembre dell’anno scorso, motivo per cui fonti vicine ai colloqui ritengono che i tre paesi stiano abbandonando la posizione che la Spagna non ha accettato nei negoziati. Commissione e Parlamento. Ma l’industria ha esercitato un’enorme pressione sulle aziende europee per evitare che la loro crescita fosse limitata rispetto a quella dei loro rivali in Cina o negli Stati Uniti.
Uno degli imprenditori più accesi sull’argomento è Cédric O, ex segretario francese per la digitalizzazione sotto Emmanuel Macron e co-fondatore di Mistral, una startup francese che sviluppa modelli linguistici su larga scala come GPT di OpenAI. “A seconda della legge sull’IA, può uccidere Mistral o consentire a Mistral di crescere, e c’è molta zona grigia nel mezzo”, ha accusato O di recente.
Una proposta di Francia, Germania e Italia eliminerebbe il controllo dell’IA di Mistral. “È molto importante”, ha insistito Oh in un’intervista cambiatoUn media specializzato in informazioni sulle startup.
“Il governo francese ritiene che Mistral sia la sua più grande risorsa per competere con OpenAI, e la nuova regolamentazione ha tirato le fila per influenzarlo il meno possibile”, hanno spiegato a elDiario.es le fonti dei negoziatori. La Francia ha annunciato un investimento di 500 milioni di euro in “campioni dell’intelligenza artificiale” come Mistral, che ha chiuso un round di finanziamento privato di 105 milioni di euro a giugno, quando aveva appena un mese.
elDiario.es ha cercato di contattare il Segretario di Stato per la Digitalizzazione e l’Intelligenza Artificiale, portavoce del governo in questi negoziati, che si è rifiutato di fornire queste informazioni mentre preparavano l’esito dei negoziati. “Non possiamo voltare la testa dall’altra parte”, ha detto il capo dipartimento Carme Artigas in un’intervista a EuroActive: “L’opinione generale è che anche se campioni di grandi dimensioni vengono utilizzati in casi d’uso ad alto rischio, possono farlo. Distribuire un rischio sistemico ovunque la catena del valore. Lo sappiamo tutti.”
È una legge in cui il governo ha fatto una grande scommessa anche sulla politica interna. Dal 2022, la Spagna è stata un banco di prova per il nuovo regolamento e ha lanciato istituzioni come l’Artificial Intelligence Watchdog, in linea con le ambizioni della legislazione europea. Ortegas ammette che chiuderlo sotto il presidente spagnolo è “la ciliegina sulla torta”.
Nonostante gli shock dell’ultimo minuto causati dal documento tripartito, il presidente spagnolo e il resto dei negoziatori puntano a concludere un accordo entro la fine dell’anno, addirittura il 6 dicembre. Un incontro programmato. Fonti vicine ai colloqui spiegano che Francia, Germania e Italia, oltre all’obiettivo di ridurre le restrizioni sulla tecnologia, hanno altre questioni in sospeso, come la definizione di aspetti importanti da esentare dall’uso dell’intelligenza artificiale. Per quanto riguarda la sicurezza nazionale, questa non è una competenza dell’UE.
Un’altra barriera è associata ai sistemi di identificazione biometrica. I governi ne hanno consentito l’utilizzo da parte delle “autorità preposte alle forze dell’ordine”, mentre il Parlamento europeo è stato più restrittivo e ha voluto vietarlo anche per scopi di polizia. Fonti coinvolte nei colloqui promettono che verranno aggiunte “una serie di misure di salvaguardia” e riconoscono che la questione se possa essere utilizzato dal vivo è ancora aperta.
Il pericolo dei grandi modelli di intelligenza artificiale
La mossa di Francia, Germania e Italia ha suscitato allarme tra le associazioni per i diritti digitali in seguito ai colloqui. “Quando si tratta di sistemi di intelligenza artificiale generici (o di sistemi di intelligenza artificiale senza compiti specifici), la regolamentazione deve assumere maggiori responsabilità sugli sviluppatori di questi sistemi di intelligenza artificiale. Difetti e pregiudizi si sviluppano in questi modelli di grandi dimensioni e poi si diffondono verso il basso”, si legge nella consultazione. diversi governi in una conversazione con elDiario.es, spiega Chris Srishack, ricercatore presso l’Irish Council for Civil Liberties.
“Gli implementatori e gli utenti dell’intelligenza artificiale dovranno affrontare conseguenze dannose, ma non avranno le risorse, l’accesso e la capacità per affrontare i danni. La mancata assunzione della responsabilità nei confronti degli sviluppatori renderà impossibile mitigare i danni”, afferma Srishak.
Daniel Leufer, portavoce della ONG Access Now, ha una posizione simile. “La posizione di Francia, Germania e Italia è una reazione a quella presentata dal presidente spagnolo, che era un approccio molto diluito rispetto alle garanzie già richieste dal Parlamento europeo”, sottolinea. “Ciò che questi tre paesi vogliono con questo documento è stabilire un minimo assoluto per le aziende che creano questo tipo di sistemi.”
“Ciò che l’AI Act sta cercando di fare è imporre alcune pratiche di sviluppo responsabile che qualsiasi sviluppatore credibile dovrebbe già mettere in atto. Quindi livella davvero il campo di gioco, tuttavia, è stato dimostrato che è qualcosa che distruggerà completamente l’innovazione,” conclude Lufer: “Le aziende devono adattarsi a se stesse e ai propri clienti. Non possiamo permettere di scrivere le regole. Grandi profitti. E sono aziende con grandi soldi. Qui si parla di grandi soldi, Mistral, Google, Meta, con grandi fondi, OpenAI, Microsoft. “La posizione del Parlamento non è quella di chiedere qualcosa che non può fornire.”
“Ninja del bacon. Avvocato di viaggio. Scrittore. Esperto di cultura pop incurabile. Fanatico di zombie malvagio. Studioso di caffè per tutta la vita. Specialista di alcol.”