Nonostante fino a pochi mesi fa l’intelligenza artificiale fosse qualcosa di perlopiù sconosciuto alle masse, il potenziale dirompente di queste tecnologie per scopi generali (GPAI) sembra essere già imposto come la grande storia tecnologica del 2023.
Giganti tecnologici come Microsoft e Google sono già in lizza per seguire rapidamente il popolare chatbot conversazionale di OpenAI, ChatGPT, producendo modelli linguistici di grandi dimensioni (LLM) in interfacce proprie.
Esempi di queste interfacce sono la ricerca con intelligenza artificiale di OpenAI, Bing, o Google Bard. Poiché l’Intelligenza Artificiale (AI) generativa richiede in genere enormi quantità di dati per addestrare i modelli (nel caso del ChatGPT di OpenAI, per esempio, ciò ha comportato l’estrazione di dati da forum Internet come Reddit
La corsa alla produzione da parte delle Big Tech ha fornito una lezione ad alta velocità e molto pubblica sul rischio incorporato in questo tipo di Intelligenza Artificiale (AI). Per esempio, l’AI Bard di Google ha prodotto risposte errate a query di ricerca piuttosto semplici nella sua dimostrazione ufficiale della tecnologia. Tuttavia, quando è stata scatenata su Internet, ha prodotto risultati accurati.
Table of Contents
Un rapporto fa emergere una situazione a dir poco particolare
Un rapporto pubblicato oggi dal gruppo di lobbying europeo per la trasparenza, Corporate Europe Observatory (COE), dimostra come, dietro le quinte, i giganti tecnologici siano in feroce competizione per essere i primi a mungere quella che sperano sarà una nuova generazione di Intelligenza Artificiale (AI).
È per questo motivo che i due sono così ansiosi di svelare prodotti incompleti che sono stati sorpresi a dare in pasto agli utenti delle vere e proprie creazioni ancora in fase sperimentale. Giurando che si tratta di fatti e sfociando in un’aggressiva azione di gaslighting come ciliegina sulla torta.
Alcuni giganti della tecnologia, tra cui Google e Microsoft, sono citati nel rapporto come promotori di un’esclusione dell’IA per scopi generali. Essi sostengono che l’AI Act, noto anche come AIA, non dovrebbe applicarsi ai fornitori di modelli linguistici di grandi dimensioni (LLM) o di altre Intelligenze Artificiali (AI) generiche. Sostengono invece che le norme dovrebbero essere imposte solo in un secondo momento, ai singoli che utilizzano questi modelli in modi “rischiosi”.
La regolamentazione dell’Unione Europea per l’intelligenza artificiale
L’UE ha iniziato a elaborare regolamenti per controllare l’uso dell’Intelligenza Artificiale (AI) prima di altre regioni. L’AIA non cerca di regolamentare ogni singola applicazione della tecnologia. Adotta invece un approccio basato sul rischio, classificando alcune applicazioni come “ad alto rischio” e soggette al livello più severo di regolamentazione. Mentre altre applicazioni, a rischio più limitato, sono soggette a regolamenti meno severi e le applicazioni a basso rischio possono semplicemente autoregolarsi secondo un codice di condotta.
Questa strategia rischia di creare un conflitto costante ai margini decentralizzati in cui viene applicata l’Intelligenza Artificiale (AI). Con l’onere della sicurezza e della fiducia che ricade sugli utenti dei modelli di IA per scopi generici, se i produttori di modelli GPAI non finiscono per affrontare alcun requisito rigido nell’ambito dell’AIA, come ad esempio l’utilizzo di dati di addestramento non distorti o la risoluzione proattiva dei problemi di sicurezza.
Ciò suggerisce che gli utenti saranno esposti a tecnologie distorte e/o non sicure (mentre i fornitori di applicazioni pagheranno il conto di eventuali violazioni legali e di una più ampia responsabilità del prodotto legata ai danni dell’IA). È chiaro che questi piccoli operatori non avranno le stesse risorse dei produttori di modelli da destinare alla pulizia della tossicità alimentata dall’AI.
Si naviga ancora a vista
L’AIA non è ancora una legge. La forma definitiva della prima legislazione dell’UE è ancora in alto mare perché è ancora soggetta a negoziati colegislativi. Tuttavia, lo studio del COE esprime il timore che il quadro normativo possa presto essere soggetto a ulteriori pressioni coordinate e a un indebolimento dei requisiti di sicurezza. Questo in larga parte a causa di “un’intensa attività di lobbying” da parte delle società informatiche statunitensi.
Lo studio cita anche come il governo degli Stati Uniti sia intervenuto nel dibattito sull’Intelligenza Artificiale (AI) per scopi generali lo scorso autunno. Ha anche esortato l’Europa a non “richiedere a tutti i fornitori di IA per scopi generali di conformarsi agli obblighi di gestione del rischio previsti dalla legge sull’IA” perché sarebbe “molto oneroso, tecnicamente impegnativo e in alcuni casi impossibile”. Di conseguenza, quando si tratta di proteggere le GPAI dalle autorità internazionali, le aziende tecnologiche statunitensi e il loro stesso governo si sono allineati.
Il report del COE toglie molti dubbi
“I documenti ottenuti dal [COE] mostrano come le aziende tecnologiche, in particolare quelle statunitensi, abbiano cercato di ridurre i requisiti per i sistemi di Intelligenza Artificiale (AI) ad alto rischio e di limitare la portata del regolamento”
Questo si legge nello studio. In particolare, i lobbisti delle Big Tech hanno cercato di esentare dalla regolamentazione l’idea recentemente introdotta di sistemi di IA “a scopo generale” (in cui i sistemi di IA, tipicamente prodotti dai giganti della Silicon Valley, vengono utilizzati o incorporati in una varietà di usi da parte di altre aziende. Questi stessi giganti tecnologici vogliono che la regolamentazione non si applichi all’ideatore della tecnologia, ma solo alle aziende che la impiegano in vari modi)”.
“Le trattative riservate, di cui spesso beneficiano lobbisti ben collegati e ben finanziati, sono le ultime fasi di sviluppo dell’AI Act. La posta in gioco per questa iniziativa innovativa per governare l’IA rimane alta mentre il Consiglio, il Parlamento e la Commissione lavorano per raggiungere un consenso sulle politiche proposte dall’UE”
“Sebbene gli eurodeputati si stiano battendo affinché la legge sull’IA includa migliori tutele per i diritti fondamentali, il Consiglio ha recentemente presentato una serie di problematici tagli per la sicurezza e le forze dell’ordine. Il dibattito sull’IA per scopi generali sarà probabilmente rimandato in futuro”.
Intelligenza Artificiale e lobbying
Il rapporto del COE descrive come l’attività di lobbying sulla questione dell’IA generica si sia accelerata dopo che la Commissione ha modificato la sua precedente posizione a favore dell’inclusione dell’IA generica nel quadro normativo. L’anno scorso, il Consiglio europeo, guidato dalla Francia, ha proposto di aggiungere requisiti per i sistemi a scopo generale.
L’articolo osserva che quando l’Intelligenza Artificiale (AI) per scopi generali è stata inclusa nella legge sull’IA dell’UE, le reti di lobby europee ben finanziate di Big Tech hanno prestato attenzione e sono entrate in azione. Secondo alcune persone contattate da Corporate Europe Observatory per questa ricerca e che hanno seguito attentamente gli eventi del Consiglio europeo e del Parlamento, i lobbisti di Big Tech hanno lavorato a tempo pieno per influenzare le decisioni politiche sull’Intelligenza Artificiale generica.
I lobbisti si sono mossi su diversi fronti
Secondo l’analisi del COE, i giganti tecnologici hanno utilizzato un’ampia gamma di strategie di lobbying dirette e indirette per plasmare la forma finale del regolamento dell’UE sull’Intelligenza Artificiale. L’analisi suggerisce anche che hanno utilizzato una serie di strategie “occulte” per cercare di minare il regolamento, come l’attività di lobbying attraverso organizzazioni che pretendono di rappresentare gli interessi delle startup ma che in realtà ricevono finanziamenti dai finanziatori delle Big Tech. Oppure attraverso un comitato di esperti di alto livello che la Commissione ha istituito per guidare le sue politiche sull’IA e che, secondo lo studio, è predominato da persone del settore (tra cui Google).
Secondo il COE, che ha ottenuto la registrazione di un incontro privato tra Google e la Commissione, il gigante dei motori di ricerca ha esercitato pressioni contro una proposta francese di imporre regolamenti agli sviluppatori di modelli GPAI, sostenendo che ciò “sposta completamente l’onere sui fornitori di GPAI” e sollevando il timore che “i colegislatori possano aggiungere troppi nuovi criteri per la valutazione del rischio”. O allungare l’elenco degli usi ad alto rischio.
Google e Microsoft guidano le fila delle pressioni normative
Il rapporto prosegue citando un documento che Google ha presentato alla Commissione e che è stato ottenuto dal CEO tramite richieste FOI. Il documento ribadisce che “i sistemi di Intelligenza Artificiale per scopi generali non sono di per sé ad alto rischio”. Aggiunge inoltre che il rispetto delle norme dell’AI Act sulla governance dei dati, sulla governance umana e sulla trasparenza “sarebbe difficile o impossibile da soddisfare nella pratica”.
Secondo il rapporto, Microsoft ha delineato la sua posizione (allineata) in una lettera aperta inviata alla presidenza ceca del Consiglio, scrivendo che “non vede la necessità che la legge sull’IA abbia una sezione specifica su [IA per scopi generici]” e che “senza conoscere lo scopo di uno strumento per scopi generici, non c’è modo di essere in grado di rispettare nessuno dei requisiti per il rischio elevato”.
Secondo il COE, Microsoft ha anche promosso la falsa idea che la legge sull’Intelligenza Artificiale (AI) danneggerà le startup e le PMI nei colloqui privati con i legislatori dell’UE.
Uno scambio tra i lobbisti di Microsoft e Roberto Viola della DG CNECT, la divisione della Commissione incaricata di supervisionare la creazione della legge sull’IA, nel luglio 2021 è descritto in un documento ottenuto per questa indagine, in cui si legge che “si è svolta una discussione sulla posizione dell’UE e degli Stati Uniti sulla bozza di regolamento sull’IA, compreso il possibile impatto su startup e PMI”.
Azioni di lobbying indirette
Lo studio rileva anche una serie di attività di lobbying “indirette” sull’AIA da parte dei Big di Internet. Secondo il rapporto, questi sforzi sono stati portati avanti attraverso “affiliati”, ovvero gruppi industriali di terze parti che affermano di essere ampiamente rappresentati, ma che includono tra i loro membri anche titani di Internet.
Poiché avrebbe un “impatto” sulla ricerca sull’IA in Europa e “ostacolerebbe l’innovazione”, una lettera del settembre 2022 sponsorizzata da BSA | The Software Alliance “esorta con forza le istituzioni dell’UE a opporsi alle attuali proposte sull’IA per scopi generali”. La BSA è stata fondata da Microsoft nel 1988 e in passato è stata accusata di agire per conto del gigante tecnologico, concentrandosi specificamente sulle piccole e medie imprese (PMI) per sostenere la causa di Big Tech”, scrive il COE.
Cita poi le affermazioni della BSA secondo cui “l’inclusione dell’IA per scopi generali, utilizzata principalmente in casi a basso rischio, nell’ambito di applicazione della legge creerebbe obblighi sproporzionati per gli sviluppatori e scoraggerebbe lo sviluppo dell’IA nell’UE” e che ciò avrebbe anche “un impatto negativo sullo sviluppo dell’IA nell’UE”.
Molte compagnie decidono di non sottoscrivere la lettera
Secondo l’articolo, alcune PMI della rete della European Digital SME Alliance erano state invitate da Big Tech a firmare la lettera. Ma erano state sconsigliate in quanto non vedevano alcun beneficio per le PMI o le start-up.
Per questo motivo è sorprendente che Allied for Startups, una rete autodefinita di organizzazioni di advocacy focalizzata sul miglioramento dell’ambiente politico per le start-up in tutto il mondo, abbia firmato la lettera della BSA, sostiene il COE, aggiungendo:
“Non ci sarebbero benefici perché l’esclusione dei sistemi di IA per uso generale farebbe ricadere i pesanti obblighi di conformità sulle PMI europee, piuttosto che sulle grandi aziende tecnologiche”.
Un “enorme buco normativo”
Secondo il COE, un’esclusione per le GPAI creerebbe un “enorme buco” nella legislazione primaria dell’UE in materia di IA. Sollevando cioè le aziende tecnologiche dall’obbligo di affrontare questioni come i pregiudizi e la tossicità che i loro approcci potrebbero includere incautamente nella loro corsa a dominare una nuova branca dell’IA applicata.
I colpevoli sono i colossi tecnologici, che hanno i mezzi per condurre il tipo di elaborazione dei dati su scala industriale necessaria per lo sviluppo di tecnologie di uso generale come gli LLM. Per non parlare poi del peso legale per combattere le denunce di violazione massiccia del copyright, che stanno rapidamente raggiungendo anche i progressi dell’IA generativa.
Il ruolo centrale di OpenAI
Pertanto, anche se OpenAI non è nota come Google o Microsoft, è indubbiamente un gigante della tecnologia in termini di finanziamenti e risorse. La compagnia ex no profit ha accumulato una cassa di circa 11 miliardi di dollari dalla sua fondazione nel 2015. Tra i suoi finanziatori c’è Elon Musk, l’ex uomo più ricco del mondo e attuale proprietario di Twitter.
OpenAI è stata creata appositamente per diventare una superpotenza dirompente dell’intelligenza artificiale e accelerare l’adozione generale dei progressi dell’intelligenza artificiale. A meno di dieci anni di distanza, l’obiettivo di OpenAI sta iniziando a prendere forma, diventando la nuova arena per le potenze dell’Intelligenza Artificiale di attuale generazione che si scontrano in un feroce conflitto di quote di mercato.
“Dato che l’IA generica verrà probabilmente utilizzata sempre di più, quante piccole imprese creeranno i propri modelli di IA da zero? – Il fatto di escludere dalla responsabilità le grandi aziende tecnologiche che creano i primi modelli è un grosso buco nella legislazione, sostiene il COE. Inoltre, secondo l’organizzazione, non si dà alcuna responsabilità alle persone che potrebbero essere discriminate dalle applicazioni di questa IA.
La risposta di Microsoft
Secondo un rappresentante di Microsoft:
“Per Microsoft, l’Unione Europea è stata e continua a essere un interlocutore fondamentale. Vogliamo essere un partner aperto e utile per i politici europei.”
In un comunicato stampa allegato alla ricerca, il COE avverte che, con il passaggio a un nuovo livello di negoziati a porte chiuse (noti anche come dibattiti a tre), i legislatori dell’UE si trovano a un punto di svolta con l’AIA.
“Al momento, il blitz delle lobby ha prodotto i risultati attesi. Nelle loro ultime prese di posizione, sia il Parlamento che il Consiglio hanno ritardato la conversazione sulla regolamentazione dell’IA per scopi generali. Le istituzioni hanno anche ridotto la portata di ciò che costituisce un sistema di IA, riducendo così il numero di sistemi che sarebbero soggetti a revisione”, si legge nel rapporto.
La partita è ancora aperta
I negoziati riservati del trilogo, di cui spesso beneficiano lobbisti ben collegati e ben finanziati, sono le ultime fasi di sviluppo della legge sull’Intelligenza Artificiale (AI). La posta in gioco per questa iniziativa innovativa per governare l’AI rimane alta mentre il Consiglio, il Parlamento e la Commissione lavorano per raggiungere un consenso sulle politiche comunitarie proposte.
Di recente è stata lanciata una linea diretta di suggerimenti che mira a contrastare il fenomeno, offrendo ai dipendenti della Commissione europea un canale per segnalare tentativi discutibili di influenzare l’attività legislativa. Questo giunge in risposta alle preoccupazioni che i giganti tecnologici utilizzino tattiche subdole e antidemocratiche per cercare di plasmare le normative digitali del blocco.
L’anno scorso alcuni eurodeputati hanno denunciato alcuni colossi di Internet al Registro per la trasparenza dell’UE. Accusandoli di aver violato la legge.
Le denunce sono arrivate in risposta agli sforzi coordinati dei giganti tecnologici per plasmare la forma finale dei nuovi regolamenti sulle piattaforme e sui servizi digitali che saranno implementati nell’UE quest’anno, nonché a un precedente rapporto del COE che descriveva la feroce resistenza delle Big Adtech (in particolare) ai tentativi degli europarlamentari di regolamentare più rigorosamente il tracciamento e la profilazione online.
Il COE sta promuovendo una petizione affinché i cittadini si mobilitino e “non permettano alle Big Tech di uccidere l’AI Act nel buio”. Tutto ciò al fine di migliorare l’apertura sui triloghi dell’Unione Europea.