Il 19 giugno 2025, Meta ha ufficialmente annunciato di non aderire al Codice volontario dell’Unione Europea riguardante l’intelligenza artificiale. Joel Kaplan, Chief Global Affairs Officer della compagnia, ha espresso le sue preoccupazioni in un post su LinkedIn, affermando che “l’Europa sta imboccando la strada sbagliata”. Questa dichiarazione mette in luce le tensioni tra il gigante tecnologico statunitense e le normative europee, evidenziando un crescente malcontento anche tra altre aziende del settore.
Le ragioni del rifiuto di Meta
La decisione di Meta si basa su una serie di considerazioni legate agli obblighi imposti dal Codice. L’azienda sostiene che tali requisiti superano quanto già stabilito dal nuovo regolamento AI Act e creano un clima di incertezza giuridica per gli sviluppatori. Secondo Kaplan, questa situazione rischia di ostacolare l’innovazione nel campo dei modelli avanzati di intelligenza artificiale. La posizione assunta da Meta non è isolata; riflette una crescente preoccupazione all’interno dell’industria tecnologica europea riguardo a come le nuove normative possano influenzare lo sviluppo e l’applicazione delle tecnologie emergenti.
In particolare, il timore è che regolamentazioni troppo severe possano soffocare iniziative innovative prima ancora che abbiano la possibilità di prosperare. Questo aspetto è particolarmente rilevante quando si parla di intelligenza artificiale generativa ad alto impatto, dove i margini d’errore sono minimi e i tempi per adattarsi alle normative possono risultare lunghi rispetto alla rapidità con cui queste tecnologie evolvono.
Leggi anche:
Il malcontento nell’industria europea
Non solo Meta: anche altre importanti aziende europee hanno manifestato preoccupazioni simili. Recentemente, ben 44 tra i principali attori industriali del continente – inclusi nomi noti come Siemens, SAP e Airbus – hanno chiesto alla Commissione Europea una pausa nell’attuazione dell’AI Act attraverso una lettera aperta. Questa richiesta evidenzia un consenso crescente sul fatto che l’attuale approccio normativo possa essere troppo restrittivo e potenzialmente dannoso per lo sviluppo tecnologico europeo.
Le aziende temono che regole troppo rigide possano limitare la loro capacità d’innovare in un contesto globale sempre più competitivo. In questo scenario complesso emerge quindi la necessità per l’Unione Europea di trovare un equilibrio tra protezione dei diritti fondamentali ed incentivazione all’innovazione tecnologica.
La sfida della regolamentazione nell’intelligenza artificiale
Il dibattito sulla regolamentazione dell’intelligenza artificiale solleva interrogativi cruciali: come può una legislatura tenere il passo con innovazioni così rapide? Da sempre l’approccio europeo si distingue per essere preventivo ed etico; tuttavia oggi sembra scontrarsi con le ambizioni globali delle aziende tech che vedono nell’intelligenza artificiale non solo uno strumento ma anche una leva geopolitica fondamentale.
Attualmente il Codice è sotto revisione e sarà applicabile ai fornitori dei modelli più avanzati come GPT-4 o Gemini a partire dal 2 agosto prossimo. Questo documento nasce da ampie consultazioni con oltre mille stakeholder ed è stato redatto da esperti indipendenti; tuttavia mostra segni evidenti delle difficoltà nella governance tecnologica europea: procedure lente e critiche sull’influenza delle grandi aziende tech sono solo alcune delle problematiche emerse negli ultimi mesi.
La posizione assunta da Meta riaccende dunque i riflettori sul delicato equilibrio fra innovazione e burocrazia in Europa; sarà fondamentale affrontare queste questioni nei prossimi mesi se si desidera mantenere competitività nel panorama globale della tecnologia avanzata.