A qué se obligan ChatGPT, Gemini y Claude al suscribir el código de buenas prácticas en IA de la UE

La primera gran batalla entre los grandes oligarcas tecnológicos y la Unión Europea ya está aquí. Este sábado entró en vigor parcialmente la ley europea de Inteligencia Artificial, que protege a los ciudadanos de las zonas oscuras de esta tecnología, pero amenaza, al mismo tiempo, el poder ilimitado de los multimillonarios y grandes corporaciones que controlan los modelos de uso más frecuente.

Los más grandes ya han empezado a tomar posiciones, algunos dando a entender su disposición a cumplir la ley, a veces con algunas condiciones. Es el caso de OpenAI, Anthropic, Google, Mistral y Microsoft. Otras, en cambio, se niegan y desafían la autoridad de Bruselas. Meta, propiedad de Mark Zuckerberg, rechaza todo el documento. xAI, del empresario ultra Elon Musk, ha anunciado que solo firmará una parte, pero no todo el código.

Los plazos para cumplir las exigencias de la ley europea de Inteligencia Artificial aprobada en 2023 son muy amplios. Las empresas con modelos de IA de “propósito general” (como los asistentes conversacionales tipo ChatGPT, Claude o Gemini) no estarán obligadas a cumplir obligaciones de transparencia hasta agosto de 2027. No será hasta entonces cuando se haga realidad que, al usar uno de esos servicios, el modelo deba dejar claro que estás hablando con una IA, qué tipo de datos de entrenamiento se usaron, los posibles riesgos de sesgo o toxicidad y un resumen técnico del funcionamiento.

El objetivo de la ley es proteger derechos y evitar el engaño a los ciudadanos. De momento, muchas aplicaciones basadas en modelos de IA de uso general no explican cómo han sido entrenadas, qué tipo de datos usan ni informan del posible sesgo. Cuando estas normas de la ley estén en vigor, dentro de dos años, cualquier servicio disponible en la UE que utilice un modelo de propósito general deberá proporcionar un resumen técnico accesible, incluyendo una declaración que aclare si ha sido entrenado con datos protegidos por derechos de autor y permitir detectar sesgos discriminatorios o toxicidad.

Para adelantar plazos y facilitar la adopción de estos requisitos, la UE publicó el 19 de julio un Código de Buenas Prácticas de adopción voluntaria, en torno al cual se están posicionando las grandes empresas. Firmarlo o no va a permitir al regulador europeo saber quiénes están dispuestos a cumplir y quiénes están predispuestos a desafiar la legislación de la UE.

Los que van a firmar, Google, OpenAI y Anthropic, por ejemplo, se comprometen a adoptar, en primer lugar, medidas de transparencia. Eso significa que publicarán resúmenes de los contenidos usados en el entrenamiento de sus modelos de IA (Gemini, ChatGPT y Claude) y que se comprometen a actualizar esta información de forma periódica, así como a mantener registros detallados sobre su despliegue y funcionalidad.

Protección de los derechos de autor

En segundo lugar, las empresas que acatan el Código prometen implementar políticas estrictas para no usar contenidos con copyright no autorizado, responder a cualquier solicitud de creadores de contenido para excluir sus obras del entrenamiento y cumplir con la normativa de propiedad intelectual europea.

Los propietarios de lo que la ley denomina “modelos de IA de alto riesgo” —que son aquellos que combinan gran capacidad computacional, se despliegan de forma generalizada en múltiples sectores y son susceptibles de amplificar riesgos sociales, como desinformación, sesgo, manipulación, automatización del trabajo o discriminación— deberán además tomar medidas especiales. Entre ellas, hacer evaluaciones sistemáticas de riesgos de seguridad o aprobar protocolos para la detección, mitigación y reporte de incidentes relacionados con mal uso.

Firmar el Código proporciona una presunción de cumplimiento de buena fe frente a la Autoridad de IA de la UE, lo que puede facilitar auditorías, inspecciones o negociaciones regulatorias en el futuro. Y anticipa la decisión de cumplir la ley en estos apartados antes de agosto de 2027.

¿Qué riesgos asumen Meta y xAI al no firmar, o hacerlo parcialmente? En primer lugar, se ponen en el foco y se arriesgan a un mayor escrutinio regulatorio. Aunque el Código es voluntario, la Comisión Europea ha avisado que las empresas que no lo firmen se enfrentarán a una supervisión más intensa.

En segundo lugar, se exponen a un riesgo reputacional. La negativa a suscribir un estándar voluntario alineado con valores de seguridad, transparencia y derechos genera una percepción pública y política adversa, especialmente en un continente como Europa, en el que la ley va a servir para elevar la confianza en unos modelos y desacreditar otros.

Los que cumplan el Código tienen, en principio, más facilidades para desplegar sus modelos de negocio en Europa. Así que Meta o xAI lo tendrán más difícil para lanzar nuevos modelos o acceder al mercado de la Unión Europea, frente a OpenAI, Google o Anthropic.

Las sanciones llegarán en 2027

Lo que no habrá, de momento, son sanciones. Si en agosto de 2027 las empresas de Zuckerberg o Musk siguen sin cumplir las obligaciones que, de momento, son voluntarias —en materia de transparencia, seguridad y derechos de autor— se arriesgan a multas que pueden llegar al 7% de su facturación global.

La empresa de Musk, xAI, ha tratado de salir del paso firmando solo el capítulo de seguridad y protección, pero no los relativos a transparencia ni derechos de autor. Esto implica que no obtendrá la presunción de conformidad completa y se expone a supervisión adicional en torno a los capítulos no firmados.

Meta, a través del director de Asuntos Globales de la compañía, Joel Kaplan, alega que Europa “va por el mal camino en materia de IA” y que el Código introduce “diversas incertidumbres legales para los desarrolladores de modelos”, así como “medidas que van mucho más allá del alcance de la Ley de IA”. La empresa de Zuckerberg está tratando de conseguir, junto a otras grandes compañías de diferentes campos, que la UE detenga la implementación de la ley de IA porque, asegura, frenará el desarrollo y la implementación de modelos de IA de vanguardia en Europa.

La IA ya marca el paso al periodismo o cómo Google y ChatGPT ya eligen qué es noticia

Ver más

Los argumentos de xAI son parecidos. Asegura que el Código y la futura ley son profundamente perjudiciales para la innovación y considera que las disposiciones sobre derechos de autor son “claramente un exceso”.

Las voces autorizadas que apoyan un mayor control de los modelos de IA son, en cambio, cada vez más numerosas. Uno de ellos es el sociólogo, ensayista y asesor político de origen italo-suizo Giuliano da Empoli, para quien las empresas que los desarrollan constituyen un imperio difuso y sin contornos físicos que supone una amenaza para Europa, uno de los pocos contrapesos que se interponen en el mundo en su objetivo de consolidar su hegemonía global, descentralizada, basada en datos, algoritmos y redes.

Según Da Empoli, estas compañías buscan generar inestabilidad —con hitos como la presidencia de Donald Trump o, en su día, la salida de la UE del Reino Unido— utilizando redes sociales para manipular electorados y erosionar el consenso democrático. Es un poder esencialmente antidemocrático, porque concentra poder sin consulta ni rendición de cuentas, sustituyendo las decisiones colectivas por dictados algorítmicos y corporativos. Un poder que dispone además de enormes recursos financieros con los que sostener proyectos políticos (Musk ya está financiando a los ultraderechistas) y presionar a no pocas democracias europeas.

La primera gran batalla entre los grandes oligarcas tecnológicos y la Unión Europea ya está aquí. Este sábado entró en vigor parcialmente la ley europea de Inteligencia Artificial, que protege a los ciudadanos de las zonas oscuras de esta tecnología, pero amenaza, al mismo tiempo, el poder ilimitado de los multimillonarios y grandes corporaciones que controlan los modelos de uso más frecuente.

Más sobre este tema