IA

Gigantes tecnológicos buscan suavizar la Ley de IA en Europa

Empresas como Google, Meta y Amazon intentan influir en la regulación de IA para evitar multas y proteger su innovación.

Las principales empresas tecnológicas del mundo están presionando a la Unión Europea para que adopte una regulación más flexible sobre la inteligencia artificial (IA). Estas compañías, temiendo multas multimillonarias, intentan que la ley sea menos restrictiva.

IA

En mayo, la UE acordó la Ley de IA, el primer conjunto de normas que regula esta tecnología. Sin embargo, las reglas específicas para sistemas de IA de propósito general (como ChatGPT) aún no están claras. Esto afecta directamente a las empresas, ya que podrían enfrentarse a demandas por derechos de autor y multas elevadas.

Participación de empresas en la redacción del código de prácticas

La UE ha invitado a empresas, académicos y expertos a ayudar en la redacción del código de práctica, recibiendo cerca de 1,000 solicitudes, una cifra inusualmente alta. Aunque este código no será legalmente vinculante cuando entre en vigor a finales de 2024, servirá como guía para las empresas y podría ser clave en futuros desafíos legales.

“El código de práctica es crucial. Si lo hacemos bien, podremos seguir innovando”, señaló Boniface de Champris, de CCIA Europe, una organización comercial que representa a Amazon, Google y Meta.

El desafío del uso de datos y derechos de autor

Uno de los aspectos más debatidos de la Ley de IA es el uso de datos para entrenar modelos de IA, conocido como data scraping. Empresas como OpenAI han sido criticadas por utilizar libros y fotos sin el permiso de sus creadores, lo que podría violar derechos de autor.

La Ley de IA obligará a las empresas a proporcionar “resúmenes detallados” de los datos utilizados para entrenar sus modelos. Esto podría permitir a los creadores de contenido buscar compensaciones si sus obras se usan sin permiso. Algunas empresas argumentan que estos resúmenes deben ser lo más breves posible para proteger secretos comerciales.

La batalla por la transparencia en la IA

OpenAI y Google han solicitado participar en los grupos de trabajo para la redacción del código de prácticas, mientras que Amazon también ha mostrado interés en contribuir con su experiencia. No obstante, algunos expertos, como Maximilian Gahntz de la Fundación Mozilla, han expresado su preocupación por la falta de transparencia de estas compañías en cuanto a los datos que utilizan.

Para Gahntz, la Ley de IA representa una oportunidad única para abrir “la caja negra” de los datos que entrenan estos modelos. Considera que las empresas deben ser más transparentes, sobre todo en temas tan delicados como el uso de contenido protegido por derechos de autor.

Equilibrio entre regulación e innovación

Algunos sectores empresariales critican a la UE por enfocarse en la regulación, dejando de lado la innovación. Existen tensiones sobre cómo equilibrar ambas prioridades. Mario Draghi, exjefe del Banco Central Europeo, ha señalado que Europa necesita una política industrial más coordinada y mayor inversión para competir con China y Estados Unidos.

Por otro lado, las empresas tecnológicas emergentes en Europa esperan que la Ley de IA contemple excepciones para startups, permitiendo que estas compañías tengan menos restricciones que las grandes corporaciones. “Las obligaciones deben ser manejables y, si es posible, adaptadas a las startups”, afirmó Maxime Ricard, de Allied for Startups.

Futuro de la Ley de IA y su implementación

El código de prácticas se publicará a principios de 2024, y las empresas tendrán hasta agosto de 2025 para demostrar su cumplimiento. Varias organizaciones sin fines de lucro, como Access Now y Mozilla, también están involucradas en la redacción del código.

Maximilian Gahntz advierte que, a medida que se especifican los detalles de la Ley de IA, se debe evitar que los grandes actores del sector diluyan los requisitos de transparencia que son fundamentales para regular adecuadamente la tecnología.