La nueva Ley europea de IA entra en vigor: ¿qué impacto tendrá en el sector?
La nueva Ley europea de Inteligencia Artificial (IA) entró en vigor la primera semana de agosto, generando una serie de dudas y especulaciones sobre su posible impacto para este sector en la región. Según la Comisión Europea, esta normativa es la primera de su tipo a nivel global y se centra en "identificar riesgos" y "fomentar la innovación responsable".
Objetivos de la nueva normativa
La regulación tiene como objetivo evitar y penalizar la utilización irresponsable o riesgosa de la IA por parte de las empresas. Con este objetivo en mente, se han creado categorías según el nivel de riesgo que pueden suponer distintos productos. Así, la Comisión indica que la mayoría de los sistemas de IA (como los de recomendación y los filtros de spam) entran en la categoría de riesgo mínimo.
A este nivel regulatorio le sigue el "riesgo de transparencia específico", donde se encuentran los sistemas como los chatbots. Según la normativa, estas herramientas "deben revelar claramente a los usuarios que están interactuando con una máquina". Asimismo, esta etiqueta afecta a ciertos contenidos generados por IA, incluidos los deepfakes, que deberán etiquetarse como tales. Los usuarios también deben ser informados cuando se aplique categorización biométrica o de reconocimiento de emociones.
En cuanto a los productos de "alto riesgo", se incluye, por ejemplo, a los sistemas utilizados para la contratación, para evaluar si alguien tiene derecho a obtener un préstamo o para ejecutar robots autónomos. Los productos de esta categoría deberán incorporar sistemas de mitigación, registro de actividad, documentación detallada, información clara para el usuario, supervisión humana y un alto nivel de precisión y ciberseguridad.
Finalmente, los productos de "riesgo inaceptable" serán prohibidos. Esto incluye sistemas o aplicaciones de inteligencia artificial que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, sistemas que permiten la "puntuación social" por parte de Gobiernos o empresas y ciertas aplicaciones de vigilancia policial predictiva. Además, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas.
Opiniones encontradas
Pese a que existe un consenso entre los privados de que esta tecnología debe ser regulada, algunos expertos temen que la implementación de estas directivas obstaculice el avance en este campo cada vez más relevante, evitando que las compañías del Viejo Continente puedan competir con rivales de China o Estados Unidos.
No obstante, una parte del sector considera que el impacto también puede ser positivo. En opinión de José Andrés García Bueno, country leader de Qlik para España y Portugal, "la Ley de IA va a traducirse en seguridad jurídica para las empresas porque, a partir de ahora, ya saben lo que está regulando Europa si desean implementar, desarrollar o usar un modelo de IA".
Las gestoras de fondos que participan del sector también se muestran favorables a la regulación. "Los inversores necesitan que las empresas, tanto desarrolladoras como implantadoras, apliquen prácticas de IA responsable en toda la organización para protegerse de los riesgos sociales y medioambientales que plantea la IA", apunta Deepshika Singh, responsable de stewardship de la gestora Crédit Mutuel Asset Management.
Dudas y desafíos
En general, las opiniones del sector privado se muestran favorables a la regulación. Sin embargo, el aumento de las barreras burocráticas y la posible pérdida de competitividad frente a las empresas chinas o estadounidenses es una preocupación general en el sector.
En los próximos meses, se espera que la Comisión Europea publique directrices adicionales para aclarar la implementación de la ley. Hasta entonces, las empresas deberán evaluar los posibles riesgos y oportunidades que plantea esta nueva normativa.
Sanciones y medidas
En este contexto, el reglamento establece umbrales para las sanciones: hasta 35 millones de euros o el 7% del volumen de negocios anual total mundial del ejercicio anterior (lo que sea mayor) por infracciones de "prácticas prohibidas" o incumplimiento de los requisitos sobre datos.
Asimismo, se castigaría con hasta 15 millones de euros o el 3% del volumen de negocios anual total mundial del ejercicio anterior a quien incumpla cualquiera de los demás requisitos u obligaciones del reglamento, y hasta con 7,5 millones de euros o el 1,5% a las compañías que suministren "información incorrecta, incompleta o engañosa" a organismos notificados y autoridades nacionales competentes en respuesta a una solicitud.