La primera gran Ley para regular la IA entra en vigor

¿Qué es la Ley de Inteligencia Artificial de la UE?

La Unión Europea (UE) ha dado un paso histórico en sus esfuerzos para regular la Inteligencia Artificial, ya que este 1 de agosto entró oficialmente en vigor la primera ley que deberán cumplir los gigantes tecnológicos mundiales para poder operar en este territorio esta herramienta. Esta es la primera ley de su tipo y alcance en el mundo, pues si bien pondrá los ojos sobre las grandes empresas tecnológicas, otras compañías quedarán bajo el paraguas de las normas, incluyendo aquellas que no son necesariamente del sector. El proyecto de esta legislación surgió en 2021, antes del boom de las herramientas de IA generativa, pero de acuerdo con sus disposiciones, los riesgos de la IA se dividirán en cuatro categorías dependiendo el nivel de riesgo que puedan representar para los usuarios durante su uso.

¿Qué sigue para las grandes tecnológicas?

Las primeras dos categorías se refieren a riesgos nulos y mínimos. Sin embargo, las siguientes dos son las que preocupan a los reguladores. Por un lado está el riesgo alto, que se aplica a conjuntos de datos, por ejemplo, para dispositivos médicos o sistemas de toma de decisiones para préstamos, pues existe la posibilidad de discriminación. Asimismo, aplica para aquellas infraestructuras críticas, como la educación, la capacitación vocacional o en donde se puedan influir procesos democráticos, mientras que la categoría “inaceptable” incluye aquellos sistemas que se dediquen a la puntuación social, reconocimiento de emociones o aquellos diseñados para explotar vulnerabilidades de las personas. Este es un paso determinante por parte de la UE para regular la IA, pero algunos países del bloque habían abogado por la autorregulación en lugar de restricciones generales, bajo el argumento de que estas leyes podrían ser sofocantes para la innovación y representar un rezago frente al avance de otras potencias, como China y Estados Unidos. Francia, Alemania e Italia fueron algunos de los países que presionaron para suavizar las restricciones y lo consiguieron, pues en el ámbito de los sistemas de “alto riesgo” lograron que se incluyeran dos nuevos niveles y algunas excepciones basadas en tareas de seguridad de la policía, como el hecho de que no se prohibirá la identificación biométrica remota en este tipo de labores. Esta regulación es de suma relevancia para el panorama tecnológico. En primer lugar, porque finalmente hay un regulador que vigilará los movimientos de las grandes empresas en medio del entusiasmo por la IA, un tema que ha motivado inversiones multimillonarias por parte de Microsoft, Apple, Amazon y Google, entre otras. Una muestra de los efectos de esta regulación la dio Meta, la cual decidió restringir la disponibilidad de su modelo de IA, Llama, en Europa, debido a la incertidumbre que le generaba cumplir con las leyes de protección de datos de la región. Y es que según la ley, las empresas deberán cumplir con requisitos de transparencia para evitar que los usuarios sean engañados, mientras que las sanciones serán escalonadas, según el tipo de categoría en la que hayan incurrido. Por ejemplo, si una empresa viola la categoría “inaceptable” recibirá multas de hasta el 7% de su facturación global. En el caso de los otros niveles de riesgo, los castigos serán de entre el 1.5 y el 3% de sus ingresos mundiales.

]]>

Leave a Reply

Your email address will not be published. Required fields are marked *