La ley europea llamada a regular el uso de la inteligencia artificial en la UE superó el pasado viernes 2 de enero lo que parece ser el último gran obstáculo que se interponía en el camino de su adopción, después de que los representantes de los Estados miembros votaran favorablemente, y por unanimidad, el texto final del proyecto de ley
En el pasado mes de diciembre, y bajo la presidencia de turno de España, se llegó al acuerdo político que permitió que diera comienzo el trabajo para convertir las posiciones acordadas en un texto de compromiso final. Este es el que ha sido aceptado por el COREPER (Comité de Representantes Permanentes de los Gobiernos de los Estados miembros de la Unión Europea).
Neil Thacker, CISO para EMEA de Netskope ha señalado al respecto que “con la creciente presencia de la IA en todos los aspectos de la vida cotidiana, ha adquirido carácter urgente y necesario ocuparse de los aspectos legales para regular sus usos y proteger los datos. Sin embargo, es fundamental hacerlo con una normativa precisa y transparente que se adapte a la evolución de las tecnologías, de modo que se consiga alcanzar el equilibrio justo entre permitir la innovación y respetar los principios éticos”.
Para este profesional, “la Ley de Inteligencia Artificial es un texto de amplio alcance que trata de ofrecer orientación y protección en la multitud de ámbitos en los que la IA va a repercutir en los próximos años. Para las empresas no especializadas, lo primero a lo que deben prestar atención es a las referencias a los sistemas de IA de uso general. Las nuevas disposiciones incluyen requisitos de transparencia, como la documentación técnica y el cumplimiento de la legislación de la UE sobre derechos de autor, y cuando no se disponga de esta información, las empresas deberán controlar el uso de estos sistemas dentro de su propia organización. En particular, celebro la inclusión en la legislación de requisitos explícitos de resúmenes detallados sobre los contenidos utilizados en el entrenamiento del sistema”.
En este sentido, “la toma de decisiones fundamentadas es crucial para implantar una IA que sea ética y cumpla los requisitos de la nueva legislación. Conocer y documentar el uso tanto del aprendizaje automático como de los sistemas de IA dentro de una organización es una forma sencilla de prever y comprender las vulnerabilidades de los datos críticos para el negocio, al tiempo que se garantiza un uso responsable de la IA».
Por otro lado, Ilona Simpson, CIO EMEA de Netskope, ha indicado que «La nueva Ley de IA de la UE es la primera legislación intersectorial y transfronteriza del mundo sobre IA, pero es mucho más que la colaboración de los Estados miembros en un tema importante del momento. La normativa hace especial énfasis en la seguridad y en los aspectos éticos de la IA, y es una clara señal de que los gobiernos están tomando muy en serio las implicaciones éticas -y la consiguiente necesidad de gobernanza- de estos cada vez más espectaculares avances.
Las multas por incumplimiento siguen el modelo bien establecido del RGPD; las multas ascienden al 7% de la facturación mundial, frente al 4% del RGPD, lo que implica que no se puede criticar que esta ley no se quede en papel mojado.
Los Estados han hecho un gran esfuerzo para crear un equilibrio entre regulación e innovación. Esta Ley es la primera que he visto que fomente activamente la innovación por parte de las empresas de nueva creación y las PYME; de hecho, contiene disposiciones al respecto que promueven el uso de espacios regulatorios creados por las autoridades nacionales, así como la posibilidad de realizar verificaciones en tiempo real. Esto servirá para garantizar que la UE pueda fomentar el avance técnico sin amordazarlo con excesivas limitaciones en su regulación».
Fuente: Cybersecuritynews-Tania López
SEGUINOS EN:
WEB de LinkedIn: https://www.linkedin.com/company/noticias-pi/?viewAsMember=true
Canal Telegram: https://t.me/NoticiasPi9ES