Las nuevas leyes pronto darán forma a cómo las empresas utilizan la IA
(ia trends)-Los cinco reguladores financieros federales más grandes de los EE. UU. Publicaron recientemente una solicitud de información sobre cómo los bancos usan la inteligencia artificial, lo que indica que se avecinan nuevas orientaciones para el negocio financiero. Poco después, la Comisión Federal de Comercio de EE. UU. Publicó un conjunto de directrices sobre «verdad, justicia y equidad» en la IA, definiendo el uso ilegal de IA como cualquier acto que «cause más daño que bien», según un informe reciente en Harvard. Revisión comercial .
Y el 21 de abril, la Comisión Europea emitió su propia propuesta para la regulación de la IA
Si bien no sabemos qué permitirá esta regulación, “tres tendencias centrales unen casi todas las leyes actuales y propuestas sobre IA, lo que significa que hay acciones concretas que las empresas pueden emprender ahora mismo para asegurarse de que sus sistemas no entren en conflicto con las leyes existentes. y leyes y regulaciones futuras ”, declaró el autor del artículo Andrew Burt, socio gerente de bnh.ai , un bufete de abogados especializado en inteligencia artificial y análisis.
Primero, realice evaluaciones de los riesgos de la IA . Como parte del esfuerzo, documente cómo se han minimizado o resuelto los riesgos. Se encuentran disponibles marcos regulatorios que se refieren a estas “evaluaciones de impacto algorítmicas” o “IA para IA”.
Por ejemplo, la Ley de Protección de Datos del Consumidor de Virginia, recientemente aprobada , requiere evaluaciones para ciertos tipos de algoritmos de alto riesgo.
La nueva propuesta de la UE requiere que se complete un documento técnico de ocho partes para los sistemas de IA de alto riesgo que describa «los resultados no deseados previsibles y las fuentes de riesgo» de cada sistema de IA, afirma Burt. La propuesta de la UE es similar a la Ley de Responsabilidad Algorítmica presentada en el Congreso de los EE. UU. En 2019. El proyecto de ley no llegó a ninguna parte, pero se espera que se vuelva a presentar.
En segundo lugar, responsabilidad e independencia . Esta sugerencia es que los científicos de datos, abogados y otros que evalúan el sistema de IA tienen incentivos diferentes a los de los científicos de datos de primera línea. Esto podría significar que la IA es probada y validada por personal técnico diferente al que la desarrolló originalmente, o que las organizaciones pueden optar por contratar expertos externos para evaluar el sistema de IA.
“Asegurar que los procesos claros creen independencia entre los desarrolladores y aquellos que evalúan los sistemas por riesgo es un componente central de casi todos los nuevos marcos regulatorios sobre IA”, afirma Burt.
En tercer lugar, revisión continua . Los sistemas de IA son «frágiles y están sujetos a altas tasas de fallas», con riesgos que crecen y cambian con el tiempo, lo que dificulta la mitigación del riesgo en un solo momento. “Tanto los legisladores como los reguladores están enviando el mensaje de que la gestión de riesgos es un proceso continuo”, afirmó Burt.
Los enfoques en EE. UU., Europa y China difieren
Los enfoques entre EE. UU., Europa y China hacia la regulación de la inteligencia artificial difieren en su enfoque, según un informe reciente en The Vedict , basado en el análisis de Global Data, la empresa de consultoría y análisis de datos con sede en Londres.
“Europa parece más optimista sobre los beneficios de la regulación, mientras que Estados Unidos advirtió sobre los peligros de la regulación excesiva”, afirma la cuenta. Mientras tanto, «China continúa siguiendo un enfoque de gobierno primero» y ha sido ampliamente criticada por el uso de la tecnología de inteligencia artificial para monitorear a los ciudadanos. La cuenta señaló ejemplos en el lanzamiento de Tencent el año pasado de un sistema de calificación crediticia basado en inteligencia artificial para determinar el «valor de confianza» de las personas, y la instalación de cámaras de vigilancia fuera de los hogares de las personas para monitorear la cuarentena impuesta después de la ruptura de COVID-19. .
“ Queda por ver si los esfuerzos de la industria tecnológica de Estados Unidos, el enfoque del gobierno de China primero o el enfoque de Europa impulsado por la privacidad y la regulación es el mejor camino a seguir”, afirmó la cuenta.
En los EE. UU., Muchas empresas son conscientes del riesgo de una nueva regulación de inteligencia artificial que podría sofocar la innovación y su capacidad para crecer en la economía digital, sugirió un informe reciente de pwc, la firma multinacional de servicios profesionales.
“ A una empresa le interesa abordar los riesgos relacionados con los datos, la gobernanza, los resultados, los informes, el aprendizaje automático y los modelos de inteligencia artificial, antes de la regulación”, afirman los analistas de pwc. Recomendaron que los líderes empresariales reúnan a personas de toda la organización para supervisar la responsabilidad y la gobernanza de la tecnología, con la supervisión de un equipo diverso que incluye miembros con habilidades empresariales, de TI y de inteligencia artificial especializadas.
Los críticos de la ley europea de inteligencia artificial citan demasiadas áreas grises
Si bien algunos argumentan que la Ley de IA propuesta por la Comisión Europea deja demasiadas áreas grises, la esperanza de la Comisión Europea es que su Ley de IA propuesta proporcione una guía para las empresas que desean utilizar la IA, así como un grado de certeza jurídica.
«La confianza … creemos que es de vital importancia para permitir el desarrollo que queremos de la inteligencia artificial», declaró Thierry Breton, comisario europeo de Mercado Interior, en una cuenta en TechCrunch . Las aplicaciones de IA «deben ser confiables, seguras, no discriminatorias, eso es absolutamente crucial, pero, por supuesto, también debemos ser capaces de comprender cómo funcionarán exactamente estas aplicaciones».
“Lo que necesitamos es tener orientación. Especialmente en una nueva tecnología … Somos, seremos, el primer continente donde daremos pautas; diremos ‘oye, esto es verde, esto es verde oscuro, esto es quizás un poco naranja y esto está prohibido’ . Así que ahora, si quieres utilizar aplicaciones de inteligencia artificial, ¡ve a Europa! Sabrás qué hacer, sabrás cómo hacerlo, tendrás socios que te entienden bastante bien y, por cierto, llegarás también al continente donde tendrás la mayor cantidad de datos industriales creados del planeta. durante los próximos diez años «.
“Así que ven su correo -porque la inteligencia artificial se trata de datos ¡Te dan las directrices. También tendremos las herramientas para hacerlo y la infraestructura ”, sugirió Breton.
Otra reacción fue que la propuesta de la Comisión tiene exenciones demasiado amplias, como que las fuerzas del orden usen vigilancia biométrica remota, incluida la tecnología de reconocimiento facial, y no va lo suficientemente lejos para abordar el riesgo de discriminación.
Las reacciones a la propuesta de la Comisión incluyeron muchas críticas por las exenciones demasiado amplias para el uso de la vigilancia biométrica remota por parte de las fuerzas del orden público (como la tecnología de reconocimiento facial), así como preocupaciones de que las medidas en la regulación para abordar el riesgo de que los sistemas de IA discriminen no son suficientes. lo suficientemente lejos.
«La legislación carece de salvaguardias contra la discriminación, mientras que la exención de amplio alcance para ‘salvaguardar la seguridad pública’ socava por completo las escasas salvaguardias que existen en relación con la justicia penal», afirmó Griff Ferris, oficial legal y de políticas de Fair Trials, el criminal global perro guardián de la justicia con sede en Londres. “El marco debe incluir salvaguardas y restricciones rigurosas para prevenir la discriminación y proteger el derecho a un juicio justo. Esto debería incluir restringir el uso de sistemas que intentan perfilar a las personas y predecir el riesgo de delincuencia «.
Para lograr esto, sugirió, “las propuestas de la UE necesitan cambios radicales para prevenir el cableado de la discriminación en los resultados de la justicia penal, proteger la presunción de inocencia y garantizar una responsabilidad significativa de AI en la justicia penal. «