La nueva táctica regulatoria de eliminar algoritmos mal adquiridos
(IEEE)-La Comisión Federal de Comercio de EE. UU ha puesto su mirada en las empresas de tecnología, encontrando formas de frustrar las prácticas de datos engañosas.
El 4 de marzo, la FTC emitió una orden de conciliación contra WW International (la compañía anteriormente conocida como Weight Watchers) y su subsidiaria, Kurbo , y la presidenta de la FTC, Lina Khan, declaró que «Weight Watchers y Kurbo comercializaron servicios de control de peso para uso de niños desde pequeños», como ocho, y luego recolectaron ilegalmente su información de salud personal y confidencial”. La FTC exigió a las empresas que «borren sus datos obtenidos de forma ilícita, destruyan cualquier algoritmo derivado de ellos y paguen una multa por su infracción de la ley».
Los algoritmos son una secuencia finita de comandos y un conjunto de reglas en un programa de computadora que se utiliza para procesar datos. En el caso de la IA, los algoritmos de aprendizaje automático se entrenan con datos para construir modelos que podrían predecir ciertas acciones o tomar decisiones específicas.
“Entonces, cuando tienes que destruir ese algoritmo, hay una consecuencia financiera para la empresa, porque ese es el producto de su trabajo que genera ingresos al que tienen que renunciar”.—Divya Ramjee, Facultad de Derecho de Washington
“Cuando un algoritmo se entrena con datos privados, sería sencillo descifrar algunos o todos esos datos del algoritmo. Esto significa que simplemente eliminar los datos privados no sería un remedio efectivo y no evitaría futuros daños a la privacidad”, dice Kit Walsh, abogado sénior de Electronic Frontier Foundation . “Entonces, cuando tiene un interés importante como la privacidad y es necesario eliminar el algoritmo para abordar el daño, es cuando las órdenes de destrucción algorítmica están sobre una base más firme”.
Además de frenar los daños a la privacidad, la destrucción algorítmica podría responsabilizar a las organizaciones no solo por la forma en que recopilan los datos, sino también por los métodos para procesarlos. «Está agregando este doble enfoque para responsabilizar a las empresas cuando recopilan datos a través de medios engañosos y los utilizan para generar algoritmos», dice Divya Ramjee , miembro principal del Centro de Seguridad, Innovación y Nuevas Tecnologías de la Universidad Americana y miembro en el Programa de Tecnología, Derecho y Seguridad de Washington College of Law .
La destrucción de algoritmos podría inutilizar el software y afectar negativamente los resultados de una empresa. “Al final del día, las empresas hacen este trabajo por dinero”, dice Ramjee. “Están recopilando datos y creando algoritmos que son esencialmente un producto que se vende y genera más dinero para ellos. Entonces, cuando tienes que destruir ese algoritmo, hay una consecuencia financiera para la empresa porque ese es el producto de su trabajo que genera ingresos al que tienen que renunciar».
La FTC está aplicando cada vez más la destrucción algorítmica como una herramienta para mantener a raya a las empresas tecnológicas. En un acuerdo de 2021 , la comisión dijo que Everalbum, una empresa de almacenamiento de fotos en la nube ahora desaparecida, «debe obtener el consentimiento expreso de los consumidores antes de usar la tecnología de reconocimiento facial en sus fotos y videos», y exigió a la empresa que «elimine las fotos y videos de usuarios de la aplicación Ever que desactivaron sus cuentas y los modelos y algoritmos que desarrolló usando las fotos y videos subidos por sus usuarios”.
Se emitió una directiva similar a Cambridge Analytica, ordenando a la consultora eliminar o destruir la información que recopiló sobre los usuarios de Facebook a través de una aplicación, así como “cualquier información o producto de trabajo, incluidos los algoritmos o ecuaciones, que se originó, en su totalidad o en parte, de esta Información Cubierta.”
“El algoritmo en sí mismo a menudo comunica información privada y conduce a repetidas violaciones de la privacidad cuando se comparte o se usa. Entonces, la justificación para eliminarlos es comparable a eliminar los datos que la empresa recopiló ilegalmente”, dice Walsh. “Socavaría aún más la privacidad de las personas si las empresas pudieran violar la ley y esencialmente salirse con la suya tomando la información privada de las personas simplemente porque la convirtieron en algoritmos antes de ser atrapados. Este acuerdo [WW International y Kurbo] es una buena señal de que los reguladores no van a caer en eso”.
Y aunque ordenar a las empresas que destruyan los algoritmos que desarrollaron utilizando datos mal adquiridos puede no prevenir por completo las prácticas engañosas de datos, es un paso en la dirección correcta, dice Ramjee.
“Siempre hay empresas que van a hacer las cosas de manera engañosa, pero esta es una buena herramienta para tratar de detener la forma en que agregan y usan los datos”, dice Ramjee. “Es un primer paso para mostrar que estas empresas no pueden simplemente correr desenfrenadamente, especialmente cuando tienes estas grandes empresas con multas multimillonarias. Actúa como un factor disuasorio para mostrar que no puedes simplemente salirte con la tuya”.
Los cuerpos legislativos de todo el mundo están reconociendo la necesidad de responsabilizar a las empresas por la recopilación ilegal de datos y su uso para desarrollar o entrenar algoritmos. Como resultado, es probable que se establezcan más regulaciones para mitigar los problemas que surgen con estas prácticas. La Unión Europea (UE) ya está liderando el camino con su Reglamento General de Protección de Datos (GDPR), pero también está proponiendo una Ley de Inteligencia Artificial . “La propuesta de la UE incluye un remedio potencial de eliminación o reentrenamiento”, dice Walsh.
La FTC potencialmente continuará investigando empresas e imponiendo la destrucción algorítmica, pero Ramjee cree que una ley federal de privacidad más integral es crucial para detener a las empresas engañosas. “También puede tener un tercero presumiblemente imparcial que verifique los datos y ayude a validar lo que sucede en esas plataformas”, dice.
La responsabilidad ahora recae en las empresas para establecer prácticas de datos más éticas. “Como consumidores, ahora estamos mucho más preocupados por cómo se utilizan nuestros datos porque sabemos que estos algoritmos funcionan de manera que nos satisfacen, ya sea para bien o para mal”, dice Ramjee. “Los consumidores están presionando por la privacidad y están sedientos de transparencia, por lo que les convendría a las empresas ser sinceros sobre qué y cómo se utilizan los datos de una manera que sea digerible para el consumidor promedio”.