Las advertencias éticas al uso cada vez más intenso de la IA genera incluso resquemores a nivel financiero. El mundo de la economía está dominado por las finanzas que a su vez parece depender cada vez más de la IA, de tal modo que por consecuencia lógica la economía dependerá de los códigos que manejen las máquinas y quienes se los proporcionen. La fascinación por la tecnología hace que la esperanza de que la justicia se condiga con la economía se halle cada vez más lejana. 

(redbioetica)-La semana pasada, el negocio de tarjetas de crédito de Barclays llegó a un acuerdo con Amazon para ofrecer fluidos servicios de pago y de compras personalizados en Alemania. Pero los inversionistas y los reguladores deberían prestar atención. Porque el significado real de la unión alemana es como un signo diminuto, pero inusualmente visible, de una febril carrera en progreso entre los bancos y las compañías tecnológicas para encontrar formas de utilizar los datos masivos y la inteligencia artificial (IA) en las finanzas.

Básicamente, Barclays y Amazon están vinculando datos con análisis de IA para aprobar (o negar) el crédito y predecir cuáles servicios personalizados desearán los clientes en la siguiente ocasión. “Yo personalmente creo que la asociación con Amazon ha sido una de las cosas más importantes que le han ocurrido a Barclays en los últimos cinco años”, me dijo Jes Staley, el director ejecutivo de Barclays.

Lo que suceda a continuación en esta carrera de la IA pronto pudiera importar enormemente y ayudar a determinar los futuros ganadores en las finanzas y el próximo conjunto significativo de riesgos regulatorios. Las plataformas de IA que actualmente se están implementando en las finanzas son exponencialmente más poderosas que cualquier otra vista antes. En particular, las capacidades desatadas por un subconjunto de IA llamado “aprendizaje profundo” representan “una discontinuidad fundamental” del pasado, advirtió un nuevo artículo del MIT.

Estas innovaciones deberían permitirles a las compañías financieras ofrecerles a los consumidores “más opciones, servicios mejor orientados y precios más económicos”. También debieran reducir los costos de los préstamos corporativos. Pero también existen significativos costos potenciale. Uno es la propensión de los programas de IA a incorporar sesgos, incluyendo racismo, en la toma de decisiones. Otro se relaciona con los riesgos de privacidad.
Un tercer costo es el antimonopolio: dado que tener una enorme base de datos ofrece una convincente ventaja en la IA, existe una tendencia a que las compañías dominantes se vuelvan cada vez más dominantes. Un cuarto tema relacionado es la posibilidad de comportamiento de rebaño: dado que los programas de IA a menudo se construyen en líneas similares, su uso pudiera reducir la diversidad institucional y socavar la resiliencia de las finanzas.

El mayor problema de todos es la falta de transparencia. “La ausencia de interpretación, o ‘auditabilidad’ de la IA y de los métodos de aprendizaje automático pudiera convertirse en un riesgo a nivel macro”, señaló un nuevo documento del Consejo de Estabilidad Financiera. Entonces, ¿qué debería hacerse? La primera idea es que las compañías involucradas en actividades financieras habilitadas por la IA deben estar reguladas dentro de un marco financiero.

La segunda es que los reguladores y los gestores de riesgos deben salvar los silos de información. Muy pocas personas comprenden tanto la IA como las finanzas. La tercera idea es que no podemos entregar toda la creación y el control de las finanzas habilitadas por inteligencia artificial a los ‘genios tecnológicos’ con visión limitada; más bien, las personas que diseñan la estrategia deben tener una visión holística de su impacto social. Pero, para que esto suceda, es necesario que haya un cuarto avance: los políticos, y el público en general, deben prestar atención a lo que está en progreso, en lugar de subcontratarlo a expertos técnicos.