Existe una conciencia cada vez mayor sobre la importancia de la ética de la IA, que consiste en tener en cuenta las ramificaciones éticas de los sistemas de IA.  

Por Lance Eliot, experto en tendencias de IA

(aitrends)-Se les pide a los desarrolladores de IA que diseñen y construyan cuidadosamente sus mecanizaciones de IA asegurando que las consideraciones éticas estén a la vanguardia del proceso de desarrollo de sistemas de IA. Al desplegar la IA, los responsables del uso operativo de la IA también deben considerar las facetas éticas cruciales de los sistemas de IA en producción. Mientras tanto, el público y aquellos que utilizan o dependen de los sistemas de IA están empezando a clamar por una mayor atención a las prácticas y capacidades éticas y no éticas de la IA.

Considere un ejemplo simple. Suponga que se desarrolla una aplicación de inteligencia artificial para evaluar a los solicitantes de préstamos para automóviles. Mediante el uso de Machine Learning (ML) y Deep Learning (DL), el sistema de inteligencia artificial se entrena en un tesoro de datos y llega a algunos medios para elegir entre los que considera dignos de un préstamo y los que no lo son.

La Red Neural Artificial (ANN) subyacente es tan compleja computacionalmente que no hay medios aparentes para interpretar cómo llega a las decisiones que se toman. Además, no hay una capacidad de explicabilidad incorporada y, por lo tanto, la IA no puede articular por qué está tomando las decisiones que está tomando (nota: hay un movimiento para incluir XAI, componentes de IA explicables para tratar de superar este obstáculo inescrutabilidad). .

Una vez que se presentó la solicitud de evaluación de préstamos basada en AI, poco después surgieron protestas de algunos que afirman que fueron rechazados para su préstamo de automóvil debido a una inclusión incorrecta de la raza o el género como un factor clave para tomar la decisión negativa.

Al principio, el creador de la aplicación de inteligencia artificial insiste en que no utilizaron tales factores y profesa total inocencia en el asunto. Sin embargo, resulta que una auditoría de terceros de la aplicación de IA revela que ML / DL está utilizando la raza y el género como características centrales en el proceso de evaluación de préstamos para automóviles. En lo profundo de los elementos matemáticamente arcanos de la red neuronal, los datos relacionados con la raza y el género se entrelazaron intrincadamente en los cálculos, ya que se extrajeron del conjunto de datos de entrenamiento inicial proporcionado cuando se elaboró ​​la ANN.

Ese es un ejemplo de cómo los sesgos se pueden ocultar dentro de un sistema de inteligencia artificial. Y también muestra que tales sesgos pueden pasar desapercibidos de otra manera, incluido que los desarrolladores de la IA no se dieron cuenta de que existían y aparentemente estaban seguros de que no habían hecho nada para justificar la inclusión de tales sesgos.

Es posible que las personas afectadas por la aplicación de IA no se den cuenta de que están sometidas a tales sesgos. En este ejemplo, aquellos que se vieron afectados de manera adversa tal vez notaron y expresaron sus preocupaciones, pero es probable que veamos mucha IA que nadie se dará cuenta de que están siendo subyugados por prejuicios y, por lo tanto, no pueden hacer sonar la campana de la consternación.

Una amplia gama de grupos y asociaciones están proponiendo varios principios de ética de la IA, con la esperanza de que quienes diseñan la IA se tomen en serio la necesidad de considerar adoptar las consideraciones éticas de la IA a lo largo del ciclo de vida del diseño, la construcción, las pruebas y la implementación de la IA.

La ética de la IA generalmente consta de estos principios clave: 

1) Crecimiento inclusivo, desarrollo sostenible y bienestar       

2) Valores y equidad centrados en el ser humano       

3) Transparencia y explicabilidad       

4) Robustez, seguridad y protección       

5) Responsabilidad

Ciertamente, esperamos que los humanos muestren un comportamiento ético y, por lo tanto, parece apropiado que también esperemos un comportamiento ético de la IA.

Dado que el objetivo al que se aspira la IA es proporcionar máquinas que sean equivalentes a la inteligencia humana, pudiendo presumiblemente incorporar el mismo rango de capacidades cognitivas que los humanos, esto quizás sugiera que solo seremos capaces de lograr el tan cacareada meta de la IA si incluyendo alguna forma de componente o capacidad relacionada con la ética.

Lo que esto significa es que si los humanos encapsulan la ética, lo que parecen hacer, y si la IA está tratando de lograr lo que son y hacen los humanos, la IA debería tener una capacidad ética infundida, de lo contrario, sería algo menos que el objetivo deseado de lograr Inteligencia humana.

Se podría afirmar que cualquiera que cree IA que no incluya una instalación ética está socavando lo que debería ser un aspecto crucial e integral de cualquier sistema de IA que se precie.

Por supuesto, tratar de lograr los objetivos de la IA es una cuestión, mientras tanto, dado que vamos a estar atascados en un mundo con IA, por nuestra seguridad y bienestar como humanos, estaríamos argumentando legítimamente que es mejor que la IA cumpla comportamiento ético, sin embargo, eso podría lograrse.

Ahora que hemos cubierto ese aspecto, tomemos un momento para reflexionar sobre la naturaleza de la ética y el comportamiento ético.

Considerar si los seres humanos siempre se comportan de forma ética

¿Los humanos siempre se comportan éticamente? Creo que todos podemos estar de acuerdo en que los humanos no siempre se comportan necesariamente de una manera estrictamente ética.

¿El comportamiento ético de los seres humanos puede caracterizarse únicamente por si alguien se encuentra en un estado de ser éticamente binario, es decir, o puramente ético o totalmente inmoral? Me atrevería a decir que no siempre podemos precisar el comportamiento humano en dos categorías binarias y mutuamente excluyentes de ser ético o no ético. El mundo real suele ser mucho más gris que eso, y en ocasiones es más probable que evaluemos que alguien está haciendo algo éticamente cuestionable, pero no es puramente inmoral ni completamente ético.

En cierto sentido, se podría afirmar que el comportamiento humano se encuentra dentro de un espectro de la ética, a veces siendo completamente ético y llegando al final de la escala como total e indiscutiblemente no ético. En el medio hay mucho espacio para cómo alguien se comporta éticamente.

Si está de acuerdo en que el mundo no es una elección ética binaria de comportamientos que encajan solo en lo verdaderamente ético frente a lo exclusivamente no ético, presumiblemente también estaría dispuesto a aceptar la noción de que existe una escala potencial en la que podríamos calificar el comportamiento ético. .

Esta escala puede ser de los puntajes del 1 al 10, o tal vez del 1 al 100, o cualquier numeración que deseemos intentar y asignar, tal vez incluso incluyendo números negativos también.

Supongamos por el momento que usaremos los números positivos de una escala de 1 a 10 para ser cada vez más éticos (el más alto es 10), y las puntuaciones de -1 a -10 para ser poco éticos (el -10 es el menos ético o menos ético). en otras palabras, la calificación potencial más poco ética), y cero será el punto medio de la escala.

Por favor, no se obsesione con la numeración de la báscula, que puede ser cualquier otra cosa que le guste. Incluso podríamos utilizar letras del alfabeto o cualquier tipo de escala móvil. El punto es que hay una escala, y podríamos idear algunos medios para establecer una escala adecuada para usar en estos asuntos.

El giro está a punto de llegar, así que agárrate al sombrero. 

Podríamos observar a un ser humano y calificar su comportamiento ético en aspectos particulares de lo que hace. Quizás en el trabajo, una persona obtiene un 8 por ser éticamente observador, mientras que quizás en casa es una persona más tortuosa y obtiene un puntaje de -5.

Bien, entonces podemos calificar el comportamiento humano. ¿Podríamos impulsar o guiar el comportamiento humano mediante el uso de la balanza?

Supongamos que le decimos a alguien que en el trabajo lo están observando y que su objetivo es alcanzar un puntaje de ética de 9 durante su primer año en la empresa. Presumiblemente, llevarán a cabo sus actividades laborales de tal manera que les ayude a alcanzar ese puntaje.

En ese sentido, sí, podemos potencialmente guiar o estimular el comportamiento humano proporcionando objetivos relacionados con las expectativas éticas. Les dije que iba a surgir un giro, y ahora aquí está. Para la IA, podríamos usar una calificación o puntuación ética para tratar de evaluar qué tan competente éticamente es la IA.

De esa manera, podríamos sentirnos más cómodos usando esa IA en particular si supiéramos que tiene un puntaje ético confiable. Y presumiblemente también podríamos buscar guiar o impulsar a la IA hacia un puntaje ético, similar a cómo se puede hacer esto con los humanos, y tal vez indicar que la IA debería esforzarse por alcanzar algún límite superior en la escala de ética.

Algunos expertos retroceden inmediatamente ante esta idea. Argumentan que la IA siempre debería ser un +10 (usando la escala que he presentado aquí). Cualquier cosa menos que un top ten es una abominación y la IA no debería existir. W ell, esto nos lleva de nuevo en la discusión anterior sobre si el comportamiento ético está en un estado binario.

¿Vamos a mantener a la IA en un «nivel más alto» que los humanos al insistir en que la IA siempre sea «perfectamente» ética y nada menos?

Esto es algo así como un dilema debido al punto de que la IA en general presumiblemente apunta a ser el equivalente a la inteligencia humana y, sin embargo, no mantenemos a los humanos en el mismo estándar.

Para algunos, creen fervientemente que la IA debe mantenerse en un estándar más alto que los humanos. No debemos aceptar ni permitir ninguna IA que no pueda hacerlo.

Otros indican que esto parece ir en contra de lo que se sabe sobre el comportamiento humano y plantea la pregunta de si se puede lograr la IA si debe hacer algo que los humanos no pueden lograr.

Además, podrían argumentar que obligar a la IA a hacer algo que los humanos no emprenden ahora se está desviando del objetivo asumido de llegar al equivalente de la inteligencia humana, lo que podría alejarnos de poder hacerlo como resultado de esta insistencia. sobre la ética.

Estos debates siguen dando vueltas y vueltas. 

Aquellos en la IA ética imprescindible de primera categoría a menudo se apresuran a señalar que al permitir que la IA sea algo menos que uno de los diez primeros, está abriendo la caja de Pandora. Por ejemplo, podría ser que la IA se sumerja en los números negativos y se sienta en un -4, o peor también divague para volverse miserable y completamente poco ética en un triste -10.

De todos modos, este es un debate que va a continuar y no se resolverá fácilmente, así que sigamos adelante.

Si todavía tiene la noción de que la ética existe en una escala y que la IA también podría medirse con dicha escala, y si también está dispuesto a aceptar que el comportamiento puede ser impulsado o guiado ofreciendo dónde residir en la escala, el Ha llegado el momento de que aparezcan los botones de afinación. Perillas de afinación de ética.

H ERE es cómo funciona. Entras en contacto con un sistema de inteligencia artificial y estás interactuando con él. La IA le presenta una perilla de ajuste de ética, que muestra una escala similar a nuestra escala de ética propuesta anteriormente. Suponga que la perilla está actualmente en un 6, pero desea que la IA actúe más alineada con un 8, por lo que gira la perilla hacia arriba hasta el 8. En esa coyuntura, la IA ajusta su comportamiento para que, éticamente, muestre una Nivel de cumplimiento ético de 8 puntos en lugar del ajuste anterior de 6.

¿Qué piensa usted de eso?

Algunos gritarían tonterías, tonterías y simplemente tonterías sin adulterar. ¿Una idea absurda o genial? Descubrirás que hay expertos en ambos lados de esa moneda. Quizás sería útil proporcionar la perilla de ajuste de ética dentro de un ejemplo contextual para resaltar cómo podría funcionar.

Aquí hay una útil indicación contextual para usted:  ¿Los verdaderos autos autónomos basados ​​en IA pueden contener una perilla de ajuste de ética para que la utilicen los conductores o pasajeros que utilicen vehículos autónomos?

Analicemos el asunto y veamos. 

Para mi marco sobre autos autónomos de IA, vea el enlace aquí:  https://aitrends.com/ai-insider/framework-ai-self-driving-driverless-cars-big-picture/

Por qué esto es un esfuerzo a la luna, vea mi explicación aquí:  https://aitrends.com/ai-insider/self-driving-car-mother-ai-projects-moonshot/

Para obtener más información sobre los niveles como un tipo de escala de Richter, consulte mi discusión aquí:  https://aitrends.com/ai-insider/richter-scale-levels-self-driving-cars/

Para el argumento sobre la bifurcación de los niveles, consulte mi explicación aquí:  https://aitrends.com/ai-insider/reframing-ai-levels-for-self-driving-cars-bifurcation-of-autonomy/

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por su cuenta y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran un Nivel 4 y un Nivel 5, mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en un Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducir se describen como son semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (sistemas avanzados de asistencia al conductor).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, que ni siquiera sabemos si será posible lograrlo ni cuánto tiempo llevará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento teniendo lugar en nuestras carreteras y caminos, algunos sostienen).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente a la conducción de vehículos convencionales, por lo que no hay muchas novedades per se que cubrir sobre ellos en este tema (aunque, como verá en un momento, los puntos que se exponen a continuación son de aplicación general).

En el caso de los coches semiautónomos, es importante que se advierta al público sobre un aspecto inquietante que ha surgido últimamente, a saber, que a pesar de que los conductores humanos siguen publicando vídeos de sí mismos quedándose dormidos al volante de un coche de nivel 2 o 3. , todos debemos evitar ser engañados y hacernos creer que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse al nivel 2 o al nivel 3.

Para saber por qué generalmente se evita el control remoto o la operación de automóviles autónomos, consulte mi explicación aquí:  https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/

Para tener cuidado con las noticias falsas sobre automóviles autónomos, consulte mis consejos aquí:  https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/

Las implicaciones éticas de los sistemas de conducción de IA son importantes, consulte mi indicación aquí:  https://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/

Tenga en cuenta las trampas de la normalización de la desviación cuando se trata de automóviles sin conductor, aquí está mi llamado a las armas:  https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving- coches/  

Automóviles autónomos y perillas de ajuste éticas

Para los verdaderos vehículos autónomos de nivel 4 y nivel 5, no habrá un conductor humano involucrado en la tarea de conducción. Todos los ocupantes serán pasajeros. La IA es la que conduce.

Esto parece bastante sencillo. Quizás se esté preguntando dónde entra en escena cualquier apariencia de comportamiento ético. Así es cómo. Algunos creen que un automóvil autónomo siempre debe obedecer estrictamente el límite de velocidad.

Imagine que acaba de subirse a un automóvil autónomo por la mañana y resulta que posiblemente va a llegar tarde al trabajo. Tu jefe es un riguroso y te ha dicho que llegar tarde es una forma segura de ser despedido.

Le dice a la IA a través de su procesamiento de lenguaje natural (NLP) que el destino es su dirección de trabajo.

Y le pide a la IA que pise el acelerador, presione el pedal a fondo, haga chirriar esos neumáticos y lo ponga a trabajar a tiempo.

Pero está claro que si la IA obedece el límite de velocidad, no hay absolutamente ninguna posibilidad de llegar al trabajo a tiempo, y dado que la IA solo y siempre va a ir al límite de velocidad o menos, tu ganso está frito. .

Mejor suerte en tu próximo trabajo.   

Supongamos que el sistema de conducción de la IA tiene una perilla de ajuste de ética.

Cumplir estrictamente con el límite de velocidad ocurre cuando la perilla se sube a los números superiores como, por ejemplo, 9 y 10.

Gira la perilla hacia abajo a un 5 y le dice a la IA que debe apresurarse a trabajar, incluso si eso significa superar el límite de velocidad, que con una puntuación de 5 significa que el sistema de conducción de la IA superará levemente el límite de velocidad. aunque no en lugares como zonas escolares, y solo cuando la situación del tráfico parece permitir ir de forma segura más rápido que el límite de velocidad por una pizca.

¡El coche autónomo con IA te permite trabajar a tiempo!

Más tarde esa noche, cuando se dirige a casa, no tiene tanta prisa, por lo que vuelve a colocar la perilla en las 9 o 10 en las que estaba antes.

Además, tiene un bloqueo para niños en la perilla, de modo que cuando sus hijos usan el automóvil autónomo, lo que pueden hacer solos ya que no se necesita un conductor humano, la perilla siempre se coloca en la parte superior de la escala y los niños no pueden alterarla.

¿Cómo te parece eso?

Algunos expertos en automóviles autónomos encuentran repugnante el concepto de tal botón de ajuste.

Señalan que todos «harán trampa» y pondrán la perilla en las puntuaciones más bajas que permitirán a la IA hacer el mismo tipo de conducción peligrosa y de mala calidad que hacen los humanos hoy en día. Todo lo que podríamos haber ganado de otra manera al tener autos sin conductor, como la reducción esperada de accidentes automovilísticos, junto con la reducción de lesiones y muertes asociadas, se perderá debido a la capacidad de la perilla de ajuste.

Otros, sin embargo, señalan que es ridículo pensar que las personas tolerarán los autos sin conductor que son conductores restringidos que nunca se doblan o infringen la ley.

Terminará con personas que optarán por usar raramente automóviles autónomos y, en cambio, conducirán sus automóviles conducidos por humanos. Esto se debe a que saben que pueden conducir con más fluidez y no se quedarán atrapados dentro de un automóvil sin conductor que conduce como un gato asustadizo.

Como puede imaginar, las ramificaciones éticas de un botón de afinación ético son inmensas.

En este caso de uso, hay una especie de obviedad sobre los impactos de lo que predice una perilla de ajuste de ética.

Otros tipos de sistemas de inteligencia artificial tendrán su apariencia de lo que podría presagiar una perilla de ajuste de ética, y aunque podría no ser tan evidente como el caso de los automóviles autónomos, hay potencialmente tanto en juego en algunos de esos otros sistemas de inteligencia artificial. también (que, al igual que un coche autónomo, puede tener repercusiones de vida o muerte).

Para saber por qué generalmente se evita el control remoto o la operación de automóviles autónomos, consulte mi explicación aquí:  https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/

Para tener cuidado con las noticias falsas sobre automóviles autónomos, consulte mis consejos aquí:  https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/

Las implicaciones éticas de los sistemas de conducción de IA son importantes, consulte mi indicación aquí:  https://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/

Tenga en cuenta las trampas de la normalización de la desviación cuando se trata de automóviles sin conductor, aquí está mi llamado a las armas:  https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving- coches/

Conclusión

Si realmente quiere que alguien se ocupe del tema de la perilla de sintonización de ética, mencione el tema aliado del Problema del carro.

El problema del carro es un famoso experimento mental que implica tener que tomar decisiones sobre cómo salvar vidas y qué camino elegir. Esto se ha planteado repetidamente en el contexto de los automóviles autónomos y ha atraído una atención acérrima junto con puntos de vista bastante diametralmente opuestos sobre si es relevante o no.

En cualquier caso, las grandes preguntas generales son si esperamos que la IA tenga un botón de ajuste ético y, de ser así, qué hará y cómo se utilizará.

Aquellos que insisten en que no hay motivo para tener un dispositivo de este tipo, tienden a insistir igualmente en que debemos tener una inteligencia artificial que practique siempre el máximo comportamiento ético.

¿Es esa una perspectiva utópica o se puede lograr en el mundo real como lo conocemos?

Solo mi bola de cristal puede decirlo con seguridad.

Copyright 2020 Dr. Lance Eliot