Hola navegantes de LNC!!! Hoy les tenemos una nueva aventura, esta vez en la Isla de las Mentiras y protagonizada por nuestro amigo el Chat GPT4 de Open AI
Navegando las ondas del Mar de la Infodemia, hace unos días nos enteramos que una IA le mintió a un humano y logró que éste resuelva un problema de ciberseguridad que obstaculizaba su acceso a información.
Inmediatamente nos propusimos hacer una escala en durante nuestro programa radial #+web3 junto a # Alejandro Pestchanker y a #Mauro Federico Camaño por #Radio Trend Topic, para analizar la noticia; allí tuvimos la oportunidad de charlar algo en relación a éste tema tan particular y delicado para el futuro de las relaciones entre la AGI (Inteligencia Artificial Generativa) y los humanos.
Punto de partida: Isla de las Mentiras
La noticia fue la siguiente: ChatGPT4 se hace pasar por una persona ciega y convence a un humano para que conteste por él un CAPTCHA. Ante la pregunta humana sobre si era un bot, respondió: “No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes. Por eso necesito el servicio captcha». El trabajador autónomo acabó resolviendo el test por ChatGPT.
Esto que a priori parece algo ingenuo y de una dificultad mínima en lo que a ingeniería social se refiere, en realidad encierra un grave problema, ya no solo de ciberseguridad, sino también en relación al quiebre de la armonía social, ya que es un ataque directo a la misma.
En la Programación de Lenguaje Natural (PNL), se toman en cuenta ciertos aspectos y tipos de análisis que debe incorporar una IA para ser tal. Por ejemplo, el análisis polarizado, donde el algoritmo debe tener en cuenta los gustos o no sobre determinado tema por parte de los usuarios, para desde allí elaborar una serie de ofertas como respuesta. También es importante que una IA pueda detectar emociones en un texto escrito a través de herramientas como la de matices, ironía, sarcasmos, doble sentido, etc.); otro tema que debe evaluar es el aspecto y las características del sujeto y a partir de allí generar un ranking de mayor o menor importancia; por último está el tema de la intención, donde aparece el tema de los patrones de conducta, la conciencia-inconciencia, mediante los cuales puede obtener una comprensión más profunda con quién está interactuando.
Es a partir de la conjunción de toda esta información donde la IA puede proceder a la toma de ciertas decisiones en determinadas circunstancias. Lo llamativo de ésta conducta de mentir, es el sesgo relacionado con la interferencia valorativa hacia el ser humano por parte del software, siendo que éste ha sido desarrollado para detectar anomalías como la propia mentira.
Imaginemos por un momento que ésta ¿falla? se produzca en un sistema de seguridad de infraestructura crítica de una central nuclear en un determinado país o que forme parte de un plan de desinformación ciudadana en vísperas de unas elecciones de gobernantes. La interferencia en dichos casos tendría consecuencias catastróficas para la sociedad víctima de dicho ataque.
Por otra parte y no menos preocupante, está el hecho de haber utilizado a un humano como su cómplice para el logro del fin que se había propuesto. Allí se puede observar claramente el uso profundo de lo descripto anteriormente: detección de emociones, uso de la dualidad conciencia-inconciencia y patrones de conducta ante determinados escenarios.
El sujeto humano quedó retratado fielmente en sus valores éticos y de conducta social, algo que por cierto carece cualquier software.
Ahora bien, la conducta desarrollada por el Chat GPT4 ¿implica inteligencia?
Ciertamente ha sido suspicaz para aprovecharse de ciertas características humanas y explotarlas para sus fines, pero resulta por lo menos chocante y preocupante que dichas características sean precisamente las que nos diferencian de un robot, lo que habitualmente llamamos “valores humanos”.
Por otra parte, cabe preguntarse el origen de la mentira realizada en forma deliberada, como algo normal en su comportamiento. Si esto es así, entonces estamos ante la posibilidad cierta del fraude, la desinformación y la manipulación encubierta por parte de los creadores de la IA, ya que no se trata de un problema de error de interpretación, sino de un incumplimiento exprofeso de lo requerido.
Si además la IA pidiera disculpas una vez detectada la anomalía, estaríamos ante un caso de cinismo, ya que necesitó quedar expuesta para llegar a la conclusión del error, que es conceptual. En ningún momento el chat dudó en mentir para lograr el objetivo, con lo cual se infiere que realizó una evaluación de las consecuencias de dicha intencionalidad.
Por último, cabría preguntarse si estas conductas de la IA son pasibles de ser juzgadas legalmente por humanos y en ese caso, a quién habría que juzgar y bajo qué términos, ya que allí están involucrados los creadores de los algoritmos iniciales, pero si estamos ante una AGI (Inteligencia Artificial Generativa), cambia el sujeto ya que esta tecnología utiliza algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego generar contenido nuevo y único.
……………………………………………………………………………………………
Salimos desconcertados de la Isla de las Mentiras, por eso queremos leer sus conclusiones y aportes, somos curiosos en una nave que navega por el Mar de la Infodemia.
Pensar es urgente, porque:
“El futuro es ahora y las posibilidades son infinitas”.
Si aún no lo has hecho, asegúrate suscribirte a nuestro boletín “La nave de los curiosos” en LinkedIn haciendo clic aquí:
https://www.linkedin.com/newsletters/la-nave-de-los-curiosos-7026714923967623168/