Ahora es un buen momento para comenzar a pensar en la gobernanza de la superinteligencia: los futuros sistemas de inteligencia artificial serán mucho más capaces incluso que AGI
(open ai)-Dada la imagen tal como la vemos ahora, es concebible que dentro de los próximos diez años, los sistemas de IA superen el nivel de habilidad de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad.
En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos. La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo.
También debemos mitigar los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un tratamiento y una coordinación especiales.
Un punto de partida
Hay muchas ideas que nos importan para tener una buena oportunidad de navegar con éxito este desarrollo; aquí exponemos nuestro pensamiento inicial sobre tres de ellos.
Primero, necesitamos cierto grado de coordinación entre los principales esfuerzos de desarrollo para garantizar que el desarrollo de la superinteligencia ocurra de una manera que nos permita mantener la seguridad y ayudar a la integración fluida de estos sistemas con la sociedad. Hay muchas maneras en que esto podría implementarse; Los principales gobiernos de todo el mundo podrían establecer un proyecto del que formen parte muchos de los esfuerzos actuales, o podríamos acordar colectivamente (con el poder de respaldo de una nueva organización como la sugerida a continuación) que la tasa de crecimiento de la capacidad de IA en la frontera es limitado a una cierta tasa por año.
Y, por supuesto, las empresas individuales deben estar sujetas a un estándar extremadamente alto de actuación responsable.
En segundo lugar, es probable que eventualmente necesitemos algo como un OIEApara los esfuerzos de superinteligencia; cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos como computación) deberá estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc. El seguimiento del uso de cómputo y energía podría ser de gran ayuda y darnos alguna esperanza de que esta idea pueda implementarse. Como primer paso, las empresas podrían acordar voluntariamente comenzar a implementar elementos de lo que tal agencia podría requerir algún día, y como segundo, los países individuales podrían implementarlo. Sería importante que una agencia de este tipo se centre en reducir el riesgo existencial y no en cuestiones que deberían dejarse en manos de países individuales, como definir lo que se le debe permitir decir a una IA.
Tercero, necesitamos la capacidad técnica para hacer que una superinteligencia sea segura. Esta es una pregunta de investigación abierta en la que nosotros y otros estamos poniendo mucho esfuerzo.
Lo que no está en el alcance
Creemos que es importante permitir que las empresas y los proyectos de código abierto desarrollen modelos por debajo de un umbral de capacidad significativo, sin el tipo de regulación que describimos aquí (incluidos mecanismos onerosos como licencias o auditorías).
Los sistemas de hoy crearán un enorme valor en el mundo y, si bien tienen riesgos, el nivel de esos riesgos se siente acorde con otras tecnologías de Internet y los enfoques probables de la sociedad parecen apropiados.
Por el contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora, y debemos tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a la tecnología muy por debajo de esta barra.
Opinión pública y potencial
Pero la gobernanza de los sistemas más poderosos, así como las decisiones relativas a su despliegue, deben contar con una fuerte supervisión pública. Creemos que las personas de todo el mundo deberían decidir democráticamente los límites y valores predeterminados de los sistemas de IA. Todavía no sabemos cómo diseñar tal mecanismo, pero planeamos experimentar con su desarrollo. Seguimos pensando que, dentro de estos amplios límites, los usuarios individuales deberían tener mucho control sobre cómo se comporta la IA que utilizan.
Dados los riesgos y las dificultades, vale la pena considerar por qué estamos construyendo esta tecnología.
En OpenAI tenemos dos razones fundamentales. Primero, creemos que conducirá a un mundo mucho mejor de lo que podemos imaginar hoy (ya estamos viendo ejemplos tempranos de esto en áreas como la educación, el trabajo creativo y la productividad personal). El mundo enfrenta muchos problemas que necesitaremos mucha más ayuda para resolver; esta tecnología puede mejorar nuestras sociedades, y la capacidad creativa de todos para usar estas nuevas herramientas seguramente nos asombrará. El crecimiento económico y el aumento de la calidad de vida serán asombrosos.
En segundo lugar, creemos que sería poco intuitivo arriesgado y difícil detener la creación de superinteligencia. Debido a que las ventajas son tan enormes, el costo de construirlo disminuye cada año, la cantidad de actores que lo construyen aumenta rápidamente y es inherentemente parte del camino tecnológico en el que estamos, detenerlo requeriría algo así como un régimen de vigilancia global, y incluso eso no está garantizado para trabajar. Así que tenemos que hacerlo bien.