Los pioneros de la IA piden protección contra los «riesgos catastróficos»

Científicos de Estados Unidos, China y otras naciones pidieron una autoridad internacional que supervise la inteligencia artificial.

Los científicos que ayudaron a desarrollar la inteligencia artificial advierten que los países deben crear un sistema global de supervisión para controlar los riesgos potencialmente graves que plantea esta tecnología en rápido desarrollo.

El lanzamiento de ChatGPT y una serie de servicios similares que pueden crear texto e imágenes a pedido han demostrado que la IA está avanzando de manera poderosa. La carrera por comercializar la tecnología la ha llevado rápidamente de los márgenes de la ciencia a los teléfonos inteligentes, los automóviles y las aulas, y los gobiernos, desde Washington hasta Pekín, se han visto obligados a encontrar la manera de regularla y aprovecharla.

En una declaración del lunes, un grupo de influyentes científicos de inteligencia artificial expresó su preocupación por la posibilidad de que la tecnología que ayudaron a crear pudiera causar graves daños. Advirtieron que la tecnología de inteligencia artificial podría, en cuestión de años, superar las capacidades de sus creadores y que “la pérdida del control humano o el uso malintencionado de estos sistemas de inteligencia artificial podrían conducir a resultados catastróficos para toda la humanidad”.

Si los sistemas de IA en cualquier parte del mundo desarrollaran hoy estas capacidades, no hay ningún plan sobre cómo controlarlas, dijo Gillian Hadfield, jurista y profesora de informática y gobierno en la Universidad Johns Hopkins.

“Si sucediera algún tipo de catástrofe dentro de seis meses y detectáramos que hay modelos que están empezando a mejorar de manera autónoma, ¿a quién llamaríamos?”, dijo Hadfield.

Del 5 al 8 de septiembre, el Dr. Hadfield se reunió con científicos de todo el mundo en Venecia para hablar sobre dicho plan. Fue la tercera reunión de los Diálogos internacionales sobre seguridad de la IA, organizados por el Safe AI Forum, un proyecto de un grupo de investigación sin fines de lucro en los Estados Unidos llamado Far.AI.

Los gobiernos necesitan saber qué está pasando en los laboratorios de investigación y las empresas que trabajan en sistemas de IA en sus países, afirmó el grupo en su declaración. Y necesitan una forma de comunicar sobre los riesgos potenciales que no requiera que las empresas o los investigadores compartan información confidencial con los competidores.

El grupo propuso que los países establezcan autoridades de seguridad de la IA para registrar los sistemas de IA dentro de sus fronteras. Esas autoridades trabajarían juntas para acordar un conjunto de líneas rojas y señales de advertencia, como por ejemplo si un sistema de IA podría copiarse a sí mismo o engañar intencionalmente a sus creadores. Todo esto estaría coordinado por un organismo internacional.

Científicos de Estados Unidos, China, Gran Bretaña, Singapur, Canadá y otros lugares firmaron la declaración.

Entre los firmantes se encontraba Yoshua Bengio, cuyo trabajo se cita con tanta frecuencia que se le considera uno de los padrinos de este campo. También estaba Andrew Yao, cuyo curso en la Universidad Tsinghua de Pekín ha formado a los fundadores de muchas de las principales empresas tecnológicas de China. Geoffrey Hinton , un científico pionero que pasó una década en Google, participó de forma remota. Los tres son ganadores del Premio Turing , el equivalente al Premio Nobel de la informática.

El grupo también incluyó a científicos de varias de las principales instituciones de investigación en inteligencia artificial de China, algunas de las cuales están financiadas por el Estado y asesoran al gobierno. Algunos ex funcionarios del gobierno se unieron, entre ellos Fu Ying, que había sido funcionaria y diplomática del Ministerio de Asuntos Exteriores chino, y Mary Robinson, ex presidenta de Irlanda. A principios de este año, el grupo se reunió en Pekín, donde informaron a altos funcionarios del gobierno chino sobre su discusión.

La última reunión en Venecia tuvo lugar en un edificio propiedad del filántropo multimillonario Nicolas Berggruen. La presidenta del instituto de investigación Berggruen, Dawn Nakagawa, participó en la reunión y firmó la declaración publicada el lunes.

Las reuniones son un espacio poco común para el diálogo entre científicos chinos y occidentales en un momento en que Estados Unidos y China están enfrascados en una tensa competencia por la primacía tecnológica.

En los últimos meses, las empresas chinas han presentado tecnología que rivaliza con los principales sistemas de inteligencia artificial estadounidenses.

Los funcionarios gubernamentales de China y Estados Unidos han hecho de la inteligencia artificial una prioridad durante el último año. En julio, un cónclave del Partido Comunista Chino que se lleva a cabo cada cinco años pidió un sistema para regular la seguridad de la IA. La semana pasada, un influyente grupo de estándares técnicos de China publicó un marco de seguridad de la IA .

En octubre pasado, el presidente Biden firmó una orden ejecutiva que requería que las empresas informaran al gobierno federal sobre los riesgos que sus sistemas de IA podrían representar, como su capacidad para crear armas de destrucción masiva o su potencial uso por terroristas.

El presidente Biden y el líder chino, Xi Jinping, acordaron, cuando se reunieron el año pasado, que los funcionarios de ambos países debían mantener conversaciones sobre la seguridad de la IA. La primera tuvo lugar en Ginebra en mayo.

En una iniciativa gubernamental más amplia, representantes de 28 países firmaron una declaración en Gran Bretaña en noviembre pasado, acordando cooperar en la evaluación de los riesgos de la inteligencia artificial. Se reunieron nuevamente en Seúl en mayo. Pero estas reuniones no llegaron a establecer objetivos de políticas específicos.

La desconfianza entre Estados Unidos y China aumenta la dificultad de lograr un alineamiento.

“Ambos países desconfían enormemente de las intenciones del otro”, dijo Matt Sheehan, miembro del Carnegie Endowment for International Peace, que no participó en el diálogo. “Les preocupa que si frenan por cuestiones de seguridad, eso permitirá que el otro avance a toda velocidad”, dijo Sheehan. “Esa sospecha simplemente se va a arraigar”.

Los científicos que se reunieron en Venecia este mes dijeron que sus conversaciones eran importantes porque el intercambio científico se está reduciendo en medio de la competencia entre las dos superpotencias geopolíticas.

En una entrevista, el Dr. Bengio, uno de los miembros fundadores del grupo, citó conversaciones entre científicos estadounidenses y soviéticos en el apogeo de la Guerra Fría que ayudaron a coordinar la acción para evitar una catástrofe nuclear. En ambos casos, los científicos involucrados sintieron la obligación de ayudar a cerrar la caja de Pandora abierta con sus investigaciones.

La tecnología está cambiando tan rápidamente que es difícil para las empresas individuales y los gobiernos decidir cómo abordarla, y la colaboración es crucial, dijo Fu Hongyu, director de gobernanza de IA en el instituto de investigación de Alibaba, AliResearch, quien no participó en el diálogo.

“No se trata de regular una tecnología madura”, dijo Fu. “Nadie sabe cómo será el futuro de la IA”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *