Respuesta al Informe de Políticas Nuestra Agenda Común 5: “Un Pacto Digital Mundial – un futuro digital abierto, libre y seguro para todos”

Por: Malou Estier, Belinda Cleeland, en asocio con: Equipo de RCG

Versión original en el siguiente enlace

La Oficina Ejecutiva del Secretario General (EOSG) de las Naciones Unidas está publicando una serie de informes de políticas para orientar los procesos de Nuestra Agenda Común. 

El Simon Institute for Longterm Governance se asoció con Riesgos Catastróficos Globales para revisar los informes y brindar aportes sustanciales que contribuyan al impacto de estos esfuerzos.

Resumen del informe

La Oficina Ejecutiva del Secretario General (EOSG) de las Naciones Unidas está publicando una serie de informes de políticas para orientar los procesos de Nuestra Agenda Común. El 25 de mayo de 2023, el EOSG publicó su quinto informe sobre el Pacto Digital Mundial.

El Pacto Digital Mundial es un proceso intergubernamental dirigido por dos Estados miembros co-facilitadores, actualmente Suecia y Ruanda, con el objetivo de “dar forma a una visión compartida sobre la cooperación digital al proporcionar un marco global inclusivo”. El proceso se basa en la Hoja de ruta del Secretario General para la cooperación digital, así como en el informe "Nuestra Agenda Común", y debe incluirse como parte de un Pacto por el Futuro más amplio adoptado en la Cumbre del Futuro en septiembre de 2024.

Este informe de políticas presenta objetivos, principios y recomendaciones que se incluirán en el Pacto Digital Mundial. Se enfoca en:

  • Cerrar la brecha digital y avanzar en los Objetivos de Desarrollo Sostenible

  • Garantizar un entorno en línea abierto y seguro para todos

  • Gobernar la inteligencia artificial en beneficio de la humanidad

Algunos de los principios propuestos en este resumen incluyen:

  • Cerrar la brecha digital y empoderar a las personas a través del desarrollo de capacidades

  • Realizar inversiones específicas en infraestructura y servicios públicos digitales

  • Hacer de los derechos humanos la base de un futuro digital

  • Garantizar que los datos se gobiernen para el beneficio de todos de manera que se evite dañar a las personas y las comunidades.

  • Proporcionar un diseño transparente, seguro y confiable de la inteligencia artificial

Nuestra respuesta

Valoramos las propuestas integrales y detalladas presentadas en este informe de políticas. Con base en nuestra experiencia en el campo de la Inteligencia Artificial (IA), enfocamos nuestra respuesta en cómo el Pacto Digital Mundial puede enmarcar de manera más efectiva los problemas de gobernanza de la IA para ayudar a los Estados a lograr los mejores resultados posibles.

Hacemos hincapié en la importancia de abordar tanto los daños actuales como los riesgos futuros relacionados con la IA, y prestamos especial atención a los riesgos significativos que plantea la IA no regulada. Además, describimos por qué es imperativo que los esfuerzos internacionales aborden y prioricen la gobernanza de los modelos fundacionales de IA. Finalmente, destacamos la importancia de garantizar que las discusiones sobre la gobernanza de la IA sean inclusivas, incluyendo en los diálogos clave a los principales desarrolladores y sus estados, así como a los países de bajos y medianos ingresos. 

Es importante tener en cuenta que, si bien nuestro enfoque principal se encuentra dentro del ámbito de la gobernanza de la IA, reconocemos el valor y la importancia del espectro más amplio de propuestas para garantizar un Pacto Digital Mundial integral e inclusivo.

La IA exige abordar los daños actuales y los riesgos futuros


La IA tiene un enorme potencial para beneficiar a la sociedad y podría desbloquear oportunidades extraordinarias en todos los sectores, impulsando significativamente los Objetivos de Desarrollo Sostenible. Si está bien gobernada, la IA podría aumentar la eficiencia económica, respaldar los esfuerzos de respuesta a desastres e incluso ayudar a mitigar los impactos del cambio climático. Sin embargo, como se destaca en el informe de políticas, la IA también tiene el potencial de ser increíblemente disruptiva, lo que requiere una necesidad urgente de comprender mejor sus daños y estrategias de mitigación efectivas. Esta necesidad está siendo abordada por el creciente campo de la ética de la IA, que busca crear sistemas de IA justos y responsables que aborden los daños presentes y a corto plazo, incluyendo:

  • Amenazas a la privacidad y otros derechos humanos derivadas del uso de IA para sistemas de vigilancia a gran escala destinados a monitorear, rastrear y vigilar a los ciudadanos, especialmente por parte de estados autoritarios.

  • Interrupción económica y pérdida de puestos de trabajo causadas a medida que la automatización de la IA reemplaza a millones de puestos de trabajo y altera los mercados laborales globales.

  • Aumento de la desinformación y la disrupción del discurso público civil a medida que la IA explota los algoritmos de las redes sociales para perpetuar narrativas falsas y crear deepfakes

  • Discriminación arraigada resultante del entrenamiento de los sistemas de IA en conjuntos de datos que reflejan y perpetúan los sesgos sociales existentes.

  • Destrucción generalizada o tendencia al conflicto internacional como resultado del uso indebido o la falla de los sistemas de armas autónomas impulsados por la IA.

Teniendo en cuenta el rápido desarrollo de la IA y la naturaleza generativa y opaca de la tecnología, no basta con centrarse en los daños presentes y a corto plazo. También debemos reconocer los riesgos potenciales menos visibles de la IA, especialmente aquellos que podrían conducir a la pérdida del control humano y representar un riesgo existencial para la humanidad. El creciente campo de la Seguridad de la IA se enfoca en mitigar tales riesgos investigando cómo crear sistemas de IA seguros, confiables y alineados con los intereses y valores humanos.


Para reducir los daños y los riesgos, debemos centrarnos en los modelos fundacionales


Los sistemas de IA más potentes, conocidos como "modelos fundacionales", se pueden usar y adaptar a una amplia gama de aplicaciones para las que no fueron diseñados intencional y específicamente. Estos forman la base de muchas aplicaciones, incluidos ChatGPT de OpenAI, Bing de Microsoft, muchos chatbots de sitios web, bots de servicios financieros, así como herramientas de generación de imágenes como Midjourney o DALL-E. Dado que los modelos fundacionales forman la base de una gama cada vez más amplia de aplicaciones, cualquier error o problema en el nivel del modelo afecta a todas las aplicaciones creadas sobre él. Estas complejidades hacen que su regulación sea tanto desafiante como esencial.

Las capacidades generativas de los modelos fundacionales traen consigo un nuevo conjunto de riesgos importantes y exacerban los daños discutidos anteriormente. Los riesgos que están específicamente relacionados con los modelos fundacionales de IA tienen que ver principalmente con consecuencias no deseadas. Con los modelos fundacionales, estamos creando máquinas que funcionan como cajas negras, con mecanismos internos complejos que escapan a la comprensión y el control humanos. Esto crea desafíos para la capacidad de la sociedad de adaptarse y responder de manera efectiva a las consecuencias desencadenadas por la IA, ya que los resultados de la IA pueden terminar desalineados con la ética y los valores humanos fundamentales. Para corregir sesgos y evitar resultados catastróficos, debemos asegurarnos de que los sistemas de IA sean transparentes e interpretables.


La ética y la seguridad de la IA están fundamentalmente interrelacionadas, no opuestas


Se puede establecer un paralelismo sorprendente entre el dilema de la gobernanza de la IA al que nos enfrentamos hoy y el dilema de la gobernanza climática con el que hemos estado lidiando durante décadas. Los gobiernos se han centrado durante mucho tiempo en responder y mitigar las crisis relacionadas con el clima, como sequías, inundaciones, huracanes e incendios forestales. Sin embargo, la comunidad internacional tardó mucho en ponerse de acuerdo y aceptar que centrarse en la reducción de las emisiones de CO2 como la causa principal de estas crisis merecía una atención igual, si no más urgente. De manera similar, la gobernanza de la IA debe abordar los daños actuales que la IA está causando –cuestiones éticas como las violaciones de la privacidad, la discriminación o las interrupciones del mercado laboral–, pero también cuestiones de seguridad como la causa raíz de estos daños y del riesgo existencial que enfrentamos todos.

Al centrarse únicamente en los daños ya causados por la IA sin abordar el problema de raíz de los modelos fundacionales, los esfuerzos de gobernanza de la IA se parecerían a los intentos de gestionar el cambio climático únicamente a través de medidas de adaptación sin frenar las emisiones de CO2. Si bien el enfoque debe estar en la causa subyacente, es vital tener en cuenta que esto no disminuye la importancia de abordar y remediar los daños inmediatos.

Aunque el informe de políticas menciona muchos de los principales daños causados por la IA, trata la tecnología de manera amplia, sin abordar que no todos los sistemas de IA conllevan el mismo nivel de daños y riesgos.

Por lo tanto, sugerimos que el Pacto Digital Mundial reconozca la importancia de los modelos fundacionales tanto para la ética como para la seguridad de la IA, así como su naturaleza interrelacionada. Debe, de manera crucial, reconocer la escala del daño y el riesgo que debemos enfrentar, desde el aumento de las desigualdades hasta la extinción humana, y señalar los modelos fundacionales como un enfoque prioritario para los esfuerzos de gobernanza de la IA y el camino más efectivo hacia la regulación de la IA.


La gobernanza de la IA debe ser inclusiva para ser eficaz


Es esencial reconocer que las tecnologías punteras de IA, como los modelos fundacionales, son actualmente desarrolladas casi de forma exclusiva por un puñado de empresas privadas en países de altos ingresos, especialmente en los Estados Unidos. Actualmente, solo unos pocos laboratorios en el mundo tienen los recursos para desarrollar tales modelos de IA y, por lo tanto, su regulación será implementada principalmente por los Estados en los que operan esas empresas privadas. Como tal, el éxito de la gobernanza de la IA depende de cuánto cooperen y participen estos Estados en los procesos pertinentes.

Sin embargo, no podemos olvidar que el despliegue de la IA tendrá importantes consecuencias, tanto positivas como negativas, en todo el mundo. Por esta razón, todos los Estados deben prestar atención al debate sobre la gobernanza de la IA, y el sistema multilateral debe garantizar que todas las voces puedan ser escuchadas en el desarrollo de la regulación de la IA. Por dos razones, es especialmente importante que los países de bajos y medianos ingresos (PBMI) participen activamente en el desarrollo de la gobernanza de la IA.

En primer lugar, el informe de políticas reconoce que la brecha digital “todavía es un abismo”. La existencia de esta división aumenta el riesgo de que una parte importante de la población mundial se quede atrás, ya que los PBMI con niveles más bajos de conectividad podrían perderse muchos de los beneficios que ofrece la IA. Esto tiene el potencial tanto de amplificar las desigualdades existentes como de crear otras nuevas.

En segundo lugar, existe la cuestión de los valores sociales y culturales. Si los sistemas de IA se crean con sesgos y prejuicios que reflejan los valores y las experiencias de sus desarrolladores (predominantemente de países de altos ingresos), difundirán estos valores y experiencias, perpetuando las desigualdades existentes y fallando en abordar los desafíos únicos que enfrentan los PBMI.

En definitiva, la gobernanza de la IA a nivel multilateral debería respaldar el progreso simultáneo para reunir a los principales Estados desarrolladores de IA y fomentar la participación de los PBMI. Estos dos objetivos no deben verse como exclusivos, sino fundamentalmente interrelacionados.

El informe de políticas señala la necesidad de una conversación global y multidisciplinaria sobre la gobernanza de la IA, pero no menciona la importancia particular de involucrar a los PBMI.

El Pacto Digital Mundial debe reconocer que la IA tendrá consecuencias globales, pero que sus beneficios, daños y riesgos no se distribuyen de manera uniforme y, por lo tanto, se necesita una representación significativa de los PBMI en la configuración de la gobernanza de la IA para mitigar los posibles efectos adversos y promover resultados equitativos para todos.


Los próximos pasos para la gobernanza de la IA


Al convocar a expertos, formuladores de políticas y líderes de la industria, la ONU puede crear un entorno inclusivo y colaborativo para dar forma al futuro de la gobernanza de la IA. Esa visión ya está clara en el informe de políticas, que comprende de manera crucial que el papel de la ONU no debe radicar en dictar reglas estrictas, sino en promover un régimen multilateral que fomente el desarrollo y el despliegue responsable de la IA. Hemos argumentado que el plan de acción propuesto en el informe de políticas se fortalecería en gran medida al: reconocer tanto los daños actuales como los riesgos existenciales potenciales que plantea la IA, centrarse en la gobernanza de los modelos fundacionales como una prioridad y garantizar que el desarrollo de la gobernanza de la IA sea inclusivo, con la participación activa de los PBMI en particular.

Además, nos gustaría destacar varias propuestas importantes realizadas por el Secretario General en el Informe de políticas del Pacto Digital Mundial y sugerir cómo se pueden complementar o perfeccionar para lograr un mayor impacto y preservar al mismo tiempo la agilidad:


  1. El nombramiento de un Consejo Asesor de Alto Nivel sobre IA para garantizar el alineamiento del desarrollo de la IA con los derechos y valores humanos, y para brindar orientación práctica a los investigadores e innovadores en la creación de una IA responsable y confiable.

→ Damos la bienvenida al reciente anuncio de este Consejo Asesor de Alto Nivel para la Inteligencia Artificial. Recomendamos que se centre en la gobernanza de los modelos fundacionales, concentrándose en el análisis de los riesgos catastróficos que afectarían irreversiblemente el curso de la humanidad, y destacando las brechas donde se requiere la acción de múltiples partes interesadas.


2. El desarrollo de un marco para la gobernanza ágil de la IA que combine estándares y normas técnicas internacionales y nacionales.

→ Este marco debe desarrollarse con la contribución activa de diversas partes interesadas. Esto incluye a los Estados que pueden regular directamente los laboratorios privados que desarrollan modelos fundacionales, así como a los expertos académicos y la sociedad civil. El marco debe proporcionar medidas para monitorear grandes esfuerzos de entrenamiento, auditar los sistemas de IA y garantizar que los PBMI se beneficien plenamente de los desarrollos de IA.


3. Un Foro de Cooperación Digital para evaluar periódicamente la implementación del Pacto Digital Mundial y mantenerse al día con los desarrollos tecnológicos.

→ Este foro debe promover la gobernanza participativa del desarrollo de la IA e incluir el desarrollo de capacidades para que los PBMI desarrollen experiencia nacional sobre el tema, así como la formación de  talento para desarrollar aplicaciones de IA que ayuden a reducir las desigualdades. El aporte recopilado por este foro luego guiaría el desarrollo de modelos fundacionales y la implementación de aplicaciones, asegurando que se alineen con las aspiraciones y valores humanos y representen con precisión la valiosa diversidad del mundo.

Al seguir este camino, y junto con los otros objetivos y acciones que se incluirán en el Pacto Digital Mundial, se espera que el sistema multilateral pueda liderar el camino hacia un régimen multilateral para la IA.



Anterior
Anterior

Infografias Informe: seguridad alimentaria en Argentina en caso de un Escenario de Reducción Abrupta de la Luz Solar(ERALS)

Siguiente
Siguiente

¿Cuánto deberían pagar los gobiernos para prevenir las catástrofes?, el papel limitado del largoplacismo