El Juntaletras: Interrumpir temporalmente los experimentos colosales con la Inteligencia Artificial: una carta abierta (traducción al español)

Traducción (sin uso de sistemas de traducción automatizada) por Alejandro Hernández J.

La semana pasada, un gran número de personalidades firmaron una carta que pide frenar temporalmente el entrenamiento de toda inteligencia artificial superior al Chat GPT-4. El revuelo causado por esta carta depende no solo del tema extremadamente delicado que aborda, sino de los nombres de algunos de los firmantes. En efecto, la lista incluye, por ejemplo, a Elon Musk (director ejecutivo de SpaceX, Tesla y Twitter), Steve Wozniak (cofundador de Apple), Yuval Noah Harari (historiador y autor) y Jon Kabat-Zinn (investigador de la plena consciencia).

La publicación de esta carta toma lugar en un mundo convulso. Resulta además bastante controversial que los mismos líderes tecnológicos que han impuesto la agenda global en prácticamente todos los aspectos de nuestras vidas critiquen la imposición tecnológica. Para ejemplificar esto, piénsese en la perjudicial proliferación desmedida de los automotores en las ciudades. Los intereses económicos y tecnológicos han desplazado a la caminata, las sillas de ruedas y las bicicletas en favor de los automotores, sin que critiquemos realmente las nefastas consecuencias del proceso. (Parafraseando alguna de las interrogantes de esta carta, podemos preguntarnos: ¿debemos dejar que los automotores monopolicen todos nuestros desplazamientos en la ciudad, hasta el grado de que no podamos cruzar un tramo de 100 metros a pie o en silla de ruedas?).

¡No nos desviemos más del tema! Con el objetivo de que nuestro lectorado pueda acercarse al debate sobre los avances vertiginosos de la Inteligencia Artificial, proponemos aquí una traducción al español de la polémica carta.

Los sistemas de Inteligencia Artificial (IA) dotados de una inteligencia equiparable a la humana pueden suponer graves riesgos para la sociedad y la humanidad, así lo muestran amplias investigaciones y lo sugieren los más prestigiosos laboratorios de IA. Tal cual como se cita en los reconocidos Principios de Asilomar en IA, una IA avanzada podría representar un profundo cambio en la historia de la vida en la tierra. Por tal razón, se requiere una planeación y una gestión proporcionales a tal afirmación en materia de atención y recursos. Lamentablemente, este nivel de planificación y de gestión no se encuentra presente, incluso cuando, en los meses recientes, los laboratorios de IA se han visto inmersos en una carrera descontrolada por desarrollar e implementar mentes digitales cada vez más potentes que nadie, ni siquiera sus propios creadores, pueden entender, predecir o controlar de forma fiable.

El desempeño de los sistemas de IA actuales se está acercando al nivel humano cuando se trata de tareas generales. Por eso, debemos preguntarnos: ¿conviene dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Debemos dejar que la automatización se lleve todos los trabajos, inclusive aquellos que son gratificantes? ¿Es pertinente desarrollar mentes no-humanas que terminen sobrepasándonos en número y en inteligencia, que nos vuelvan obsoletos y que nos remplacen? ¿Debemos arriesgar el control que tenemos sobre nuestra civilización? No debemos delegar este tipo de decisiones a líderes tecnológicos que no han sido electos. El desarrollo de sistemas de IA potentes debería ocurrir únicamente cuando tengamos plena confianza de que sus efectos serán positivos y de que sus riesgos pueden ser controlables. Dicha confianza debe justificarse correctamente y aumentar al ritmo de los efectos potenciales de un sistema. En un comunicado reciente, la empresa OpenAI afirma lo siguiente respecto de la inteligencia general artificial: “en algún momento habrá que solicitar evaluaciones independientes antes de comenzar a entrenar nuevos sistemas y, para los proyectos más sofisticados, acordar una limitación en el uso de cómputo para la creación de nuevos modelos”. Nosotros estamos de acuerdo con lo aquí dicho. Pero ese momento es ahora mismo.

Por lo tanto, solicitamos de todos los laboratorios de IA interrumpir inmediatamente, por lo menos durante seis meses, el entrenamiento de todo sistema de IA que sea más potentes que el GPT-4. Esta interrupción debe ser pública y comprobable, considerando además a los agentes principales. Si esta interrupción no puede ser aprueba rápidamente, los gobiernos deberían involucrarse y establecer una suspensión.

Tanto los laboratorios de IA como los expertos independientes deben aprovechar esta interrupción para desarrollar e implementar, de manera conjunta, una serie de protocolos de seguridad compartidos para el desarrollo y el diseño de IA avanzada. Dichos protocolos, además de ser rigorosamente auditados y supervisados por expertos externos independientes, deben asegurar que los sistemas bajo su escrutinio sean lo suficientemente seguros, fuera de toda duda razonable. Esto no representa una interrupción del desarrollo de la IA de manera generalizada; estamos simplemente retrocediendo de la peligrosa carrera hacia modelos del tipo “caja negra” cada vez más impredecibles y con capacidades emergentes.

La investigación y el desarrollo de la IA debería volver a enfocarse en lograr que los actuales y potentes sistemas de vanguardia sean más seguros, interpretables, transparentes, robustos, confiables y leales.

De manera paralela, los desarrolladores de IA deben colaborar con legisladores para acelerar drásticamente el desarrollo de sistemas de gestión pública para la IA. Estos deben incluir, como mínimo: nuevas autoridades reguladoras capacitadas que se dediquen a la IA; supervisión y rastreo de sistemas de IA altamente hábiles, así como amplios grupos de capacidad de procesamiento; sistemas de identificación y de marca de agua que ayuden tanto a distinguir productos reales de productos sintéticos como a rastrear fugas del modelo; un ecosistema riguroso de certificación y de auditorías; sujeción a responsabilidad en caso de perjuicio causado por IA; una sólida financiación pública de la investigación técnica sobre la seguridad de la IA ; finalmente, instituciones que cuenten con recursos suficientes para hacer frente a las dramáticas disrupciones políticas y económicas que la IA terminará causando (particularmente a la democracia).

La humanidad puede disfrutar de un futuro floreciente con la IA. Después de haber trabajado arduamente en la creación de potentes sistemas de IA, nos merecemos un “verano de la IA”, durante el cual cosechemos las recompensas, diseñemos estos sistemas para el beneficio claro de todos y le demos a la humanidad la oportunidad de adaptarse. La sociedad ha oprimido el botón de pausa con respecto de otras tecnologías que pudiesen tener efectos catastróficos en la sociedad. Podemos hacer lo mismo ahora. Disfrutemos de un apacible verano de la IA: ¿qué necesidad de apresurarnos desprevenidos hacia el otoño y terminar tropezándonos?

Las opiniones aquí expresadas son responsabilidad del autor y no necesariamente representan la postura de Astrolabio. 

Skip to content