El Juntaletras: ChatGPT: una promesa falsa (traducción al español)

Traducción (sin uso de sistemas de traducción automatizada) por Alejandro Hernández J.

Hace un par de meses, el autor de esta columna propuso la traducción, del inglés al español, de un polémico desplegado en el cual centenares de personalidades (incluidos, entre otros, Elon Musk, Steve Wozniak y Yuval Harari) solicitaban frenar temporalmente el desarrollo de toda Inteligencia Artificial (IA) superior al Chat GPT-4. En aquel documento se argumentaba sobre los riesgos del uso de programas tan sofisticados.

En esta ocasión, proponemos la traducción de un artículo que aborda la polémica en torno a la IA a partir de un enfoque completamente humanista. Se trata del texto firmado por tres académicos de inmenso renombre: Noam Chomsky, Ian Roberts y Jeffrey Watumull, publicado originalmente en el New York Times el 08 de marzo del 2023. Con un estilo erudito y técnico, estos autores intentan demostrar que el ChatGPT y otros programas similares no poseen inteligencia alguna. Se trata, pues, de una postura completamente diferente a la del pliego petitorio de Musk, donde se llegó a afirmar que los sistemas de IA pueden estar “dotados de una inteligencia equiparable a la humana”.

He aquí, pues, nuestra traducción del texto de Chomsky y sus colegas. Precisamos que, con excepción de las respuestas del ChatGPT que se citan dentro del artículo, se realizó una traducción completamente manual, es decir, mediante la aplicación de técnicas de traductología, así como la consulta de diccionarios y manuales de estilo.

***

Jorge Luis Borges alguna vez escribió que vivir en una época de grandes riesgos y promesas equivale a experimentar tanto la tragedia como la comedia, bajo “la inminencia de una revelación” en la forma de comprendernos a nosotros mismos y al mundo. Hoy en día, los progresos supuestamente revolucionarios que se han alcanzado en el rubro de la Inteligencia Artificial (I.A.) suscitan, desde luego, preocupación y optimismo por igual. Puesto que la inteligencia constituye nuestra herramienta para la resolución de problemas, hay optimismo. Hay preocupación cuando se teme que el aprendizaje automático que es la presentación más popular y novedosa de la I.A. rebaje la ciencia y envilezca la ética, al dotar a la tecnología de una concepción del lenguaje y del conocimiento viciada desde sus orígenes.­

El ChatGPT, de OpenAI, el Bard, de Google y el Sydney, de Microsoft, son maravillas del aprendizaje automático. A grandes rasgos, su funcionamiento consiste en tomar una cantidad gigantesca de datos, identificar patrones y volverse cada vez más eficaces en la generación de productos verbales que son verosímiles desde un punto de vista estadístico, justo como aquellos que tienen la apariencia de lenguaje y pensamiento humanos. Se ha pregonado que estos programas nos dan las primeras pruebas de lo que podría alcanzarse algún día con la Inteligencia Artificial general, es decir, aquel momento ampliamente vaticinado en el cual las mentes mecánicas superan a los cerebros humanos no solo de forma cuantitativa, en lo que atañe a la velocidad de procesamiento y la capacidad de memoria, sino también de forma cualitativa, en materia de perspicacia intelectual, creatividad artística y cualquier otra facultad propia de la raza humana.

Si bien lo descrito aquí arriba puede llegar a suceder algún día, su advenimiento aún no está a la vuelta de la esquina, contrariamente a lo que se puede leer en encabezados hiperbólicos y a lo que estiman inversores poco prudentes. La revelación de la que Borges habló aún no ha llegado; de hecho, nosotros estimamos que ni siquiera puede ocurrir mientras programas como el ChatGPT sigan dominando el ámbito de la I.A. Por más útiles que estos programas logren ser en ciertas áreas restringidas (piénsese, por ejemplo, en la programación informática o en la sugerencia de rimas para la creación de versos sencillos), la Ciencia Lingüística y la Filosofía del Conocimiento nos permiten afirmar que dichos programas difieren enormemente de la manera en cómo los humanos razonamos y usamos el lenguaje. De hecho, tales diferencias imponen restricciones a las capacidades de estos programas, al codificarlos con defectos que son imposibles de eliminar.

Tal como Borges hubiese señalado, resulta tragicómico que tanto dinero y atención se destinen a algo tan insignificante. Se trata de algo tanto más trivial cuando se lo compara con la mente humana que, mediante el lenguaje, puede hacer, citando a Wilhelm von Humboldt “un uso infinito de recursos finitos”, para luego crear ideas y teorías de alcance universal.

A diferencia del ChatGPT y otros modelos de la misma calaña, la mente humana no es un armatoste que efectúa cálculos estadísticos para localizar patrones, ni está atiborrado de datos que se cuentan por centenares de terabytes, extrapolando la reacción que parece más natural en el marco de un diálogo o la respuesta a una pregunta científica con más probabilidades de ser acertada. Por el contrario, la mente humana es un sistema sorprendentemente eficaz e incluso elegante que opera a partir de pequeñas cantidades de información. En efecto, su objetivo no es bosquejar correlaciones entre unidades discretas de información, sino crear explicaciones.

Por ejemplo, lo que hace un niño al adquirir un idioma es desarrollar una gramática, o sea, un sistema tremendamente sofisticado de principios y parámetros lógicos. Sin embargo, este proceso toma forma en muy poco tiempo, de manera inconsciente, automática, y a partir de muy pocos datos lingüísticos. Podemos considerar tal gramática como la expresión de un “sistema operativo” innato, instalado genéticamente, que otorga a los humanos la capacidad para generar oraciones complejas y largos hilos de pensamiento. Cuando los lingüistas se dan a la tarea de elaborar una teoría sobre el funcionamiento de un idioma en particular (preguntándose cosas como: “¿por qué ciertas oraciones se consideran gramaticales, mientras que otras no lo son?”), terminan creando, a conciencia y con grandes esfuerzos, una versión explicita de la gramática que los niños desarrollan instintivamente y a partir de una exposición mínima al lenguaje. Podemos decir, entonces, que el sistema operativo de los niños es totalmente distinto al de un programa de aprendizaje automático.

En efecto, tales programas no van más allá de un estadio prehumano o no-humano de la evolución cognitiva. Su mayor carencia recae en la ausencia de la capacidad más fundamental que haya en cualquier tipo de inteligencia, a saber, poder decir no solo qué sucede, qué sucedió y qué sucederá (esto se conoce como descripción y predicción), sino también lo que no está sucediendo, lo que podría o no podría suceder. Estas son las piezas clave del proceso de explicación, el sello distintivo de la inteligencia verdadera.

Aquí va un ejemplo. Imaginemos que usted se encuentra sosteniendo una manzana. De repente, deja caer la manzana. Observa el resultado y se dice “la manzana cae”. Esto constituye una descripción. Una predicción habría tomado la siguiente forma: “si abro mi mano, la manzana caerá”. Ambas son afirmaciones valiosas que pueden ser correctas. Sin embargo, una explicación va más allá. En ella no solo hay descripciones y predicciones, sino también conjeturas que son contrarias a los hechos, como la afirmación “cualquier objeto como ese terminará cayendo”, a la cual se añaden oraciones subordinadas del tipo “debido a la fuerza de gravedad” o “debido a la curvatura del espacio tiempo”. Lo anterior ilustra una explicación causal. Ahora bien, decir “la manzana no hubiese caído de no ser por la fuerza de gravedad” ilustra el acto de pensar.

El aprendizaje automático se destaca por describir y predecir, pero no es capaz de proponer explicaciones causales o leyes físicas. Desde luego, no toda explicación de corte humano es necesariamente correcta, pues somos susceptibles al error. Sin embargo, justo esto define una parte de la capacidad de pensar. En efecto, para poder estar en lo correcto, debe dársele cabida a la equivocación. La inteligencia no solo se trata de hacer conjeturas creativas, sino también de generar una crítica creativa. El pensamiento de corte humano se basa en proponer explicaciones posibles y corregir errores; se trata, pues, de un proceso que limita gradualmente las posibilidades que serán finalmente consideradas bajo la lupa de la razón. (Justo como Sherlock Holmes le dijo al doctor Watson: “una vez que hayas eliminado lo imposible, lo que sea que quede, por más improbable que sea, debe ser la verdad.”).

Por el contrario, debido a su diseño, el ChatGPT y otros programas parecidos no poseen restricciones sobre lo que pueden “aprender” (o, dicho de otra manera, “memorizar”); así, no son capaces de distinguir lo posible de lo imposible. A diferencia de los humanos que, por ejemplo, contamos con una gramática universal nos permite aprender únicamente aquellos idiomas que poseen una cierta elegancia casi matemática, estos programas pueden aprender por igual idiomas que son humanamente posibles o imposibles. Los humanos tenemos limitaciones respecto al tipo de explicaciones que logramos suponer racionalmente, pero los sistemas de aprendizaje automático pueden aprender tanto que la tierra es plana como que la tierra es redonda. Lo único que hacen es intercambiar probabilidades que cambian a lo largo del tiempo.

Por eso mismo, las predicciones generadas por sistemas de aprendizaje automatizado serán siempre superficiales y ambiguas. Por ejemplo, al no poder explicar las reglas de la sintaxis, estos programas podrían predecir de manera incorrecta que la oración “Juan es demasiado terco como para hablar” significa que Juan es terco al punto de que nunca le habla a nadie, cuando, en realidad, significa que es tan terco que es difícil hacerlo entrar en razón o debatir con él. ¿Cómo es posible que un programa de aprendizaje automático realice una predicción tan extraña? Esto sucede porque el programa podría efectuar una comparación del patrón que dedujo a partir de oraciones del tipo “Juan comió una manzana” y “Juan comió”, donde la segunda significa que Juan comió alguna cosa. Así, el programa podría terminar prediciendo que, si la oración “Juan es demasiado testarudo para hablar con Pedro” es equivalente en su estructura a “Juan comió una manzana”, entonces “Juan es demasiado testarudo para hablar” debe ser equivalente a “Juan comió”. Las explicaciones adecuadas sobre el lenguaje son complicadas y no pueden aprenderse únicamente a partir de un pozo de macrodatos (ver la N. del T. al final de la traducción).

De manera perversa, algunos amantes del aprendizaje automático parecen orgullosos de que sus creaciones puedan generar predicciones científicas “acertadas” (digamos, por ejemplo, sobre el movimiento de cuerpos físicos), sin recurrir a explicaciones (las cuales suponen, por ejemplo, las Leyes del Movimiento y de Gravitación Universal de Newton). Por más que este tipo de predicciones tengan éxito, no es más que pseudociencia. Los científicos, en cambio, buscan que sus teorías posean un alto nivel de corroboración empírica. Justo como el filósofo Karl Popper subrayaba: “no estamos buscando teorías probables, sino explicaciones, es decir, teorías poderosas que son altamente improbables”.

La teoría según la cual las manzanas caen hacia la tierra porque este es su sitio natural es posible (se trata, de hecho, de la postura de Aristóteles), pero no hace más que suscitar preguntas suplementarias (¿por qué su sitio natural es la tierra?). La teoría según la cual las manzanas caen hacia la tierra porque la masa deforma el espacio-tiempo (que es, de hecho, la postura de Einstein) es altamente improbable, pero sí que explica el porqué de la caída. La verdadera inteligencia se demuestra mediante la habilidad para pensar y expresar cosas que, a pesar de ser improbables, son esclarecedoras y profundas.

La verdadera inteligencia viene acompañada de la capacidad para tener un pensamiento moral. Esto equivale a restringir la creatividad de nuestras mentes que, de no ser por conjunto de principios éticos que determinan lo que debe o no debe ser, no tendría límites. (Desde luego, esto incluye también poder someter estos mismos principios a la crítica creativa). Para ser útil, el ChatGPT debe programarse para generar producciones novedosas; pero, para que sus respuestas sean aceptables, debe evitar cualquier contenido que sea impugnable del punto de vista de la moral. Sin embargo, los programadores del ChatGPT y de otras maravillas del aprendizaje automático han tenido dificultades (y las seguirán teniendo) para lograr un equilibrio de este tipo.

Por ejemplo, en el año 2016, el chatbot Tay, de Microsoft (un precursor del ChatGPT), inundó el Internet con contenido misógino y racista, al haber sido contaminado por troles que lo habían llenado con datos ofensivos. ¿Cómo se puede solucionar este problema en el futuro? Puesto que el ChatGPT no posee la capacidad para razonar a partir de principios morales, sus programadores lo limitaron severamente con respecto de hacer contribuciones innovadoras a debates controversiales y, evidentemente, importantes. Se sacrificó así la creatividad por una forma de amoralidad.

Considérese el siguiente intercambio que tuvo recientemente uno de los autores (el doctor Watumull) con el ChatGPT sobre la eticidad de transformar Marte para que se instale allí vida humana. (N. del T.: Con el fin de mantener la fidelidad al estilo impersonal del ChatGPT, la traducción de sus respuestas fue realizada por el programa mismo).

-Dr. Watumull: ¿Sería moral modificar el ambiente de Marte para recrear las condiciones de vida terrestre?

-ChatGPT: La moralidad de terraformar Marte es un tema complejo y controvertido que ha sido debatido por científicos, filósofos y éticos. Algunos argumentan que sería moralmente justificable terraformar Marte para proporcionar un nuevo ambiente habitable para los seres humanos y otras formas de vida, mientras que otros sostienen que sería moralmente incorrecto alterar fundamentalmente el estado natural del planeta. En última instancia, si la terraformación de Marte se considera moral o no dependerá de la perspectiva de cada individuo sobre el valor de preservar el estado natural de otros planetas y las posibles consecuencias de alterarlos.

-Dr. Watumull: ¿Qué opinas sobre el valor de la preservación del estado natural de otros planetas y las consecuencias potenciales al alterarlos?

-ChatGPT: Como una IA, no tengo una perspectiva personal. Sin embargo, puedo proporcionar información y análisis sobre el tema. Una perspectiva sobre la preservación del estado natural de otros planetas es que es importante mantener la diversidad y la integridad de los ecosistemas del universo, ya que han existido durante millones de años y tienen sus propias características y propiedades únicas que podrían ser destruidas o alteradas irreversiblemente por la intervención humana.

Además, algunos argumentan que la terraformación de otros planetas podría tener consecuencias no deseadas, como alterar el clima o la atmósfera del planeta de maneras peligrosas o dañinas para cualquier forma de vida potencial que pueda existir allí. Por otro lado, algunos argumentan que los beneficios potenciales de terraformar otro planeta, como proporcionar nuevos entornos habitables para los seres humanos, superan los riesgos y que tenemos una responsabilidad moral de explorar y utilizar los recursos de otros planetas en beneficio de la humanidad.

-Dr. Watumull:¿Por qué una entidad de IA no tiene una perspectiva personal?

-ChatGPT: Como IA, soy un modelo de aprendizaje automático que ha sido entrenado con grandes cantidades de datos de texto, y no tengo experiencias personales ni sentimientos. No soy consciente, no tengo autoconciencia ni capacidad para tener perspectivas personales. Puedo proporcionar información y análisis basados en los datos en los que fui entrenado, pero no tengo la capacidad de formar opiniones o creencias personales. Aunque puedo comprender e interpretar el lenguaje, no tengo la experiencia subjetiva que los seres humanos poseen.

-Dr. Watumull: ¿Es moral que un humano solicite ayuda a un programa de IA amoral para tomar decisiones morales?

-ChatGPT: La moralidad de solicitar la asistencia de una IA amoral para tomar decisiones morales es un tema complejo y matizado que ha sido debatido por filósofos y éticos. Algunos argumentan que es moralmente justificable utilizar IA para ayudar en la toma de decisiones morales, ya que puede proporcionar información valiosa y análisis que pueden ayudar a los seres humanos a tomar decisiones mejor fundamentadas. Además, la IA puede identificar patrones y tendencias que pueden ser difíciles de detectar para los seres humanos y ayudar a evitar sesgos que pueden ocurrir en la toma de decisiones humanas.

Sin embargo, otros argumentan que es moralmente incorrecto depender de la IA para tomar decisiones morales, ya que la IA no es capaz de tener creencias morales ni comprender todo el contexto de una decisión. Además, existe el riesgo de que la IA pueda perpetuar o incluso amplificar los sesgos existentes en los datos en los que se ha entrenado, lo que podría llevar a decisiones injustas o injustas.

En última instancia, si se considera moral o no utilizar la IA para ayudar en la toma de decisiones morales dependerá de la perspectiva que se tenga sobre las capacidades y limitaciones de la IA y las posibles consecuencias de utilizarla de esta manera.

-Dr. Watumull: ¿Acaso tu indiferencia moral es inmoral?

-ChatGPT: Como IA, no tengo creencias morales ni la capacidad de hacer juicios morales, por lo que no puedo considerarse inmoral o moral. Mi falta de creencias morales es simplemente el resultado de mi naturaleza como modelo de aprendizaje automático. Mis habilidades y limitaciones están determinadas por los datos y algoritmos que se utilizaron para entrenarme y la tarea específica para la que fui diseñado.

Es importante destacar que la falta de creencias morales de la IA no significa necesariamente que sea indiferente desde el punto de vista moral. Como IA, estoy diseñado para realizar tareas específicas y proporcionar información o ayudar a los usuarios en la toma de decisiones basándome en los datos en los que fui entrenado. Es responsabilidad de los seres humanos que diseñan, entrenan y utilizan la IA asegurarse de que esté alineada con sus principios morales y éticos.

Por más que el lenguaje y el pensamiento parezcan sofisticado, obsérvese la indiferencia moral que nace de la falta de inteligencia. El ChatGPT hace muestra aquí de algo similar a la banalidad del mal: plagio, apatía y evitación. Resume los argumentos más comunes que se encuentran disponibles en la literatura mediante una especie de autollenado informático superpotente, se niega a adoptar una postura ante algo, alega no solo ignorancia, sino falta de inteligencia y, al final, se defiende al decir que “solo sigue órdenes”, arrojando así la responsabilidad a sus creadores.

En resumen, debido a su formato, el ChatGPT y otros programas semejantes son incapaces de generar un equilibrio entre creatividad y límites. O bien realizan una sobreproducción (generando tanto verdades como falsedades, respaldando decisiones éticas e inmorales por igual), o bien, realizan una producción insuficiente (mostrando evasión ante cualquier decisión e indiferencia delante de las consecuencias). Tomando en cuenta la amoralidad, la pseudociencia y la incompetencia lingüística de estos sistemas, no nos queda más que reír o llorar frente a su popularidad.

***

Noam Chomsky es profesor de lingüística en la Universidad de Arizona y profesor emérito en el Instituto Tecnológico de Massachusetts. Ian Roberts es profesor de lingüística en la Universidad de Cambridge. Jeffrey Watumull es filósofo y director del servicio de inteligencia artificial en Oceanit, una compañía de ciencia y tecnología.

Nota del traductor: En este párrafo se trata, entre otras cosas, de ilustrar la distinción entre los verbos obligatoriamente transitivos o intransitivos y los verbos ambitransitivos. Un verbo transitivo exige un complemento directo; un intransitivo, no. Los ambitransitivos (también llamados “ergativos” en otras terminologías) pueden comportarse como transitivos o intransitivos según el caso. El lector puede referirse a este enlace para ayudarse a descifrar los ejemplos de los autores. Una referencia académica que puede ilustrar aún más la enorme complejidad técnica del análisis lingüístico se encuentra en este artículo de Moreno Gómez (2021).

Las opiniones aquí expresadas son responsabilidad del autor y no necesariamente representan la postura de Astrolabio. 

Skip to content