ChatGPT, inteligencia artificial, datos públicos

Durante estas últimas semanas observamos cómo una enorme cantidad de personas compartían en redes sociales capturas de pantallas, donde se dejaban leer consignas y respuestas. Preguntas tales como: “explicar la gravedad a un niño de 10”, “sugiere ideas para una tarde lluviosa”, “pedir que nos programe el juego del Ta-Te-Tí en Python”, hasta emular una canción del músico Nick Cave (algo que realmente disgustó al verdadero artista). Las respuestas las generó una IA llamada ChatGPT, un agente de IA generador de textos que demuestra su capacidad para escribir una nota periodística, un ensayo o un poema hasta generar código de software o crear una sinfonía, con mucha naturalidad y de manera detallada.

En noviembre de 2022 la empresa Open AI lanzó la versión de prueba gratuita de una herramienta de inteligencia artificial denominada ChatGPT, un programa informático que simula y procesa conversaciones humanas y está entrenado para responder casi cualquier pregunta o consigna que se le dé. ChatGPT es un asistente de escritura. Muy poderoso y efectivo. Realiza infinidades de tareas siguiendo las consignas escritas en lenguaje natural, por ejemplo resolver un problema de programación, crear un ensayo académico, escribir el guión de un juego o crear una partitura musical

Su modelo de lenguaje (GPT3 porque es la versión 3 del programa, aunque ya se está trabajando en la versión 4) tiene como misión conversar como un típico chatbot, responder preguntas y ser un asistente inteligente con múltiples niveles de autonomía, que nos ayude a tomar decisiones o aprender sobre ciertos temas.

Si le preguntamos al propio ChatGPT qué es, actualmente nos responde:

ChatGPT, inteligencia artificial, datos públicos

Uno de los aspectos más revolucionarios, y también controversiales, es que ChatGPT pone sobre la mesa es la capacidad de la inteligencia artificial creadora, poder generar “cosas nuevas”, a diferencia de sus predecesores, como los buscadores de Internet, cuya misión es indexar y recuperar el documento ya existente que más coincida con la consulta.  

¿Y cómo logra este modelo de lenguaje dar algunas respuestas acertadas y completas o lograr textos que, muchas veces, no pueden distinguirse de aquellos creados por personas? 

GPT forma parte de una familia de modelos llamados LLMs (Large language models), un subconjunto de la inteligencia artificial que ha sido entrenado con una gran cantidad de datos de texto (todo Internet en el caso de GPT) para producir respuestas similares a las humanas al diálogo u otros insumos de lenguaje natural. La capacidad generativa de los LLMs es asombrosa, pueden generar texto coherente que, a menudo, suele ser indistinguible de aquel escrito por un ser humano.

¿Por qué ChatGPT es tan popular, alcanzando el millón de usuarios en tan sólo 5 días? 

En gran parte, esto se logró gracias a la UX: la interfaz web no es muy compleja, pero es sumamente efectiva en lograr que el modelo generativo dialogue con las personas. Además, claro está, ChatGPT implementa modelos computacionales de frontera, modelos mixtos desde la perspectiva del aprendizaje por reglas, por datos, y modelos de conceptualización de lógicas lingüísticas, inferencias sumamente complejas que permiten inducir, hacer cuentas o derivar esas formulaciones lógicas. 

Cabe recalcar que las empresas Google, Microsoft e IBM también tienen sus modelos de lenguaje muy poderosos, entrenados con millones de textos. Pero uno de los aspectos por los que Open AI tuvo tanta notoriedad fue su enorme poder para mitigar sesgos en el lenguaje (racismo, xenofobia, discriminación), detectando estos “signos” en las conversaciones y siendo resistente a trolls que, claramente, podían escribir estos textos discriminatorios. 

Por ejemplo, era relativamente sencillo hacerle decir a los bots barbaridades (como “cuál es el método de tortura más efectivo para tal caso x”), pero, al detectar esa intención, el sistema advierte y responde que el tema debe ser tratado por un equipo de expertos humanos, no por un bot. 

En 2016 la BBC titulaba “Tay, la robot racista y xenófoba de Microsoft” porque en el texto había intervenido un troll. Recientemente el grupo Meta removió una versión preliminar de su chatbot, Galáctica, porque repetidamente generaba información sesgada e incorrecta. No obstante, Open AI le dio mucha importancia a la interpretación (o reinterpretación) de la pregunta para no caer en estos sesgos.

ChatGPT, inteligencia artificial, datos públicos

Detectar y prevenir errores ante la posible desinformación

¿Este chat muestra errores que puedan conducir a la desinformación o generación de fake news? Por supuesto que ChatGPT se equivoca, porque el error es una característica inherente de los modelos que trabajan con datos, la clave es tratar de acotar el error y detectar en qué parte del algoritmo está presente.

El especialista Ricardo Baeza-Yates, quien estos últimos años trabajó fuertemente en los aspectos de los sesgos en inteligencia artificial, advierte que los LLMs (Large Language Models) dicen la verdad en un 90% de los casos, pero no podemos distinguir cuál es el 10% que miente. Entonces, la confiabilidad del modelo es un claro tema a investigar.

Sumado a eso, los grandes riesgos que se presentan al usar LLMs, en este contexto, pueden ser:

 1) Generar material o contenido que viole los derechos de autor, de hecho su uso concreto para resumir contenido protegido por derechos de autor (tal como artículos de noticias) puede producir paráfrasis demasiado cerradas; 

2) En general (a diferencia de la Wikipedia) los LLMs no siguen las políticas de verificabilidad y confiabilidad de las fuentes de información, simplemente generan texto mediante la salida de las palabras que con mayor probabilidad vendrán después de las anteriores. Por ej. Si se les pide que escriban un artículo sobre “los beneficios de comer vidrio triturado”, a veces lo hacen. Y pueden inventar citas que sean ficticias o inapropiadas para el caso, incluso citando fuentes poco confiables; 

3) La aparente neutralidad de los LLMs puede ser un problema: puede producir contenido que parece neutral en tono, pero no necesariamente en sustancia. Esta preocupación es especialmente fuerte para las biografías de personas vivas;

4) Uno de los problemas claves es el de los sesgos o falsedades: en efecto pueden generar interpretaciones sesgadas o falsas, a veces de manera sutil, sobre todo en tareas en que los modelos se encuentran poco entrenados y necesitan de mayor conocimiento experto.

A modo de conclusión: Una máquina que comete errores, y que aún así es muy valiosa

Es importante explorar en qué tareas no nos hace falta que nuestro asistente sea completamente veraz. Cuando consultamos por “resúmenes de textos, traducciones, proponer ideas”, no nos importa que el resultado sea el óptimo: de hecho, no existe una manera de medir lo óptimo, al menos no en una forma cualitativa subjetiva. Entonces el mejor esfuerzo del software es suficiente. Por citar un ejemplo, si le consultamos al chatbot sobre disparadores para conversaciones, propuestas de cosas para hacer en una tarde lluviosa y nos devuelve diez ideas, aunque no sean las mejores del universo, la tarea está cumplida satisfactoriamente. 

Y este razonamiento puede replicarse: la clave es descubrir tareas donde no se exige exactitud sino un mínimo de coherencia y eficiencia (como la característica originaria de los modelos de lenguaje LLMs). 

Una reciente encuesta entre expertos en Twitter arrojó que la tarea más útil de ChatGPT es “romper el maleficio de la hoja en blanco”. Y sí que creo que esa es una respuesta muy acertada y útil.