Inteligencia Artificial: ¿Pausa o regulación? ChatGPT

Recientemente un grupo de especialistas y empresarios tecnológicos a nivel global pidieron una pausa de seis meses en el entrenamiento de los sistemas de Inteligencia Artificial más poderosos, incluyendo ChatGPT. Lo hicieron a través de una carta abierta firmada por Elon Musk y otros referentes, por considerar que la IA “está fuera de control”. ¿Cuáles son los intereses y controversias detrás del pedido? ¿Qué discute la declaración de Montevideo en relación a esta campaña y al problema que advierte la comunidad latinoamericana en torno a la regulación de la IA?

La IA y ChatGPT ya se volvieron temas ineludibles para cualquier agenda pública. Una evidencia de ello es que, a fines de marzo de 2023, algunos de los empresarios y referentes mundiales más importantes de la tecnología solicitaron que los laboratorios de inteligencia artificial generativa (IAG) detengan el entrenamiento de los sistemas más poderosos durante, al menos, seis meses. Argumentaron “riesgos profundos para la sociedad y la humanidad”.

IAG es una rama de la inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes. Esta tecnología utiliza algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego generar contenido nuevo y único.

Esta carta abierta fue publicada por Future of Life Institute (una organización sin fines de lucro respaldada por Elon Musk), tan solo dos semanas después de que OpenAI anunciara GPT-4, una versión aún más poderosa de la tecnología que sustenta la herramienta de chatbot de IA, ChatGPT. El petitorio sacudió las noticias internacionales y puso de relieve el impacto social de los avances de la IA.

Carta abierta publicada por Future of Life Institute. Inteligencia Artificial: ¿Pausa o regulación?

La campaña adquirió notoriedad después de que se viralizaran imágenes del Papa Francisco producidas por una IAG, con un alto nivel de realismo y cuyo resultado podría dar lugar a confusión. No solo se trata de la posibilidad de que los humanos hagan uso de estas tecnologías con fines específicos, sino de la propia capacidad de las IAG para producir y reproducir contenidos que luego se difundan en la red.

El pedido señala que la IA avanzada “podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes”, y que al mismo tiempo, “desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se han visto envueltos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”.

Está claro que estos avances son inevitables y nadie los está pudiendo frenar de manera efectiva. No obstante, ¿cuáles serían los verdaderos intereses detrás del pedido de pausa en las investigaciones y qué postura ha tomado la comunidad especializada en inteligencia artificial agrupada en la Declaración de Montevideo?

Algunos interpretaron el pedido liderado por Musk como una “moratoria” para equilibrar la competencia desenfrenada de las empresas en el desarrollo de la IA, incluso de aquellas compañías más desfavorecidas y también como cierta dosis de soberbia que implica emplazar la democracia y derechos de las decisiones en IA en solo seis meses.

Inteligencia Artificial: ¿Pausa o regulación?

Por este motivo, gran parte de las preocupaciones de la comunidad regional especializada en el estudio y desarrollo de estos modelos de inteligencia artificial giran en torno a los aspectos técnicos, pero no el impacto social de estas tecnologías. Previo al desarrollo de esta carta, más de cien especialistas se habían reunido en Montevideo, donde realizaron un llamamiento para “una inteligencia artificial latinoamericana al servicio de las personas”. La Declaración de Montevideo se formalizó en ocasión de Khipu (Encuentro Latinoamericano de Inteligencia Artificial).

El objetivo, en esta línea, es llamar la atención de gobiernos y tomadores de decisiones, al tiempo que identificar sus riesgos e impactos, con el fin de prevenir la desigualdad que las nuevas tecnologías puedan llegar a profundizar. Más aún si se tiene en cuenta que, gracias a sus capacidades para la automatización de tareas y el aprendizaje automático, podrían reemplazar aún más profesiones de las que se tiene noción.

Tal es así que la comunidad reunida en Montevideo solicita una regulación urgente de la IA, con estándares que permitan calificar estas tecnologías según sus riesgos de manera clara y transparente, para avanzar en políticas públicas que protejan el bien común (y la soberanía de los países latinoamericanos con respecto a cuestiones estratégicas y regulatorias de IA), sin obturar los beneficios del desarrollo tecnológico; y llega a la conclusión de que no hay valor social en tecnologías que simplifican tareas a unas pocas personas generando alto riesgo para muchas otras, limitando sus oportunidades de desarrollo, su acceso a recursos y sus derechos.

Si bien los especialistas reunidos en Montevideo señalan que es bienvenida la admisión por parte de la industria de los riesgos que ellos mismos vienen señalando hace tiempo, afirman que faltaría discutir ciertos puntos claros como la concentración de los desarrollos en pocas empresas con capacidad para producirlos, el incremento de la desigualdad en los empleos y los derechos de las personas.

La Declaración de Montevideo se formalizó en ocasión de Khipu (Encuentro Latinoamericano de Inteligencia Artificial). Inteligencia Artificial: ¿Pausa o regulación?

En este aspecto, le agradecen a Elon, pero concluyen que la moratoria debe ser sobre la puesta en producción de todas las tecnologías de IA basadas en grandes datos, “incluyendo instancias con las que algunos sectores de la industria vienen experimentando públicamente sin ningún control (como ChatGPT, GTP-4 y sus aplicaciones). Y no sólo por seis meses sino por todo el tiempo que sea necesario para que nuestras sociedades acuerden y pongan en práctica democráticamente las normas que protejan a las personas frente a estas tecnologías para asegurar su bienestar, garantizar sus derechos y que no redunden en mayor desigualdad”.

El lugar de donde viene esa carta no es inocente y tampoco es inocente que haya una carrera en las grandes corporaciones por ver quién llega antes con algunos de estos desarrollos”, dice Laura Alonso Alemany, una de las científicas que participó de la Declaración de Montevideo. Y señala que el mensaje difundido es problemático por los supuestos que implica: “Pone el foco en unos posibles daños pero como subtexto da por sentadas toda una serie de cosas que en realidad son muy cuestionables como que ‘estas inteligencias son competitivas con los seres humanos’.

Por su parte, Fernando Schapachnik, otro de los científicos referentes en la visión latinoamericana, señala que “La evaluación de los riesgos de una tecnología debería hacerse desde el momento de la concepción y no una vez que ya fue liberada. La pregunta cuando se desarrolla una tecnología debería ser si los beneficios que va a aportar justifican los riesgos” y que es hora de discutir la falsa dicotomía entre innovación y regulación. “Tenemos que pensar seriamente en la regulación de estas tecnologías. La industria farmacéutica está fuertemente regulada ya que no puede sacar un producto antes de que sea aprobado en cada país con estándares muy rigurosos y nadie podría caracterizar a esa industria como poco innovadora. Es falso que mayor regulación sea un obstáculo para la innovación”.

Resulta evidente que todas estas discusiones insinúan la incomodidad dentro y fuera de la industria con el vertiginoso ritmo de avance de la IA. ¿Qué postura han tomado gobiernos y naciones? Algunas agencias gubernamentales en China, la Unión Europea y Singapur han introducido versiones anteriores de marcos de gobernanza de la IA. Italia, por ejemplo, acaba de bloquear el uso de ChatGPT aduciendo una filtración y vulneración de datos personales, y a la espera de una regulación jurídica que establezca el marco legal de estas tecnologías. Mientras que en España, un grupo de especialistas ha renunciado al Consejo de Asesores de IA ante la firma de un convenio de desarrollo de IA entre el Estado Español y Emiratos Árabes, por considerarlo “poco ético”.

Preguntas abiertas

Una de las principales preguntas que ponen en juego los modelos de inteligencia artificial generativa (IAG), es cuánto de estos procesos y tareas pueden ser automatizables y si la IAG puede reemplazar a los humanos a corto plazo. También surgen interrogantes en actual discusión tales como la posibilidad que tienen estas tecnologías de generar contenido sesgado (y su impacto en campos como la política, la justicia, medioambiente, inmigración, economía, etc.), los desafíos éticos (creatividad y propiedad intelectual) y la privacidad

A su vez, el riesgo de una IA generativa que se vuelva incontrolable y comience a generar “contenido dañino o peligroso” es una de las principales tensiones en juego. ¿Quiénes serán los responsables de regular y cómo se hará esta regulación con políticas públicas? Esa es sin dudas una de las grandes preguntas en danza.

Al mismo tiempo, el impacto en el empleo debería ser relativizado si se tiene en cuenta la posibilidad de la IA para agregar valor a procesos que siguen posicionando a las personas y equipos humanos en el centro de dichos procesos (ver nota de 7Puentes).

Si bien la visión tradicional plantea que muchos puestos de trabajo serían reemplazados por la IA, la realidad es que también muchos de estos puestos serán transformados y reinventados por la IA, no perdidos. No se trata de hacer lo mismo con menos gente, sino de hacer más y mejor, de producir con mayor calidad. Es allí donde la IA evidencia sus oportunidades y ventajas competitivas. La clave estará en la demanda real e insatisfecha de estos puestos que requieren mayor capacitación sobre estas herramientas, incluyendo fomentar la creatividad, innovación y trabajo en equipo.

Entonces, se requieren respuestas inmediatas sobre estos problemas y hay innumerables discusiones abiertas. Queda en claro que aún así no se trata de demonizar ni glorificar los avances de la IA y el ChatGPT, porque los beneficios y los riesgos están a la vuelta de la esquina. Como señalamos en un post anterior, conocer en qué medida las empresas, organizaciones, gobiernos y sociedades están preparadas para estos desafíos y anticipar futuras oportunidades, forma parte de nuestros mayores intereses e inquietudes.