Investigación e inteligencia artificial: consideraciones éticas

La inteligencia artificial (IA), y su notorio impacto en la investigación, plantean una serie de preocupaciones éticas: resulta vital garantizar un uso responsable de la IA, confiable y al servicio de las personas, en el marco de una ciencia y tecnología comprometida con sus sociedades y con el desarrollo sustentable. 

¿Es posible que el sistema científico-tecnológico incorpore valores éticos a la producción de conocimiento, sobre todo cuando se trata de un tema tan dinámico como la inteligencia artificial (IA)? ¿Qué recomendaciones son necesarias y factibles para desarrollar estos proyectos, de modo que beneficien directamente a las sociedades y que sus modelos de desarrollo sean consensuados democráticamente por los actores involucrados? ¿Podrán los sistemas de IA tomar decisiones cada vez más justas e imparciales que no discriminen a ninguna persona o grupo?

Ética y regulaciones en inteligencia artificial

Resulta evidente que el uso e implementación intensiva de la IA en diversos ámbitos -desde la atención médica hasta la industria manufacturera o cualquier sector productivo- puede mejorar la eficiencia y calidad de lo que se ofrece, pero también puede plantear preocupaciones éticas, como la privacidad, la discriminación, la seguridad o fiabilidad de los algoritmos y el sesgo en los datos. 

Para entender qué es la ética en IA, se hace referencia al conjunto de principios, normas y valores que orientan el desarrollo, implementación y uso de la IA de modo que respete los derechos humanos, la diversidad, la equidad y el bien común. Al respecto, los principios de IA de la Organización para la Cooperación y el Desarrollo Económico (OCDE), aprobados en 2019, brindaron un primer marco regulatorio para utilizar estas tecnologías de manera responsable y al servicio de las personas.

Recientemente, en junio de 2023, el Estado argentino dio un paso más en el camino hacia la implementación de la ética en la Inteligencia Artificial, adoptando (por parte de la Subsecretaría de Tecnologías de la Información) la Disposición 2/23 que se basa en la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO, aprobada por los 193 estados miembros.

Esta recomendación sobre la ética de la IA, aprobada por la UNESCO en 2021, presta especial atención a las implicaciones éticas más amplias de los sistemas de inteligencia artificial en relación con los ámbitos centrales de la UNESCO: educación, ciencias, cultura y comunicación e información, comprendiendo además líneas de acción en áreas cruciales, como la gobernanza de datos, género y medio ambiente. 

Tal es así que, desde el organismo, se plantea la necesidad de adoptar principios éticos que guíen a la inteligencia artificial y frenen cualquier intento de manipulación de comportamientos sociales, exacerbación de las desigualdades, profundización de los sesgos, fomento del extremismo y la radicalización, discriminación o daño a la diversidad, y erosión de los derechos humanos y las libertades fundamentales que constituyen nuestras democracias.

Se trata de un primer paso positivo (que complementa a la existente Ley 25.326 de Datos Personales) pero que deja ciertas preguntas abiertas sobre cómo se implementarán localmente los sistemas de IA, tomando estas recomendaciones, y si es posible que el desarrollo de las tecnologías y la investigación científica consideren las necesidades particulares de las comunidades que habitan nuestro país y región. 

En relación con esta problemática, María Vanina Martínez, investigadora integrante del Comité Nacional de Ética en la Ciencia y la Tecnología (CECTE), considera que es necesario avanzar no sólo hacia protocolos más sólidos para el desarrollo de regulaciones en torno a la IA local, sino también trabajar en pos de la integridad científica: inspeccionar algoritmos y resultados (centrados en la confianza y correctitud de los sistemas), exigir estándares y certificaciones de garantía sobre herramientas y procesos y, en líneas generales, cuestionar todo el trabajo integral de desarrollo y construcción de los sistemas de IA para entender en mejor medida su funcionamiento.

Hacia políticas públicas asistidas con IA 

Al momento de abordar cualquier problema que amerite diseñar una política pública, sería importante considerar si la ciencia de datos y la inteligencia artificial son las mejores herramientas para el problema que se busca resolver. En referencia a esta cuestión, la publicación de la Fundación Sadosky “Innovar con Ciencia de Datos en el sector público”, plantea inteligentemente que la Ciencia de Datos e IA por sí solas no resuelven problemas, sino que resultan herramientas que forman parte de un conjunto de estrategias para abordar un problema, en general complejo. De lo contrario, se caería en lo que se suele llamar “solucionismo tecnológico” donde comúnmente se cree que los problemas de la sociedad pueden resolverse con más y mejor tecnología. 

Desmitificando esa visión, para abordar problemas sociales es necesario contar con un extenso conocimiento sobre los mismos, y con varios soportes no tecnológicos y de contexto.

Investigación e inteligencia artificial: consideraciones éticas

Combatiendo sesgos en los modelos de IA y aprendizaje automático

Hoy en día, los sesgos en inteligencia artificial y los modelos de aprendizaje automático, son uno de los grandes problemas que atraviesan estas tecnologías. Esta dificultad se amplifica con la tendencia de los modelos a producir datos que no son justos ni confiables, y puede provenir de la falta de calidad de los datos de entrenamiento, de los algoritmos implementados o de los supuestos prejuicios o distorsiones subyacentes en el modelo. Tal es así que estos modelos podrían perpetuar y extender los prejuicios y la discriminación existentes. 

Por ejemplo, si un modelo de IA se entrena con datos que contienen prejuicios de género o racial, el modelo puede perpetuar estos prejuicios en sus decisiones. Por ende, es fundamental que la IA se programe y se entrene con datos imparciales y representativos.

El caso de uso más cercano es el de los Grandes Modelos de Lenguaje (LLMs), un subconjunto de la inteligencia artificial que ha sido entrenado con una gran cantidad de datos de texto para producir respuestas similares a las humanas al diálogo u otros insumos de lenguaje natural. El problema, en el caso de ChatGPT por ejemplo, reside en que las respuestas de estos modelos suelen ser muy creíbles pero no necesariamente verdaderas, ya que el error es una característica inherente de los modelos que trabajan con datos

Preguntas finales

Las consideraciones éticas de la investigación e inteligencia artificial nos dejan pendientes algunos interrogantes claves, en especial, respecto a si los modelos, algoritmos y sistemas actuales basados en IA y machine learning están orientados a resolver problemas propios de nuestra región en beneficio de las personas, o si sólo consideran problemas que suelen ser ajenos a nuestra realidad que, muchas veces, nos vienen impuestos desde intereses y visiones de los países centrales, por los propios agentes desarrolladores de estas tecnologías. 

También nos preguntamos sobre la calidad de los datos con que trabajan estas tecnologías, ya que convivimos con sesgos tan arraigados en la sociedad que es necesario tener una mirada atenta y sensible ante diferentes colectivos invisibilizados y asegurarnos de su correcta representación en los datos de entrenamiento y en la construcción del problema que estamos intentando solucionar. 

Sin lugar a dudas, paulatinamente los gobiernos y los organismos internacionales se van modernizando o dando sus primeros pasos para sumar estos debates a la arena pública e incorporar regulaciones y aspectos éticos de base, incluyendo al sistema científico-tecnológico como un actor central de transformaciones en el desarrollo y el uso más responsable de la inteligencia artificial.