¿Deberían los científicos de datos adherir a un juramento hipocrático?


Ciencia de Datos
 | La industria tecnológica se encuentra en un punto de inflexión respecto de los alcances éticos de sus innovaciones. El escándalo más resonante, la manipulación de datos de usuarios de Facebook que la consultora Cambridge Analytica realizó sin autorización previa, llamó a reflexionar a la industria y a los propios programadores y data scientist ¿Deberían estos profesionales firmar una suerte de juramento hipocrático, como hacen los médicos por ejemplo?

Mantener los sistemas de aprendizaje automático dentro de límites éticos se ha convertido en un tema candente en la investigación de inteligencia artificial.

En este sentido, comienza a haber esfuerzos de gigantes tecnológicos, como Microsoft que este año lanzó un libro sobre los efectos de la inteligencia artificial en la sociedad en general, o de los propios profesionales de la industria (en San Francisco se reunieron docenas de científicos de datos de empresas de tecnología para comenzar a redactar un código de ética para su profesión), por reflexionar acerca del aspecto ético de la ciencia de datos.

Tal vez sea momento de que los data scientists enfoquen su relevante capacidad de análisis estadístico de los datos en el bien común.

“Debemos capacitar a las personas que trabajan en tecnología para que digan ‘Espera, esto no está bien’”, sentenció DJ Patil, chief data scientist durante la presidencia de Barack Obama. Patil fue el primer orador del evento mencionado anteriormente, llamado “Data For Good Exchange”, al cual asistieron muchos empleados de Microsoft, Pinterest y Google, entre otros.

 

Más allá de estos esfuerzos -valiosos por cierto y que, cuanto menos, ponen el tema en agenda-, la evidencia disponible sugiere que las grandes compañías de tecnología generalmente toman en serio las cuestiones éticas cuando perciben una amenaza directa a su balance general. Mark Zuckerberg pudo haber mostrado arrepentimiento por el control de su compañía en la distribución de información, pero esta actitud se produjo solo después de la presión política sobre el papel de Facebook en la interferencia de Rusia en las elecciones de 2016 en Estados Unidos.

Las compañías tecnológicas que ganan dinero al proporcionar plataformas para otros pueden tener una razón adicional para no ser demasiado prescriptivas sobre la ética. Cualquier cosa que pueda asustar a los clientes de construir en su plataforma es arriesgada. Y es en ese sentido, que toma protagonismo un eventual código de ética o, al menos, visibilizar el aspecto ético del manejo inteligente de los datos.

Más allá de las acciones que lleven a cabo o no las empresas tecnológicas, resulta fundamental que, usuarios y científicos de datos, pensemos cuidadosamente acerca de los efectos de productos alimentados por datos personales, y, más aún, que podamos establecer límites éticos más firmes, que no se guíen únicamente por la maximización de las ganancias.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *