Skip to main content

La inteligencia artificial (IA) utiliza algoritmos para crear máquinas que piensan como personas. El desarrollo de esos algoritmos no es una tarea inocente sino que requiere de una ética para evitar que caigan en sesgos, como los descriptos en una reciente convocatoria tecnológica regional.

Fundar es un nuevo laboratorio de ideas de políticas públicas creado por el matemático y empresario argentino radicado en EEUU Sebastián Ceria. Cuenta con un área de datos que dirige Daniel Yankelevich, que este año otorgó las becas FunDatos a cuatro estudiantes que presentaron proyectos de investigación académica en temas relacionados a ética en inteligencia artificial; ética en uso de datos; sesgos en algoritmos; sesgos en datos; privacidad y anonimización; e intercambio seguro de datos e información.

Yankelevich es informático, licenciado en la ESLAI en Argentina y recibió su PhD en la Universidad de Pisa. Realizó un postdoctorado en Carolina del Norte, EEUU. Socio fundador de Practia, un grupo de empresas dedicadas a la consultoría e informática en América latina, donde se desempeñó además como CEO del grupo. Actualmente está a cargo del programa de datos y negocios en la Universidad Di Tella (UTDT).

En una entrevista que le realicé, Yankelevich analizó la necesidad de un debate amplio sobre la ética en los algoritmos, que cada vez tienen más influencia en la vida de las personas:

«Los datos y el uso estratégico de la información constituyen hoy una capacidad clave para las organizaciones. En los últimos años, el sector privado desarrolló estas capacidades más que el sector público, que aún tiene un camino por recorrer. El uso de datos es clave al planificar, diseñar y evaluar políticas públicas, y al imaginar futuros posibles para nuestro país», afirmó.

El objetivo del área que conduce Yankelevich es acompañar el desarrollo de capacidades de análisis de datos y uso de algoritmos en el sector público, contribuyendo a la discusión pública con una visión especializada que equilibre conocimiento técnico con objetivos de bien público.

Yankelevich recordó algunos ejemplos de lo que ocurre cuando se desarrollan algoritmos sin considerar temas relacionados con la ética. En 2016, Microsoft presentó un chatbot inteligente llamado Tay, entrenado con información de redes sociales, que apenas fue puesto en funcionamiento mostró inclinaciones fascistas y racistas, discriminando e insultando a minorías.

Un concurso de belleza, en el cual las fotos de los participantes eran evaluadas por algoritmos de inteligencia artificial, terminó en escándalo por la clara inclinación de los algoritmos a descartar gente de color o de determinados tipos étnicos, privilegiando la imagen de belleza blanca y rubia.

Para Yankelevich, la ética de los algoritmos «empieza por el diseño: los algoritmos y modelos que incorporan esta preocupación desde su concepción tienen más probabilidades de acercarse a valores de bien social que aquellos en los que la preocupación por la ética aparece sólo al final».

«Es importante acordar que este es un tema necesario y preguntarnos cuáles son los puntos para tener en cuenta, a esto se denomina marco ético. El acuerdo entre humanos es previo a incorporar elementos de ética en cualquier algoritmo», explicó.

Puedes leer la entrevista que se publicó en iProfesional aquí.

César Dergarabedian

César Dergarabedian

Soy periodista. Trabajo en medios de comunicación en Buenos Aires, Argentina, desde 1986. Especializado en tecnologías de la información y la comunicación. Analista en medios de comunicación social graduado en la Universidad del Salvador. Ganador de los premios Sadosky a la Inteligencia Argentina en las categorías de Investigación periodística y de Innovación Periodística, y del premio al Mejor Trabajo Periodístico en Seguridad Informática otorgado por la empresa ESET Latinoamérica. Coautor del libro "Historias de San Luis Digital" junto a Andrea Catalano.

Deja un comentario

A %d blogueros les gusta esto: