¿Cuál es el estado actual de la legislación que regula la inteligencia artificial (IA) en la Argentina? ¿Cuál debería ser la política y la estrategia del Gobierno nacional para gestionar las cuestiones éticas y de derechos humanos que plantea la implementación de la IA? ¿Cómo se abordando en el país las cuestiones de privacidad y protección de datos relacionadas con la IA?
Román Alberto Uez, abogado, magíster en derecho administrativo y magíster en tecnología, políticas y culturas; especializado en inteligencia artificial, marco regulatorio y derechos digitales, respondió estas y otras preguntas sobre la inteligencia artificial en la siguiente entrevista que le realicé para iProfesional.
-¿Cuál es su opinión sobre la intención gubernamental de posicionar a la Argentina como un polo mundial de inteligencia artificial?
-El famoso inversor norteamericano Warren Buffet dijo en la asamblea anual de su fondo de inversión, Berkshire Hathaway, que la inteligencia artificial era la innovación más ambivalente y peligrosa desde que se inventó la bomba atómica.
Coincido plenamente con esta apreciación, ya que la dualidad de esta tecnología y sus efectos negativos pueden ser extremadamente nocivos.
En primer lugar, debemos reconocer que, como mecanismo de aumento de la percepción humana de memoria y cálculo utilizado para detectar patrones semejantes o similares, o nuevas combinaciones de materia y energía, la inteligencia artificial puede dar un aporte ultra beneficioso para la humanidad, acercándonos información que, a simple vista, está fuera del alcance humano.
Pero no es ese precisamente su uso más extendido e intensivo, se está utilizando esa capacidad de cálculo y memoria para implantar un sistema de vigilancia y control que, mediante la recolección legal e ilegal de datos y su clasificación, elabora perfiles personales de los seres humanos mediante los cuales se los vigila, controla, o manipula para inducirlos a conductas comerciales, financieras, políticas y sociales.
El sistema propende a concentrar el conocimiento y el poder en pocas manos, que lo usan para incrementar el control social y la rentabilidad de sus negocios.
Este aspecto es sumamente negativo porque las economías en desarrollo que no cuentan con estas tecnologías casi no tienen mecanismos tecnológicos o económicos que le permitan competir de manera igualitaria y resguardar los datos privados de sus ciudadanos, controlando el flujo informativo y de conocimientos, que es apropiado por las empresas extranjeras, generando colonialismo tecnológico.
Otro aspecto negativo es el enorme consumo energético y de recursos naturales, como agua, gas, petróleo y minerales cuya explotación intensiva y a bajo coste es necesario para que la inteligencia artificial sea rentable.
También, son necesarios cuantiosos recursos humanos que trabajan en condiciones laborales precarias para entrenar a la inteligencia artificial o para corregir sus deficiencias, lo cual, produce daños económicos en las sociedades donde estos trabajos se realizan, y psicológicos en los individuos que en ella trabajan.
Su utilización en varios sectores de la economía susceptibles de automatización va a producir la desaparición de gran cantidad de puestos de trabajo existentes, por lo cual, si el Estado no regula este aspecto y capacita adecuadamente a los trabajadores para su reinserción al mercado laboral, se va a generar una crisis de empleo.
Los humanos somos los que le damos la impronta positiva o negativa a la tecnología. Una vez lanzadas al mercado estas innovaciones, hay que buscar encauzarlas para efectos benéficos, mediante educación y regulación.
En esta tecnología en especial, por su poder destructivo si se usa de manera intensiva y masiva desde la niñez, hay que brindar especial protección a los neuroderechos, evitando que los niños, adolescentes y adultos la usen en sus labores escolares, universitarias o laborales, sin ejercer sus propias facultades neuronales verificando los resultados.
La Argentina tiene todo para ser una potencia en inteligencia artificial internacional, puede tener energía barata, minerales, gas, petróleo, agua y excelentes recursos humanos.
Si la inteligencia artificial que construimos se destina al uso de carácter científico, con organizaciones como Conicet, INVAP o Comisión Nacional de Energía Atómica, de seguro generaremos conocimientos de altísima calidad.
Si, en lugar de ello, se la destina para colaborar con plataformas tecnológicas comerciales, financieras o para potenciar los organismos de control del gobierno, sus efectos podrían ser destructivos para la economía y la sociedad argentina, poniendo en jaque la democracia.
-¿Cuál es el estado actual de la legislación que regula la inteligencia artificial en la Argentina? ¿Cómo compararía el nivel de esta reglamentación con el de otros países?
-En la actualidad, la legislación de IA en el país es totalmente dispersa y espasmódica. El primer intento fue el «Plan Nacional de Inteligencia Artificial» (ArgenIA) durante la gestión del gobierno macrista, con el cual no se llegó a ningún resultado concreto. Se pueden citar:
- El Decreto 457 en la actualización de la Directiva de Política de Defensa Nacional se reconoce a la IA.
- La Res. 90/2021 de la Secretaría de Asuntos Estratégicos que crea el «Programa de Inteligencia Artificial» que como el anteriormente mencionado, sin mayores repercusiones; Res. 14/2022 de la JGM- Secretaría de Innovación Pública por medio de la cual se crea el Chatbot del Estado Nacional «Tina».
- La Disp. 2/2023 JGM- Subsecretaría de Tecnologías de la Información por la cual se aprueban las «Recomendaciones para una Inteligencia Artificial Fiable».
- La ley 27.506 sobre «Economía del Conocimiento» incluye entre los objetos beneficiarios a la IA.
El país es parte firmante de las recomendaciones de la UNESCO (2019), primer documento internacional que reconoce la importancia de la IA; asimismo, se ha adherido al Pacto Global sobre IA, GPAI por sus siglas en inglés, el cual no ha sumado adhesiones ni ha mantenido ninguna actividad hasta la fecha.
Es importantísimo regular sobre la transparencia de los softwares de IA que permita la rendición de cuentas, responsabilidad por daños o errores y se haga pública la forma en que funcionan los algoritmos.
También es imprescindible otorgarle prioridad en la normativización a los sesgos técnicos que originan discriminación a diferentes niveles, generando su profundización; temas que hoy solo existen como «recomendaciones».
Una medida posible para el control de todos los sistemas de IA del país pueden ser los entes reguladores, que tendría que ser tenida en cuenta.
No existe punto de comparación con la reglamentación extranjera. China, líder mundial en IA generativa tiene un marco normativo que incluye ciberseguridad, seguridad de datos y protección de información personal, y reglamentos administrativos.
EEUU con su IA Act, que se aplica a las agencias gubernamentales, sector privado, comunidad científica y académica, y público en general como los consumidores, formaliza el uso seguro y responsable, la gestión de riesgos que se pudieran presentar, generando un ambiente en el que se aprovechen los beneficios para la seguridad, la economía y la sociedad en general.
La Unión Europea dictó su legislación teniendo como centro al ser humano, para que con la fiabilidad de la IA se garantice la protección de la salud, la seguridad y los derechos humanos esenciales, así como la protección de la democracia, el Estado de derecho y el medio ambiente.
Con estos resumidos ejemplos tenemos un pequeño vistazo de todo lo que nos falta regular en un marco normativo integral.
Bajo ningún aspecto se puede pensar que en esta materia no exista regulación estatal debido a que, de ser así, se está condenando a la sociedad argentina y al medio ambiente a daños que pueden ser inconmensurables.
-¿Cuál debería ser la política y la estrategia del Gobierno para gestionar las cuestiones éticas y de derechos humanos que plantea la implementación de la inteligencia artificial?
-La IA plantea los siguientes dilemas:
- La apropiación ilegal de datos.
- La discriminación por sesgos.
- El robo de propiedad intelectual.
- La no explicabilidad de su sistema de toma de decisiones.
- Cuál es el sistema de responsabilidad jurídica que se debe implementar frente a sus errores o daños.
La mayoría de las legislaciones ensalza como valor la privacidad de los datos, pero la realidad demuestra que el robo de datos y su utilización sin consentimiento es una cosa de todos los días.
Idéntica situación sufre la propiedad intelectual registrada, hay demandas de periodistas de The New York Times, The Intercept, Raw Story y AlterNet por el robo de su propiedad intelectual para artículos nuevos.
Recién ahora la legislación europea está exigiendo la explicabilidad de las decisiones de los sistemas de IA e imponiendo responsabilidad frente a sus errores.
El Gobierno argentino debería incorporar una regulación efectiva sobre la privacidad de los datos, reconociendo el derecho al olvido y la propiedad de ellos, de las personas para que puedan disponer de su borrado.
Aparte de ello, se debería controlar y exigir la eliminación de cualquier discriminación por sesgos y la responsabilidad de los operadores y de los creadores del software por errores, sesgos, que comprenda la explicabilidad de los sistemas algorítmicos para que puedan rendir cuentas.
Estos mecanismos deben estar presentes en la IA de uso más peligroso: medicina, finanzas y seguridad.
Puedes leer completa esta entrevista en torno a la inteligencia artificial que publiqué en iProfesional aquí.
Si te gustó o sirvió algo que publiqué, te ofrezco dos alternativas para agradecer y permitir la continuidad de mi trabajo en Bahía César, haciendo clic sobre ellas:
Introduce tu correo electrónico para suscribirte a Bahía César y recibir avisos de nuevas notas.