Skip to main content

La inteligencia artificial generativa (IAG), popularizada por ChatGPT de la empresa OpenAI, enfrenta obstáculos para su uso en organizaciones. De acuerdo a un estudio privado, los límites e incluso la prohibición a la utilización de la IAG se debe por cuestiones de privacidad y seguridad de los datos.

Cisco, una empresa global con sede en California, dedicada a la fabricación, venta, mantenimiento y consultoría de equipos de telecomunicaciones, publicó su estudio sobre privacidad de datos, una revisión anual de los principales problemas de privacidad y su impacto en los negocios.

Los resultados del estudio, que me compartieron desde Cisco, destacan las preocupaciones crecientes sobre la privacidad de la inteligencia artificial generativa, los retos de confianza a los que se enfrentan las organizaciones en su uso, y los retornos atractivos de la inversión en privacidad.

El estudio se basó en las respuestas de 2.600 profesionales de la privacidad y la seguridad de 12 países. Su séptima muestra que la privacidad es mucho más que una cuestión de cumplimiento normativo.

Preocupación por la privacidad con la inteligencia artificial generativa

Las empresas ven a la IAG «como una tecnología fundamentalmente diferente con nuevos desafíos a considerar», dijo Dev Stahlkopf, director legal de Cisco.

Más del 90% de los encuestados creen que la inteligencia artificial generativa «requiere nuevas técnicas para gestionar los datos y el riesgo. Aquí es donde entra en juego una gobernanza reflexiva. Preservar la confianza de los clientes depende de ello», agregó el ejecutivo.

Entre las preocupaciones, las empresas citaron las amenazas a los derechos legales y de propiedad intelectual de una organización (69%), y el riesgo de divulgación de información al público o a los competidores (68%).

La mayoría de las organizaciones son conscientes de estos riesgos y pusieron en marcha controles para limitar la exposición: el 63% estableció limitaciones sobre los datos que se pueden introducir, el 61% tiene límites sobre las herramientas de IAG que pueden utilizar los empleados; y el 27% dijo que su organización había prohibido las aplicaciones de inteligencia artificial generativa por el momento.

No obstante, hubo ingresos de datos que podría ser problemáticos, incluida información sobre los empleados (45%) o información no pública sobre la empresa (48%).

Avances lentos en inteligencia artificial y transparencia

Los consumidores están preocupados por el uso de la IA en relación a sus datos, pero 91% de las organizaciones reconoció que necesitaban hacer más para garantizar a sus clientes que sus datos solo se utilizan para los fines previstos y legítimos de la IAG. Esta cifra es similar a los niveles del año pasado, lo que sugiere que no se ha avanzado mucho.

«Actualmente los consumidores mexicanos están preocupados con el uso de la IA que involucre sus datos, y sin embargo el 87% de las organizaciones reconocen que deben hacer más garantizar a sus clientes que sus datos están siendo utilizados para los fines previstos y legítimos en IA», señaló Marcia Muñiz, directora jurídica de Cisco para América latina y Canadá.

Las prioridades de las organizaciones para generar confianza en los consumidores difieren de las prioridades de las personas.

Los consumidores consideran que su foco principal es obtener información clara sobre el uso exacto que se hace de sus datos y no venderlos con fines comerciales.

Cuando se les hizo la misma pregunta, las empresas señalaron que sus principales prioridades eran cumplir la legislación sobre privacidad (25%) y evitar las violaciones de datos (23%).

Esto sugiere que sería útil prestar más atención a la transparencia, especialmente en el caso de las aplicaciones de IA, en las que puede resultar difícil comprender cómo toman sus decisiones los algoritmos.

Privacidad y confianza: el papel de las certificaciones y leyes externas

Las empresas reconocen la necesidad de calmar las preocupaciones de sus clientes sobre el uso que se hace de sus datos. «El 94% de los encuestados afirmó que sus clientes no les comprarían si no protegieran adecuadamente los datos», dijo Harvey Jang, vicepresidente y director de privacidad de Cisco.

«Buscan pruebas contundentes de que la organización es de confianza, la privacidad está ligado de manera inextricable con la confianza del cliente y su lealtad. Esto es aún más cierto en la era de la IA, donde invertir en privacidad posiciona mejor a las organizaciones para aprovechar la IA de forma ética y responsable», subrayó.

A pesar de los costos y requisitos que las leyes de privacidad pueden imponer a las organizaciones, el 80% de los encuestados dijo que las leyes de privacidad han tenido un impacto positivo en ellos, y solo el 6% dijo que el impacto ha sido negativo.

Aunque la mayoría de las empresas (91%) cree que sus datos estarían más seguros si se almacenaran dentro de su país o la región, el 86% también afirmó que un proveedor global, que opere a escala, puede proteger mejor sus datos en comparación con un proveedor local.

Protección de datos: una inversión valiosa

El gasto en privacidad se ha más que duplicado en los últimos cinco años, lapso durante el cual los beneficios han tendido al alza y la rentabilidad se ha mantenido fuerte.

Este año, el 95% indicó que los beneficios de la privacidad superan sus costes, y la organización media afirma obtener unos beneficios de privacidad 1,6 veces superiores a su gasto.

Además, el 80% indicó obtener beneficios de «lealtad y confianza» de sus inversiones en privacidad, y esto es incluso mayor (92%) para las organizaciones más maduras en privacidad.

En 2023, las organizaciones más grandes (más de 10 mil empleados) aumentaron su gasto en privacidad entre un 7% y un 8% desde el año pasado.

Sin embargo, las organizaciones más pequeñas registraron una menor inversión, por ejemplo, las empresas con 50-249 empleados, disminuyeron su inversión en privacidad en una cuarta parte del promedio.

Inteligencia artificial


Si te gustó o sirvió algo que publiqué, te ofrezco dos alternativas para agradecer y permitir la continuidad de mi trabajo en Bahía César, haciendo clic sobre ellas:


Introduce tu correo electrónico para suscribirte a Bahía César y recibir avisos de nuevas notas.

 

César Dergarabedian

Soy periodista. Trabajo en medios de comunicación en Buenos Aires, Argentina, desde 1986. Especializado en tecnologías de la información y la comunicación. Analista en medios de comunicación social graduado en la Universidad del Salvador. Ganador de los premios Sadosky a la Inteligencia Argentina en las categorías de Investigación periodística y de Innovación Periodística, y del premio al Mejor Trabajo Periodístico en Seguridad Informática otorgado por la empresa ESET Latinoamérica. Coautor del libro "Historias de San Luis Digital" junto a Andrea Catalano. Elegido por Social Geek como uno de los "15 editores de tecnología más influyentes en América latina".

Deja un comentario

A %d blogueros les gusta esto: