La inteligencia artificial (IA) conversacional, como ChatGPT, transformó la forma en que interactuamos con las tecnologías de la información (TI). Su capacidad para comprender contextos complejos y generar respuestas rápidas puede resultar fascinante, pero también plantea desafíos importantes en materia de seguridad, privacidad y veracidad de la información.
Desde Eset, compañía especializada en ciberseguridad, advirtieron sobre los riesgos de formular ciertos tipos de preguntas a estas herramientas y ofrecen recomendaciones para un uso responsable.
Evita compartir información confidencial o sensible
Nunca debes ingresar datos personales, bancarios, contraseñas ni ningún tipo de información sensible en tus conversaciones con ChatGPT.
Aunque la interacción pueda parecer privada, estas plataformas no garantizan entornos cifrados o completamente seguros. Si un ciberdelincuente accede a una cuenta de ChatGPT, podría obtener toda la información compartida, incluyendo datos sensibles.
De hecho, ya existen foros en la web oscura donde se comercializan cuentas robadas de ChatGPT, lo que evidencia el atractivo de estos datos para los atacantes.
No utilices IA para tratar información empresarial confidencial
Los empleados que usan inteligencia artificial deben extremar precauciones al manejar datos corporativos. Jamás compartas informes financieros, estrategias empresariales, información sobre clientes o proyectos confidenciales.
La IA no distingue automáticamente entre información pública y privada, lo que representa un riesgo significativo para la seguridad e integridad de la empresa. Para tratar información sensible, utiliza siempre herramientas autorizadas por tu organización.
No busques asesoramiento médico, legal o financiero definitivo
Aunque la IA puede aclarar conceptos y brindar información general, no reemplaza la experiencia de profesionales calificados. Tomar decisiones médicas, legales o financieras basándote solo en respuestas de ChatGPT puede llevar a interpretaciones erróneas y consecuencias graves. Para estos temas, consulta siempre a especialistas que puedan analizar tu caso de manera personalizada y responsable.
Evita preguntas sobre opiniones, preferencias o sentimientos humanos
ChatGPT utiliza lenguaje natural y puede parecer empático, pero carece de conciencia, emociones y opiniones propias. Sus respuestas son el resultado de algoritmos y patrones de datos, no de experiencias personales. Si buscas consejo genuino o apoyo emocional, es preferible recurrir a una persona real que pueda ofrecer empatía y criterio humano.
No dejes en manos de la IA decisiones personales importantes
La inteligencia artificial puede ayudarte a organizar ideas o aportar información objetiva, pero no debe ser la base exclusiva para tomar decisiones cruciales sobre tu vida, carrera o bienestar.
Estas decisiones requieren un análisis profundo que contemple tanto datos objetivos como aspectos emocionales y subjetivos. Para situaciones complejas, busca la orientación de expertos y personas de confianza.
“Centrarse en la seguridad digital y el uso responsable es fundamental al interactuar con herramientas como ChatGPT. Saber qué preguntas no hacer ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Utiliza la IA como complemento, no como fuente definitiva de respuestas, para tomar decisiones más informadas y seguras”, concluyó Camilo Gutiérrez Amaya, jefe del laboratorio de investigación de Eset Latinoamérica.
Si te gustó o sirvió algo que publiqué, te ofrezco dos alternativas para agradecer y permitir la continuidad de mi trabajo en Bahía César:
Te invito a suscribirte gratis al boletín semanal de Bahía César para recibirlo en tu correo electrónico. Ingresa tu e-mail aquí.