Las tecnologías de inteligencia artificial (IA) se desarrollan con rapidez y cada vez son más asequibles, aunque podrían usarse con propósitos malintencionados.
Un ejemplo explica los temores en torno a esta tecnología. Un dron de rastreo fabricado por la empresa Skydio cuesta 2.499 dólares.
Se armó con piezas de construcción tecnológicas disponibles para cualquiera: cámaras ordinarias, programa de código abierto y procesadores de computadora de bajo costo.
Con el tiempo, reunir estos componentes será cada vez más fácil y barato.
Estas mismas tecnologías aportan un nuevo nivel de autonomía a los vehículos, los robots en los almacenes, las cámaras de seguridad y una amplia gama de servicios de Internet
A veces, los nuevos sistemas de IA también exhiben comportamientos inesperados y extraños debido a que no se entiende por completo la manera en que aprenden a partir de enormes cantidades de datos.
Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos para que, por ejemplo, vean cosas que no existen.
En un contexto como éste, los delincuentes podrían burlar cámaras de seguridad o afectar a un vehículo autónomo.
Darío Goldfarb, arquitecto de Seguridad de IBM Argentina, me explicó cómo trabaja el Gigante Azul para evitar que la IA se aplique con fines malos.
«Así como las tecnologías nos ayudan a quienes queremos construir un mundo mejor y ser capaces de detectar las actividades maliciosas de atacantes, también pueden ser utilizadas por personas con objetivos malintencionados», me dijo este ejecutivo.
Por ejemplo, existen programas maliciosos («malware») que «se expanden de manera sigilosa y utilizan inteligencia artificial para reconocer fotos, voz, y combinarlo con el geoposicionamiento para identificar a la víctima y solo activar acciones maliciosas en la PC de un perfil de alto valor (un CEO, un famoso, etc.)», dijo Goldfarb en la entrevista que iProUP publicó aquí.