Skip to main content

Un mensaje de audio de un hombre se convirtió en viral en WhatsApp y encierra una paradoja: afirma que la empresa dueña de este servicio de mensajería instantánea cerró la cuenta de un socio por integrar un grupo relacionado a la pornografía infantil al cual fue agregado de manera inconsulta.

En el archivo de audio, que pude escuchar, el hombre, que no se identifica, advierte sobre la posibilidad de que WhatsApp pueda bloquear el acceso a la aplicación a miembros de grupos que fomentan la pornografía infantil.

El socio de la víctima relató que una noche su amigo fue sumado desde un número de teléfono desconocido, con prefijo de Estados Unidos, a ese grupo de WhatsApp y que cuando se percató de la situación, a la mañana siguiente, se retiró del grupo.

Sin embargo, la aplicación ya había bloqueado todas las cuentas que formaban parte del grupo.

«Es una especie de virus que está viniendo ahora y la única forma de evitarlo es anulando la posibilidad de que te puedan sumar a cualquier grupo», dijo el hombre en el mensaje de audio, que incluye una explicación para prevenir situaciones similares.

Desde WhatsApp me informaron que la empresa tiene «una política de tolerancia cero respecto al abuso sexual infantil». «Bloqueamos a usuarios de WhatsApp si son parte de grupos que comparten contenido que explota o pone en peligro a niños. WhatsApp utiliza un comprometido equipo que incluye a expertos en la aplicación de la ley y políticas de seguridad en Internet, e investigaciones para supervisar estos esfuerzos», aseguraron desde la compañía, propiedad de Facebook.

Para proteger la privacidad y la seguridad de sus usuarios, la compañía «garantiza la encriptación de extremo a extremo en todas las conversaciones, lo que significa que sólo el remitente y el receptor pueden ver el contenido de los mensajes».

Sin embargo, para evitar «la distribución de imágenes de explotación infantil, WhatsApp se apoya en toda la información sin encriptación disponible en la plataforma -incluidos los nombres de los grupos y las denuncias de usuarios- para detectar y prevenir este tipo de abuso».

Por ejemplo, usa una tecnología de comparación de fotos llamada PhotoDNA para escanear fotos de perfiles proactivamente e identificar imágenes de explotación infantil conocidas.

«Si nuestros sistemas detectan alguna de esas imágenes, bloquearemos las cuentas de usuario asociadas dentro de un grupo.», afirmaron desde la empresa.

Por lo tanto, WhatsApp puede bloquear el acceso a la aplicación de usuarios que integren estos grupos. «Aunque no podamos distinguir entre un usuario que envía o que recibe imágenes de explotación infantil, nuestra política de tolerancia cero implica que todos los miembros de un grupo así serán bloqueados de WhatsApp. Cada mes, bloqueamos cientos de miles de cuentas sospechosas de compartir imágenes de explotación infantil», aseguraron desde la empresa.

Puedes leer más sobre este tema en la nota propia publicada en iProfesional aquí.

César Dergarabedian

Soy periodista. Trabajo en medios de comunicación en Buenos Aires, Argentina, desde 1986. Especializado en tecnologías de la información y la comunicación. Analista en medios de comunicación social graduado en la Universidad del Salvador. Ganador de los premios Sadosky a la Inteligencia Argentina en las categorías de Investigación periodística y de Innovación Periodística, y del premio al Mejor Trabajo Periodístico en Seguridad Informática otorgado por la empresa ESET Latinoamérica. Coautor del libro "Historias de San Luis Digital" junto a Andrea Catalano. Elegido por Social Geek como uno de los "15 editores de tecnología más influyentes en América latina".

Deja un comentario

A %d blogueros les gusta esto: