Facebook Inc anunció este miércoles que eliminó en el último trimestre 8,7 millones de imágenes de usuarios con desnudos infantiles gracias a la ayuda de un software que detecta automáticamente este tipo de fotos.
La herramienta de aprendizaje automático implementada el año pasado identifica imágenes que contienen desnudos y un niño, lo que permite un mayor cumplimiento de la prohibición de Facebook de exhibir fotos que muestren a menores en un contexto sexualizado.
Un sistema similar también reveló este miércoles la detección de usuarios involucrados en intentar hacerse amigos de menores para la explotación sexual, una práctica conocida como “grooming” o ciberacoso.
La jefe de seguridad global de Facebook, Antigone Davis, dijo a Reuters en una entrevista que la “máquina nos ayuda a priorizar” y “organizar de manera más eficiente” el contenido problemático para el equipo de supervisores de la compañía, que está analizando la utilización de la misma tecnología a su aplicación Instagram.
Presionado por reguladores y legisladores, Facebook ha prometido acelerar la eliminación del material considerado radical e ilícito. Los programas de aprendizaje automático que analizan las miles de millones de publicaciones diarias de los usuarios son esenciales para el éxito de su plan.
Tomado de Reuters
0 comments:
Publicar un comentario