Meta explica cómo combate la presencia de depredadores sexuales en sus plataformas
Tecnología
La matriz de Facebook e Instagram se enfrenta al escrutinio, tanto en la UE como en EEUU, de las medidas que toma para proteger a los menores
Bruselas da tres semanas a Meta para que le proporcione más información sobre las medidas para proteger a los menores en Instagram
Meta conoce y permite cuentas de usuarios menores de 13 años en Instagram
Meta insiste en que cuenta con medidas, sistemas y especialistas para limpiar sus plataformas de depredadores sexuales.
La firma tecnológica reconoce que prevenir la explotación infantil "es uno de los desafíos más importantes" a los que se enfrenta la industria y que ella, ahora, "más que nunca", trabaja para mantenerse a la vanguardia.
Para ello, no solo se ha encargado de desarrollar tecnología que acabe con los depredadores sexuales, sino que también ha contratado especialistas dedicados a la seguridad infantil online. Una vez recopilada la información, la comparte también tanto con firmas competidores como con las fuerzas del orden.
En el punto de mira, tanto en Europa como en EEUU
Meta está en el punto de mira de la Comisión Europea, que le ha dado hasta el 22 de diciembre para que le envíe más información sobre las medidas que lleva a cabo para proteger a los menores, y también de la Justicia en EEUU, donde afronta una demanda de decenas de estados que la acusan de conocer y permitir las cuentas de menores de 13 años (la edad mínima está en los 14) en Instagram.
Además del escrutinio sobre el tema a ambos lados del Atlántico, la matriz de Facebook, WhatsApp o Instagram tiene un incendio más que apagar: una investigación llevada a cabo por The Wall Street Journal e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst (ambas de EEUU).
Este trabajo, publicado en junio, reveló que Instagram favorece la pedofilia entre sus contenidos al conectar usuarios que venden imágenes y vídeos de carácter sexual de menores con personas que los compran.
La defensa de Meta
En relación a estas acusaciones, Meta ha reconocido haber creado un grupo de trabajo para revisar las políticas existentes y la tecnología que emplea para prevenir estos casos, así como llevar a cabo los cambios necesarios para fortalecer la protección que ofrece a los menores.
En primer lugar, ha mencionado que el grupo de trabajo encargado del apartado de seguridad infantil de Meta se centró en tres áreas. La primera de ellas se encarga de su sistema de recomendaciones -en Reels e Instagram Explore, así como funciones de búsqueda y etiquetas-, tanto de personas como de contenidos de interés.
La compañía ha reconocido que cuenta con protecciones que garantizan que no sugiere "algo que pueda resultar molesto" o que pueda ir en contra de sus reglas. Así, estos sistemas buscan, eliminan o se abstienen de "sugerir proactivamente personas o contenidos inapropiados".
Meta continúa trabajando para ampliar las capacidades de este sistema de seguridad, aumentando la lista ya existente de términos, frases o emojis nocivos para los menores. Asimismo, ha comenzado a utilizar "técnicas novedosas" para encontrar nuevos términos con aprendizaje automático que podrían ser perjudiciales o que infringen su normativa.
La última de las medidas de este apartado guarda relación con la unificación de Facebook e Instagram, que cuentan con una lista central de estos términos para que se apliquen las limitaciones correspondientes de manera simultánea en ambas redes sociales.
Identificar a los depredadores
La segunda de estas áreas se centra en restringir a los depredadores sexuales potenciales y eliminar sus perfiles en estas redes sociales. En este sentido, la firma ha indicado que ha desarrollado una tecnología que identifica adultos potencialmente sospechosos, que analiza en base a más de 60 parámetros diferentes para determinar si se trata de personas peligrosas.
Entre algunos de ellos se encuentra que esa persona busque "repetidamente" términos que puedan sugerir un comportamiento sospechoso o que un adolescente la bloquee o denuncie en algún momento.
Meta ha reconocido que ya utiliza esta tecnología para impedir que adultos potencialmente sospechosos "encuentren, sigan o interactúen con adolescentes" y que ha ampliado sus capacidades para evitar que estos usuarios encuentren, sigan o interactúen entre sí con otros usuarios con las mismas intenciones.
Grupos de Facebook
Por otra parte, ha explicado que los grupos de Facebook con un cierto porcentaje de miembros que exhiben comportamientos potencialmente sospechosos no se sugerirán a otras personas en lugares como Grupos y aquellos cuya membresía se superponga con otros que fueron eliminados por violar sus políticas de seguridad infantil tampoco se mostrarán en la búsqueda.
Gracias a estas decisiones y como resultado de este trabajo, desde el 1 de julio de 2023 Meta eliminó más de 190.000 grupos de la Búsqueda, según ha concluido en esta actualización.
En último lugar de este apartado, la compañía liderada por Mark Zuckerberg ha explicado que también ha contado con expertos en la aplicación de la ley y seguridad infantil para encontrar redes de abuso que utilicen un lenguaje codificado para evadir las restricciones habituales de la red social y eliminarlas.
Entre 2020 y 2023 los equipos de trabajo de Meta interrumpieron 32 redes de depredadores y eliminaron más de 160.000 cuentas asociadas con estas redes, según los datos de la empresa.
Otras acciones
Por otro lado, Meta ha comentado que este grupo de trabajo también se ha actualizado para fortalecer sus sistemas de presentación de informes y aplicación de la ley, momento en que ha encontrado "nuevas formas de erradicar u prohibir cuentas de depredadores potenciales".
Como consecuencia de estas nuevas medidas implementadas, la firma tecnológica ha reconocido que solo en agosto de 2023 inhabilitó más de 500.000 cuentas por violar sus políticas de explotación sexual infantil.
En este tiempo, ha asegurado, ha logrado mejorar los sistemas que emplea para priorizar los informes para los revisores de contenido, utilizando tecnología diseñada para encontrar imágenes relacionadas con la explotación infantil.
También ha proporcionado nuevas herramientas para ayudar a los revisores de contenido a comprender los comportamientos y palabras utilizadas por los depredadores sexuales en diferentes idiomas. Asimismo, tras implementar medidas de este tipo, ha logrado multiplicar por cinco las eliminaciones automáticas de directos de Instagram que contenían desnudez de adultos y actividad sexual.
Otros de los datos que cierran este informe son que desde el 1 de julio de este año se eliminaron 16.000 grupos por infringir políticas de seguridad infantil y que desde principios de agosto la compañía bloqueó automáticamente más de 250.000 dispositivos en Instagram por infracciones de nuestras políticas de seguridad infantil.
Por último, Meta ha recordado que recientemente anunció su colaboración con socios de la Tech Coalition para crear Lantern, un programa mundial que permite a las empresas tecnológicas compartir señales e indicios entre sí sobre cuentas que violan sus políticas de seguridad infantil.
También te puede interesar