Bumble abrió su herramienta de IA para capturar desnudos

Desde 2019, Bumble ha utilizado el aprendizaje automático para proteger a sus usuarios de fotos lascivas. Apodado Detector privado, la función analiza las imágenes enviadas desde las coincidencias para determinar si representan contenido inapropiado.

Por Nadia Ojeda,
Bumble abrió su herramienta de IA para capturar desnudos
Facebook Twitter Whatsapp Telegram

Fue diseñado principalmente para capturar fotos de desnudos no solicitados, pero también puede marcar selfies sin camisa e imágenes de armas, las cuales no están permitidas en Bumble. Cuando hay una coincidencia positiva, la aplicación desenfocará la imagen ofensiva, permitiéndole decidir si desea verla, bloquearla o denunciar a la persona que se la envió.

En una publicación de blog reciente, Bumble anunció que era un detector privado de código abierto, lo que hacía que el marco disponible en Github. “Esperamos que la función sea adoptada por la comunidad tecnológica en general mientras trabajamos en conjunto para hacer de Internet un lugar más seguro”, dijo la compañía, reconociendo en el proceso que es solo uno de los muchos jugadores en el mercado de citas en línea.

Los avances sexuales no deseados son una realidad frecuente para muchas mujeres tanto en línea como en el mundo real. Un estudio de 2016 encontró que el 57 % de las mujeres se sentían acosadas en las aplicaciones de citas usaron. Más recientemente, un estudio de 2020 del Reino Unido descubrió que el 76 % de las niñas entre las edades de 12 y 18 años se han enviado imágenes de desnudos no solicitados. El problema se extiende más allá de las aplicaciones de citas también, con aplicaciones como Instagram trabajando en su soluciones propias.

Relacionados