Desde 2019 que o Bumble recorre a machine learning para proteger os seus utilizadores de nudes não solicitadas. O internamente designado, Private Detector, analisa imagens enviadas entre users para determinar se estas exibem conteúdo inapropriado e embora tenha sido concebido para travar imagens de órgãos genitais, o software já evoluiu e é agora capaz de impedir a disseminação de outros tipos de conteúdo, nomeadamente selfies onde a pessoa surge sem camisola ou fotografias de armas - ambos proibidos no Bumble.
Atualmente, quando é enviada uma fotografia destas, a miniatura que surge na conversa é censurada e o destinatário é questionado sobre se quer ver o conteúdo, bloqueá-lo ou reportar o remetente.
O Bumble anunciou que vai tornar o Private Detector num software de código aberto, o que significa que este vai poder ser livremente utilizado. A framework está já disponível no Github. "Esperamos que uma boa fatia da comunidade tecnológica adote esta funcionalidade para tornar a internet num lugar mais seguro", explicou a empresa.
Nota o Engadget que um estudo de 2016 concluiu que cerca de 57% das mulheres que utilizam aplicações de dating já se sentiram assediadas nas mesmas. Um mais recente, de 2020, indica que mais de 70% das jovens com idade compreendida entre os 12 e os 18 já receberam fotografias com nudez explícita não solicitada, o que significa que, online, o problema não só se estende muito para lá das aplicações de dating, como as soluções implementadas para o prevenir são, de modo geral, parcas e ineficazes.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários