Apple remove aplicativos que utilizavam IA para gerar imagens de nudez não autorizadas
A decisão foi tomada após uma investigação revelar que esses apps estavam sendo promovidos no TikTok com a promessa de "tirar a roupa" de qualquer pessoa em fotos.
A Apple removeu da App Store um grupo de aplicativos que usavam inteligência artificial para criar imagens sexualizadas de pessoas sem o consentimento delas. A decisão foi tomada após uma investigação revelar que esses apps estavam sendo promovidos no TikTok com a promessa de "tirar a roupa" de qualquer pessoa em fotos.
Alguns aplicativos conhecidos como ferramentas de "nudificação" foram inicialmente apresentados em suas páginas oficiais como formas de "apimentar selfies". No entanto, anúncios pagos veiculados no TikTok indicavam que o objetivo real era gerar deepfakes, removendo roupas digitais de mulheres e criando imagens sugestivas sem autorização.
Um estudo feito pela BBC apontou que os anúncios incentivavam o uso dos aplicativos para visualizar "as fotos mais quentes da sua paixão" ou "colocar qualquer um de biquíni", em muitos casos sem qualquer menção ao consentimento. Algumas propagandas chegaram a utilizar imagens manipuladas de atrizes conhecidas para exemplificar o funcionamento dos aplicativos.