Metaverse

Meta Oversight Board claque la société mère sur le viral Ronaldo Deepfake

Meta Oversight Board claque la société mère sur le viral Ronaldo Deepfake

Le conseil d’assistance de Meta a ordonné la suppression d’un article sur Facebook montrant une vidéo gérée par AI-gérée de la légende brésilienne du football Ronaldo Nazário faisant la promotion d’un jeu en ligne.

Le conseil a déclaré que le poste avait violé les normes communautaires de Meta sur la fraude et le spam et a critiqué l’entreprise d’avoir permis à la vidéo trompeuse de rester en ligne.

« La prise en charge du poste est conforme aux normes communautaires de Meta sur la fraude et le spam. Meta aurait également dû rejeter le contenu de la publicité, car ses règles interdisent à l’utilisation de l’image d’une personne célèbre pour appâter les gens à s’engager avec une annonce », a déclaré le conseil d’assistance dans un déclaration Jeudi.

Le conseil de surveillance, un organisme indépendant qui examine les décisions de modération du contenu chez Facebook Parent Meta, a le pouvoir de respecter ou de renverser les décisions de retrait et peut émettre des recommandations auxquelles la société doit répondre.

Il a été créé en 2020 pour assurer la responsabilité et la transparence des mesures d’application de Meta.

L’affaire met en évidence une préoccupation croissante concernant les images générées par l’IA qui représentent faussement les gens, les décrivant comme disant ou faisant des choses qu’ils n’ont jamais faites.

Ils sont de plus en plus déployés pour les escroqueries, la fraude et la désinformation.

Dans ce cas, la vidéo représentait une voix off mal synchronisée de Ronaldo Nazário exhortant les utilisateurs à jouer à un jeu appelé Plinko via son application, promettant à tort que les utilisateurs pourraient gagner plus qu’en faisant des emplois communs au Brésil.

Le poste a recueilli plus de 600 000 vues avant d’être signalé.

Mais malgré le fait d’être signalé, la résolution du contenu n’a pas été priorisée et elle n’a pas été supprimée.

L’utilisateur qui l’a signalé a ensuite fait appel de la décision à Meta, où elle n’a encore pas été hiérarchisée pour l’examen humain. Enfin, l’utilisateur est allé au tableau.

Deepfakes à la hausse

Ce n’est pas la première fois que Meta fait face à des critiques sur sa manipulation de Celebrity Deepfakes.

Le mois dernier, l’actrice Jamie Lee Curtis confronté Le PDG Mark Zuckerberg sur Instagram après que sa ressemblance a été utilisé dans une annonce générée par l’AI, ce qui a incité Meta à désactiver l’annonce mais à laisser le message d’origine en ligne.

Le conseil d’administration a constaté que seules des équipes spécialisées de Meta pouvaient supprimer ce type de contenu, ce qui suggère une sous-étape généralisée. Il a exhorté Meta à appliquer plus de manière cohérente ses politiques anti-fraude à travers la plate-forme.

La décision intervient au milieu d’un élan législatif plus large pour freiner l’abus de fesses profondes.

En mai, le président Donald Trump signé L’acte bipartite de l’abandon, obligeant que les plates-formes suppriment les images non consensuelles, intimes et générées par l’AI dans les 48 heures.

La loi répond à une augmentation de la pornographie profonde et des abus basés sur l’image affectant les célébrités et les mineurs.

Trump lui-même était ciblé par une profondeur virale cette semaine, lui montrant plaider pour que les dinosaures gardent la frontière sud des États-Unis.

To Top