Selon un rapport de Meta prévoit de déplacer la tâche d’évaluer les dommages potentiels de ses produits loin des examinateurs humains, plutôt en appuyant davantage sur l’IA pour accélérer le processus. Les documents internes observés par la publication notent que Meta vise à avoir jusqu’à 90% des évaluations des risques sur l’IA, Radio Nationale Publique rapporte, et envisage d’utiliser des revues d’IA même dans des domaines tels que les risques pour les jeunes et «l’intégrité», qui couvre le contenu violent, la désinformation et plus encore. Méta-employés actuels et anciens sans nom qui ont parlé avec Radio Nationale Publique L’IA a averti que l’IA peut ignorer les risques graves qu’une équipe humaine aurait pu identifier.
Les mises à jour et les nouvelles fonctionnalités des plateformes de Meta, y compris Instagram et WhatsApp, ont longtemps été soumises à des critiques humaines avant de frapper le public, mais Meta aurait doublé sur l’utilisation de l’IA au cours des deux derniers mois. Maintenant, selon RADIO NATIONALE PUBLIQUE, Les équipes de produits doivent remplir un questionnaire sur leur produit et le soumettre pour examen par le système d’IA, qui fournit généralement une “décision instantanée” qui comprend les domaines de risque qu’il a identifiés. Ils devront ensuite répondre aux exigences qu’elle a présentées pour résoudre les problèmes avant que le produit ne puisse être publié.
Un ancien Meta Executive a raconté Radio Nationale Publique Cette réduction de l’examen “signifie que vous créez des risques plus élevés. Les externalités négatives des changements de produits sont moins susceptibles d’être évitées avant de commencer à causer des problèmes dans le monde”. Dans une déclaration à Radio Nationale PubliqueMeta a déclaré que cela exploiterait toujours “l’expertise humaine” d’évaluer “des questions nouvelles et complexes” et laisserait les “décisions à faible risque” à l’IA. Lire le rapport complet sur .
Il vient quelques jours après la sortie de Meta – le premier depuis et plus tôt cette année. La quantité de contenu retiré a diminué sans surprise à la suite des modifications, selon le rapport. Mais il y a eu une petite augmentation de l’intimidation et du harcèlement, ainsi que du contenu violent et graphique.