«Quels comtés [sic] Faites des femmes plus jeunes comme les hommes blancs plus âgés », dit un message public d’un utilisateur sur la plate-forme AI de Meta.« J’ai besoin de détails, j’ai 66 ans et je suis célibataire. Je suis de l’Iowa et je suis ouvert à déménager dans un nouveau pays si je peux trouver une femme plus jeune. Le chatbot a répondu avec enthousiasme: «Vous cherchez un nouveau départ et de l’amour dans un nouvel endroit. C’est excitant! Avant de suggérer «des pays méditerranéens comme l’Espagne ou l’Italie, ou même les pays d’Europe de l’Est».
Ce n’est qu’une des nombreuses conversations apparemment personnelles qui peuvent être consultées publiquement sur Meta AI, une plate-forme de chatbot qui sert de flux social et lancé en avril. Dans l’application Meta AI, un onglet «Discover» montre une chronologie des interactions des autres avec le chatbot; Un court défilement vers le bas sur le site Web de Meta AI est un collage étendu. Alors que certaines des requêtes et réponses en surbrillance sont inoffensives – itinéraires de trip, conseils de recettes – les autres révèlent des emplacements, des numéros de téléphone et d’autres informations sensibles, tous liés aux noms d’utilisateurs et aux photos de profil.
Calli Schroeder, avocate principale du Electronic Privacy Information Center, a déclaré dans une interview avec Wired qu’elle avait vu des gens «partager des informations médicales, des informations sur la santé mentale, des adresses à domicile, même des choses directement liées aux affaires judiciaires en attente».
“Tout cela est incroyablement préoccupant, à la fois parce que je pense que cela indique comment les gens comprennent les malentendus ce que font ces chatbots ou ce qu’ils sont pour les malentendus comment la vie privée fonctionne avec ces structures”, dit Schroeder.
Il est difficile de savoir si les utilisateurs de l’application savent que leurs conversations avec l’IA de META sont publiques ou quels utilisateurs traînent la plate-forme après que les médias ont commencé à le rendre compte. Les conversations ne sont pas publiques par défaut; Les utilisateurs doivent choisir de les partager.
Il n’y a pas de pénurie de conversations entre les utilisateurs et le chatbot AI de META qui semblent destinés à être privés. Un utilisateur a demandé au chatbot d’IA de fournir un format pour mettre fin à la location d’un locataire, tandis qu’un autre lui a demandé de fournir un avis d’avertissement académique qui fournit des détails personnels, y compris le nom de l’école. Une autre personne a posé des questions sur la responsabilité de leur sœur dans la fraude potentielle de l’impôt sur les sociétés dans une ville spécifique en utilisant un compte qui est lié à un profil Instagram qui affiche un premier et un nom. Quelqu’un d’autre lui a demandé de développer une déclaration de personnage à un tribunal qui fournit également une myriade d’informations personnellement identifiables à la fois sur le criminel présumé et l’utilisateur lui-même.
Il existe également de nombreux cas de questions médicales, notamment des gens qui divulguent leurs difficultés avec les selles, leur demandant de l’aide avec leurs ruches et leur demande une éruption cutanée sur leurs cuisses. Un utilisateur a parlé à Meta IA de sa chirurgie du cou et a inclus son âge et son occupation dans l’invite. Beaucoup, mais pas tous, les comptes semblent être liés à un profil Instagram public de l’individu.
Le porte-parole de Meta, Daniel Roberts, a écrit dans une déclaration envoyée par e-mail à Wired que les conversations des utilisateurs avec Meta IA sont privées, sauf si les utilisateurs passent par un processus en plusieurs étapes pour les partager sur le flux de découverte. L’entreprise n’a pas répondu aux questions concernant les atténuations en place pour partager des informations personnellement identifiables sur la plate-forme META IA.