BIENVENUE SUR HAITI RENCONTRES
  • Accueil
    • À propos de nous
  • Dernière nouvelle
  • Culture
  • Motivation
  • Science
    • Technologie
  • Contact
Devenir un écrivain
Font ResizerAa
BIENVENUE SUR HAITI RENCONTRESBIENVENUE SUR HAITI RENCONTRES
Search
  • Accueil
  • Dernière nouvelle
  • Haiti Rencontre
    • Culture
  • Motival
  • Science
    • Technologie
  • Contact
Follow US
© haitirencontres.
BIENVENUE SUR HAITI RENCONTRES > Blog > Technologie > Un chatbot du service client d’IA a constitué une politique d’entreprise et a créé un gâchis
Technologie

Un chatbot du service client d’IA a constitué une politique d’entreprise et a créé un gâchis

Ali-HR
Last updated: April 19, 2025 7:24 PM
Ali-HR
Share
Un chatbot du service client d’IA a constitué une politique d’entreprise et a créé un gâchis
SHARE

Contents
Comment ça s’est dérouléLes confabulations d’IA comme risque commercial

Lundi, un développeur utilisant le curseur populaire de l’éditeur de code alimenté par AI a remarqué quelque chose d’étrange: basculer entre les machines les a instantanément enregistrés, brisant un flux de travail commun pour les programmeurs qui utilisent plusieurs appareils. Lorsque l’utilisateur a contacté le support de curseur, un agent nommé “Sam” leur a dit que c’était un comportement attendu dans une nouvelle politique. Mais il n’existait aucune politique de ce type, et Sam était un bot. Le modèle d’IA a fait la politique, déclenchant une vague de plaintes et de menaces d’annulation documentées sur Hacker News et Reddit.

Cela marque le dernier exemple de confabulations d’IA (également appelées “hallucinations”) causant des dommages commerciaux potentiels. Les confabulations sont un type de réponse “créative de remplissage d’écart” où les modèles AI inventent des informations à consonance plausible mais fausses. Au lieu d’admettre l’incertitude, les modèles d’IA priorisent souvent la création de réponses plausibles et confiantes, même lorsque cela signifie fabriquer des informations à partir de zéro.

Pour les entreprises qui déploient ces systèmes dans des rôles orientés clients sans surveillance humaine, les conséquences peuvent être immédiates et coûteuses: les clients frustrés, la confiance endommagée et, dans le cas de Cursor, les abonnements potentiellement annulés.

Comment ça s’est déroulé

L’incident a commencé lorsqu’un utilisateur de Reddit nommé Brokentoasteroven a remarqué qu’en échangeant entre un bureau, un ordinateur portable et une boîte de développement distante, les séances de curseur ont été terminées de manière inattendue.

“La connexion au curseur sur une machine invalide immédiatement la session sur n’importe quelle autre machine”, a écrit Brokentoasteroven dans un message qui a ensuite été supprimé par des modérateurs R / Cursor. “Il s’agit d’une régression UX significative.”

Confus et frustré, l’utilisateur a écrit un e-mail à la prise en charge de Cursor et a rapidement reçu une réponse de SAM: “Cursor est conçu pour fonctionner avec un appareil par abonnement comme fonctionnalité de sécurité”, lisez la réponse par e-mail. La réponse semblait définitive et officielle, et l’utilisateur ne soupçonnait pas que Sam n’était pas humain.

Après le post initial Reddit, les utilisateurs ont pris le poste comme confirmation officielle d’un changement de politique réel – une qui a brisé les habitudes essentielles aux routines quotidiennes de nombreux programmeurs. “Les workflows multi-appareils sont des enjeux de table pour les développeurs”, a écrit un utilisateur.

Peu de temps après, plusieurs utilisateurs ont annoncé publiquement leurs annulations d’abonnement sur Reddit, citant la politique inexistante comme raison. “J’ai littéralement annulé mon sous-marin”, a écrit l’affiche originale de Reddit, ajoutant que leur lieu de travail était maintenant “le purgeant complètement”. D’autres se sont joints: “Oui, j’annule aussi, c’est asinine.” Peu de temps après, les modérateurs ont verrouillé le fil Reddit et supprimé le poteau d’origine.

“Hé! Nous n’avons pas une telle politique”, a écrit un représentant de Cursor dans une réponse Reddit trois heures plus tard. “Vous êtes bien sûr libre d’utiliser le curseur sur plusieurs machines. Malheureusement, il s’agit d’une réponse incorrecte d’un bot de support d’IA de première ligne.”

Les confabulations d’IA comme risque commercial

La débâcle du curseur se souvient d’un épisode similaire de février 2024 lorsque Air Canada a été condamné à honorer une politique de remboursement inventée par son propre chatbot. Dans cet incident, Jake Moffatt a contacté le soutien d’Air Canada après la mort de sa grand-mère, et l’agent d’IA de la compagnie aérienne lui a dit à tort qu’il pouvait réserver un vol à prix régulier et demander des taux de deuil rétroactivement. Lorsque Air Canada a ensuite nié sa demande de remboursement, la société a fait valoir que “le chatbot est une entité juridique distincte responsable de ses propres actions”. Un tribunal canadien a rejeté cette défense, jugeant que les entreprises sont responsables des informations fournies par leurs outils d’IA.

Plutôt que de contester la responsabilité comme Air Canada l’a fait, Cursor a reconnu l’erreur et a pris des mesures pour faire amende honorable. Le cofondateur du curseur Michael Truell s’est excusé plus tard sur Hacker News pour la confusion sur la politique inexistante, expliquant que l’utilisateur avait été remboursé et que le problème résulte d’un changement de backend destiné à améliorer la sécurité des sessions qui a créé involontairement des problèmes d’invalidation de session pour certains utilisateurs.

“Toutes les réponses d’IA utilisées pour l’assistance par e-mail sont désormais clairement étiquetées comme telles”, a-t-il ajouté. “Nous utilisons les réponses assistées par AI comme premier filtre pour l’assistance par e-mail.”

Pourtant, l’incident a soulevé des questions persistantes sur la divulgation des utilisateurs, car de nombreuses personnes qui ont interagi avec Sam pensaient apparemment que c’était humain. “LLMS faisant semblant d’être des gens (vous l’avez nommé Sam!) Et non étiqueté comme tel est clairement destiné à être trompeur”, a écrit un utilisateur sur Hacker News.

Bien que le curseur corrige le bogue technique, l’épisode montre les risques de déploiement des modèles d’IA dans des rôles orientés clients sans garanties et transparence appropriées. Pour une entreprise qui vend des outils de productivité d’IA aux développeurs, le fait que son propre système de support d’IA invente une politique qui aliénait ses principaux utilisateurs représente une blessure auto-infligée particulièrement maladroite.

“Il y a une certaine ironie que les gens essaient vraiment de dire que les hallucinations ne sont plus un gros problème”, a écrit un utilisateur sur Hacker News “, puis une entreprise qui bénéficierait de ce récit se blessera directement.”

Cette histoire est apparue à l’origine sur Ars Technica.

TAGGED:chatbotclientconstituécréedentreprisedIAgâchispolitiqueserviceune
Share This Article
Twitter Email Copy Link Print
Previous Article Miliband dans une attaque boursouflée contre le Net Zero britannique de Farage «non-sens et mensonge» | Énergie renouvelable Miliband dans une attaque boursouflée contre le Net Zero britannique de Farage «non-sens et mensonge» | Énergie renouvelable
Next Article Poutine déclare une «trêve de Pâques» temporaire en Ukraine Poutine déclare une «trêve de Pâques» temporaire en Ukraine
Leave a comment

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Devenir un écrivain

Nous recherchons des écrivains

À propos de nous
Haïti-rencontre est une initiative ambitieuse lancée par des hommes d’horizons divers, dont quelques Haïtiens, préoccupés par l’avenir du monde.
En savoir plus

FacebookLike
TwitterFollow
InstagramFollow
LinkedInFollow
MediumFollow
QuoraFollow

Popular Posts

L’homme tenu soupçonné de meurtre après que la mère et les enfants meurent à Londres Fire | News britanniques

Un homme a été arrêté pour suspicion de meurtre après qu'une mère et trois de…

By Ali-HR

Blog d’archives-it – Archives Unleashed et Archive-it’s Arch Program Update

17 novembre 2021 par l'équipe d'archives-it Archives déchaînées et archives-it Continuer notre travail collaboratif L'intégration…

By Ali-HR

L’Allemagne cherche à expulser 4 manifestants pro-palestiniens: NPR

Les manifestants manifestent à Berlin contre la déportation possible de quatre militants pro-palestiniens étrangers d'Allemagne…

By Ali-HR

You Might Also Like

Trump dit que la «réinitialisation totale avec la Chine» obtenue après que l’accord soit conclu pour faire une pause de la guerre commerciale – Live | US NOUVELLES
Dernière nouvelle

Trump dit que la «réinitialisation totale avec la Chine» obtenue après que l’accord soit conclu pour faire une pause de la guerre commerciale – Live | US NOUVELLES

By Ali-HR
LG Display annonce la viabilité de la technologie “ Dream Oled ” – mais je ne compterais pas pour le voir dans la prochaine génération de téléviseurs OLED
Technologie

LG Display annonce la viabilité de la technologie “ Dream Oled ” – mais je ne compterais pas pour le voir dans la prochaine génération de téléviseurs OLED

By Ali-HR
Choqué que Skype ait perdu la bataille contre Zoom? Je savais que c’était condamné tout le chemin en 2011, et voici pourquoi
Technologie

Choqué que Skype ait perdu la bataille contre Zoom? Je savais que c’était condamné tout le chemin en 2011, et voici pourquoi

By Ali-HR
Évitez votre regard de ces mini figures de Baldur’s Gate 3
Technologie

Évitez votre regard de ces mini figures de Baldur’s Gate 3

By Ali-HR

À propos de nous

Haïti-Rencontres  est une initiative ambitieuse lancée par des hommes d’horizons divers,  préoccupés par l’avenir du monde.

BIENVENUE SUR HAITI RENCONTRES
Facebook Twitter Youtube Rss Medium
Principales catégories
  • Technologie
  • Nouvelles
  • Culture
  • Motival
  • Science
Liens utiles
  • À propos de nous
  • Contact Us
  • politique de confidentialité
  • Termes et conditions
© haitirencontres.
Welcome Back!

Sign in to your account

Lost your password?