BIENVENUE SUR HAITI RENCONTRES
  • Accueil
    • À propos de nous
  • Dernière nouvelle
  • Culture
  • Motivation
  • Science
    • Technologie
  • Contact
Devenir un écrivain
Font ResizerAa
BIENVENUE SUR HAITI RENCONTRESBIENVENUE SUR HAITI RENCONTRES
Search
  • Accueil
  • Dernière nouvelle
  • Haiti Rencontre
    • Culture
  • Motival
  • Science
    • Technologie
  • Contact
Follow US
© haitirencontres.
BIENVENUE SUR HAITI RENCONTRES > Blog > Technologie > Un chatbot du service client d’IA a constitué une politique d’entreprise et a créé un gâchis
Technologie

Un chatbot du service client d’IA a constitué une politique d’entreprise et a créé un gâchis

Ali-HR
Last updated: April 19, 2025 7:24 PM
Ali-HR
Share
Un chatbot du service client d’IA a constitué une politique d’entreprise et a créé un gâchis
SHARE

Contents
Comment ça s’est dérouléLes confabulations d’IA comme risque commercial

Lundi, un développeur utilisant le curseur populaire de l’éditeur de code alimenté par AI a remarqué quelque chose d’étrange: basculer entre les machines les a instantanément enregistrés, brisant un flux de travail commun pour les programmeurs qui utilisent plusieurs appareils. Lorsque l’utilisateur a contacté le support de curseur, un agent nommé “Sam” leur a dit que c’était un comportement attendu dans une nouvelle politique. Mais il n’existait aucune politique de ce type, et Sam était un bot. Le modèle d’IA a fait la politique, déclenchant une vague de plaintes et de menaces d’annulation documentées sur Hacker News et Reddit.

Cela marque le dernier exemple de confabulations d’IA (également appelées “hallucinations”) causant des dommages commerciaux potentiels. Les confabulations sont un type de réponse “créative de remplissage d’écart” où les modèles AI inventent des informations à consonance plausible mais fausses. Au lieu d’admettre l’incertitude, les modèles d’IA priorisent souvent la création de réponses plausibles et confiantes, même lorsque cela signifie fabriquer des informations à partir de zéro.

Pour les entreprises qui déploient ces systèmes dans des rôles orientés clients sans surveillance humaine, les conséquences peuvent être immédiates et coûteuses: les clients frustrés, la confiance endommagée et, dans le cas de Cursor, les abonnements potentiellement annulés.

Comment ça s’est déroulé

L’incident a commencé lorsqu’un utilisateur de Reddit nommé Brokentoasteroven a remarqué qu’en échangeant entre un bureau, un ordinateur portable et une boîte de développement distante, les séances de curseur ont été terminées de manière inattendue.

“La connexion au curseur sur une machine invalide immédiatement la session sur n’importe quelle autre machine”, a écrit Brokentoasteroven dans un message qui a ensuite été supprimé par des modérateurs R / Cursor. “Il s’agit d’une régression UX significative.”

Confus et frustré, l’utilisateur a écrit un e-mail à la prise en charge de Cursor et a rapidement reçu une réponse de SAM: “Cursor est conçu pour fonctionner avec un appareil par abonnement comme fonctionnalité de sécurité”, lisez la réponse par e-mail. La réponse semblait définitive et officielle, et l’utilisateur ne soupçonnait pas que Sam n’était pas humain.

Après le post initial Reddit, les utilisateurs ont pris le poste comme confirmation officielle d’un changement de politique réel – une qui a brisé les habitudes essentielles aux routines quotidiennes de nombreux programmeurs. “Les workflows multi-appareils sont des enjeux de table pour les développeurs”, a écrit un utilisateur.

Peu de temps après, plusieurs utilisateurs ont annoncé publiquement leurs annulations d’abonnement sur Reddit, citant la politique inexistante comme raison. “J’ai littéralement annulé mon sous-marin”, a écrit l’affiche originale de Reddit, ajoutant que leur lieu de travail était maintenant “le purgeant complètement”. D’autres se sont joints: “Oui, j’annule aussi, c’est asinine.” Peu de temps après, les modérateurs ont verrouillé le fil Reddit et supprimé le poteau d’origine.

“Hé! Nous n’avons pas une telle politique”, a écrit un représentant de Cursor dans une réponse Reddit trois heures plus tard. “Vous êtes bien sûr libre d’utiliser le curseur sur plusieurs machines. Malheureusement, il s’agit d’une réponse incorrecte d’un bot de support d’IA de première ligne.”

Les confabulations d’IA comme risque commercial

La débâcle du curseur se souvient d’un épisode similaire de février 2024 lorsque Air Canada a été condamné à honorer une politique de remboursement inventée par son propre chatbot. Dans cet incident, Jake Moffatt a contacté le soutien d’Air Canada après la mort de sa grand-mère, et l’agent d’IA de la compagnie aérienne lui a dit à tort qu’il pouvait réserver un vol à prix régulier et demander des taux de deuil rétroactivement. Lorsque Air Canada a ensuite nié sa demande de remboursement, la société a fait valoir que “le chatbot est une entité juridique distincte responsable de ses propres actions”. Un tribunal canadien a rejeté cette défense, jugeant que les entreprises sont responsables des informations fournies par leurs outils d’IA.

Plutôt que de contester la responsabilité comme Air Canada l’a fait, Cursor a reconnu l’erreur et a pris des mesures pour faire amende honorable. Le cofondateur du curseur Michael Truell s’est excusé plus tard sur Hacker News pour la confusion sur la politique inexistante, expliquant que l’utilisateur avait été remboursé et que le problème résulte d’un changement de backend destiné à améliorer la sécurité des sessions qui a créé involontairement des problèmes d’invalidation de session pour certains utilisateurs.

“Toutes les réponses d’IA utilisées pour l’assistance par e-mail sont désormais clairement étiquetées comme telles”, a-t-il ajouté. “Nous utilisons les réponses assistées par AI comme premier filtre pour l’assistance par e-mail.”

Pourtant, l’incident a soulevé des questions persistantes sur la divulgation des utilisateurs, car de nombreuses personnes qui ont interagi avec Sam pensaient apparemment que c’était humain. “LLMS faisant semblant d’être des gens (vous l’avez nommé Sam!) Et non étiqueté comme tel est clairement destiné à être trompeur”, a écrit un utilisateur sur Hacker News.

Bien que le curseur corrige le bogue technique, l’épisode montre les risques de déploiement des modèles d’IA dans des rôles orientés clients sans garanties et transparence appropriées. Pour une entreprise qui vend des outils de productivité d’IA aux développeurs, le fait que son propre système de support d’IA invente une politique qui aliénait ses principaux utilisateurs représente une blessure auto-infligée particulièrement maladroite.

“Il y a une certaine ironie que les gens essaient vraiment de dire que les hallucinations ne sont plus un gros problème”, a écrit un utilisateur sur Hacker News “, puis une entreprise qui bénéficierait de ce récit se blessera directement.”

Cette histoire est apparue à l’origine sur Ars Technica.

TAGGED:chatbotclientconstituécréedentreprisedIAgâchispolitiqueserviceune
Share This Article
Twitter Email Copy Link Print
Previous Article Miliband dans une attaque boursouflée contre le Net Zero britannique de Farage «non-sens et mensonge» | Énergie renouvelable Miliband dans une attaque boursouflée contre le Net Zero britannique de Farage «non-sens et mensonge» | Énergie renouvelable
Next Article Poutine déclare une «trêve de Pâques» temporaire en Ukraine Poutine déclare une «trêve de Pâques» temporaire en Ukraine
Leave a comment

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Devenir un écrivain

Nous recherchons des écrivains

À propos de nous
Haïti-rencontre est une initiative ambitieuse lancée par des hommes d’horizons divers, dont quelques Haïtiens, préoccupés par l’avenir du monde.
En savoir plus

FacebookLike
TwitterFollow
InstagramFollow
LinkedInFollow
MediumFollow
QuoraFollow

Popular Posts

Le vaisseau spatial Soyuz MS-26 nous ramène, Russia Crew Retour sur Terre | Actualités spatiales

Un atterrissage sur les steppes du Kazakhstan coïncide avec le 70e anniversaire de l'astronaute américain…

By Ali-HR

7 meilleurs déshumidificateurs que nous avons testés et examinés (2025)

Même si j'ai J'ai passé la meilleure partie de ma vie à vivre dans une…

By Ali-HR

Sean «Diddy» pendait l’ami de Cassie au large du balcon, jury entend | Sean «Diddy» peignes

Le magnat du hip-hop Sean «Diddy» pendait un ami de son ancienne petite amie Casandra…

By Ali-HR

You Might Also Like

À l’ère de l’IA, nous devons protéger la créativité humaine en tant que ressource naturelle
Technologie

À l’ère de l’IA, nous devons protéger la créativité humaine en tant que ressource naturelle

By Ali-HR
Trump responsable de la fiancée de Katy Perry et de Bezos: “Vous ne pouvez pas vous identifier comme astronaute”
Technologie

Trump responsable de la fiancée de Katy Perry et de Bezos: “Vous ne pouvez pas vous identifier comme astronaute”

By Ali-HR
Stranger Things Season 5 diffusera en novembre
Technologie

Stranger Things Season 5 diffusera en novembre

By Ali-HR
La carte à double gpu surprise d’Intel vient de tomber avec 48 Go de VRAM, et cela pourrait secouer la gamme Pro de Nvidia
Technologie

La carte à double gpu surprise d’Intel vient de tomber avec 48 Go de VRAM, et cela pourrait secouer la gamme Pro de Nvidia

By Ali-HR

À propos de nous

Haïti-Rencontres  est une initiative ambitieuse lancée par des hommes d’horizons divers,  préoccupés par l’avenir du monde.

BIENVENUE SUR HAITI RENCONTRES
Facebook Twitter Youtube Rss Medium
Principales catégories
  • Technologie
  • Nouvelles
  • Culture
  • Motival
  • Science
Liens utiles
  • À propos de nous
  • Contact Us
  • politique de confidentialité
  • Termes et conditions
© haitirencontres.
Welcome Back!

Sign in to your account

Lost your password?