- Concerne : DG, direction marketing, direction digitale, R&D, consultant.e.s impliqué.e.s
- Le problème : L’intelligence artificielle a le potentiel de réduire les erreurs humaines, mais on ignore encore comment les consommateurs se comportent à son égard.
- La découverte : Les clients dans le commerce de détail sont moins prêts à frauder lorsqu’ils font face à des interlocuteurs humains qu’à une caisse automatique avec IA
- Auteur.e.s de l’étude : Marilyn Giroux et Jungkeun Kim sont chercheurs au département marketing de l’université d’Auckland (Nouvelle-Zélande) ; Jacob C. Lee est à la Dongguk University Businesss School, et Jongwon Park à la Korea University à Séoul (Corée du Sud)
- Data : Trois études par expérimentation (comparaison entre scénarios, 578 participants au total)
- Questions de départ
L’intelligence artificielle (IA) pénètre chaque jour un peu plus le business, non seulement derrière les algorithmes des géants d’Internet, mais aussi dans les process quotidiens qui régissent l’interactions entre les firmes et les consommateurs.
C’est grâce à l’IA que les magasins Amazon Go, aux Etats-Unis, laissent les clients sortir avec leur caddie plein mais sans passer à la caisse. Tout est repéré par des capteurs, et l’IA s’occupe de prélever une facture exacte. Par exemple, l’IA gère les hésitations des clients qui prennent puis reposent un produit sur les gondoles.
Mais les consommateurs se comportent-ils de la même façon dans un tel magasin que dans des conditions plus traditionnelles ? N’ont-ils pas la tentation de profiter de la liberté qui leur est offerte pour frauder ? Leur sens du bien et du mal est-il affecté ?
- ‘Eureka’
L’étude de Marilyn Giroux et ses collègues tout juste publiée au Journal of Business Ethics apporte des éléments de réponse qui pourraient rafraichir l’enthousiasme des firmes militant pour l’IA au titre de la réduction des coûts et du contrôle sur les opérations. Les participants étaient dans un scénario où ils constataient une erreur de la caisse en leur faveur, et l’étude visait à savoir s’ils avaient l’intention de signaler l’erreur.
Dans la distribution avec IA sous la forme d’une caisse automatique, les consommateurs tendent à profiter plus volontiers d’une opportunité de fraude que s’il y a une interaction humaine. La différence était de presque point sur une échelle de 1 à 7 et pourrait être plus grande si l’on intègre le possible biais en faveur de réponses acceptables moralement.
L’explication se situe dans la culpabilité que les consommateurs ressentent à l’idée de signaler ou non l’erreur. Ils se sentent coupables d’en profiter si c’est une vraie personne qui présente la note, et beaucoup moins dans le cas d’une facture affichée par une machine appuyée sur l’intelligence artificielle.
Le facteur éthique, qui différencie agents humains et caisses automatiques, est bel et bien le déterminant. Les consommateurs ne modifient pas leur comportement selon qu’ils pensent que l’erreur est détectable par le commerçant, ni s’ils perçoivent que l’erreur était évitable ou non. Le caractère d’empathie personnelle des consommateurs n’entre pas non plus en ligne de compte.
Dernière nuance, l’une des études révèle qu’il y a un compromis entre le tout-humain et le tout-IA : si l’interface de l’IA est perçue comme ayant des traits humains, par exemple un visage expressif ou une parole, les intentions éthiques restent moins élevées qu’avec une personne, mais plus fortes qu’avec un système automatique froid.
- Connexions
La transformation digitale a changé les compromis que font les firmes entre la réduction des coûts et l’expérience pour les consommateurs. Initialement, la distribution privilégiait la seconde et concentrait l’implémentation de l’IA dans les réserves et la logistique. Alors que l’IA progresse aujourd’hui même dans l’interaction avec les clients, cette étude invite à envisager plus en profondeur quelle qualité de relation les distributeurs entendent développer avec leurs clients.
- En pratique : Évaluation – Outils
o Obtenir les outils de recherche, d’évaluation et de décision
- Références : Giroux, M., Kim, J., Lee, J. C., & Park, J. 2022. Artificial intelligence and declined guilt: Retailing morality comparison between human and AI. Journal of Business Ethics, 178(4): 1027–1041.