À mesure que les modèles d’IA progressent, les tickets d’aide et de support sur les forums seront pilotés par l’IA. Midjourney est pour l’art, ce qui évite le travail manuel pour l’art. Les sections de divertissement sur les forums ne changeront pas beaucoup, car l’IA n’est pas nécessaire si vous vous amusez. L’IA peut également coder, ce qui facilite la création de composants.
Les forums d’aide et de support utilisent des processus automatisés depuis un certain temps ; reste à voir si l’utilisation d’un outil d’IA « réel » comme ChatGPT constituera une amélioration. D’après ce que j’ai vu, ChatGPT a tendance à échouer sur les questions techniques.
J’ai travaillé dans le support client pendant des années, j’ai donc beaucoup réfléchi à cela. Pour de nombreuses raisons, je pense qu’il est important que le support client de haute qualité continue de permettre aux clients de contacter un humain sans trop de friction. Il y a cependant de bons arguments pour permettre aux clients d’utiliser la recherche alimentée par l’IA comme première tentative pour répondre à leurs questions de support.
Il faut être très attentif au fait que ces outils vont transformer le support au cours des prochaines années.
Il est très facile de dire « beurk, pas pour moi », je veux 100 % humain.
Mais nous atteindrons deux états intermédiaires qui sont bien plus nuancés.
-
Tri basé sur l’IA, s’appuyant sur l’IA pour les réponses faciles de première ligne que les clients peuvent obtenir immédiatement sans avoir à attendre le support.
-
Outils basés sur l’IA qui rendent les ingénieurs de support plus productifs. Est-ce que 21 % rédigés par l’IA et supervisés par un humain est une source de problèmes et une violation de la confiance ? Je ne pense pas… il y a de la nuance ici.
Étant donné que j’en sais souvent plus sur le produit que l’équipe de support de première ligne, l’IA ne peut guère aggraver les choses, et avec la reconnaissance vocale/logiciel de parole, il pourrait même être plus facile de tenir une conversation, bien que converser avec Alexa ou Siri puisse être frustrant.
J’ai eu tellement de tickets escaladés au support de niveau 2 ou 3 dans une grande entreprise de logiciels qu’ils ont fini par me donner un moyen de contourner le groupe de niveau 1.
Je me méfie des arguments du type « ne peut guère aggraver les choses » pour tout ce qui implique des changements sociaux à grande échelle. Il y a peu de problèmes complexes qui ne puissent être aggravés. Travailler progressivement vers les résultats souhaités semble être une approche plus raisonnable.
Mon intérêt pour cela vient du fait d’avoir travaillé comme représentant du service client. Je ressens un sentiment de parenté avec les millions de personnes dans le monde qui occupent des postes similaires. Voir « représentant du service client » figurer en bonne place sur les listes des emplois susceptibles d’être affectés par l’IA est préoccupant. Notez que les personnes issues de groupes marginalisés sont fortement représentées dans le personnel du service client.
Cela ressemble à un système de support mal structuré. Le groupe de niveau 1 n’a pas nécessairement besoin de pouvoir résoudre votre problème. Ce qu’il doit être capable de faire, c’est de comprendre et d’empathiser avec votre problème et d’être motivé pour qu’il soit résolu.
Discourse est en mesure d’être un leader en matière d’intégration de l’IA dans les systèmes de service client. Je n’ai pas grand-chose à y contribuer, si ce n’est d’essayer de souligner le rôle de la compréhension humaine, de l’empathie et de la motivation dans le travail du service client. Les LLM peuvent imiter ces attributs dans une certaine mesure, mais de mon point de vue, ce n’est pas une utilisation appropriée de la technologie.
Du point de vue du client, pour citer librement Sam Altman (de mémoire), « personne n’aime être condescendu par un ordinateur. » Faire en sorte que les agents de support LLM tentent d’imiter la préoccupation humaine entraînera la frustration des clients.
Cela sort du sujet de la question sur l’impact des LLM sur les forums. S’il doit y avoir une discussion continue sur la manière dont les systèmes de support client alimentés par Discourse pourraient être améliorés par l’IA, cela devrait probablement être déplacé vers un sujet distinct.
** Edit : en y réfléchissant davantage, je pense que la citation de Sam Altman était plus proche de « personne n’aime être réprimandé par une machine ». Notez que ma correction est un exemple de la façon dont la motivation humaine sert souvent de fonction corrective.
Personne n’aime qu’on lui demande « Êtes-vous sûr qu’il est branché ? », mais je l’ai entendu de nombreuses fois.
J’ai moi aussi passé de nombreuses heures au service d’assistance. Mais c’était une question de fierté que nous en sachions plus que nos utilisateurs, et nous étions régulièrement interrogés par le superviseur du service d’assistance et d’autres pour nous assurer que nous étions au courant des choses. Mais la première étape consistait toujours à comprendre une combinaison de ce que l’utilisateur essayait de faire et de ce qu’il en savait.
Le personnel du service d’assistance a écrit un programme Eliza qui imitait les premières minutes de nombreuses conversations de support.
Je ne me suis pas plaint lorsque cette société de logiciels m’a donné un accès direct au support de niveau 3, et l’équipe de niveau 3 non plus. En fait, quelques-uns des développeurs (niveau 4) m’ont donné leurs numéros de téléphone directs, et m’appelaient parfois !
S’ils ne commencent pas par cela, je crains généralement qu’ils ne trouvent pas de solution.
Ce qui est frustrant, c’est quand ils lisent un script qu’ils ne comprennent pas eux-mêmes. Ou suggèrent rapidement que la solution est de réinstaller complètement le système d’exploitation de votre téléphone.
Quand je ne bricole pas Discourse, je dirige de grandes équipes dans les fonctions de support. La réalité est que ces modèles finiront par être plus fiables que les humains - toujours actifs - disponibles n’importe quand et n’importe où. Il y aura toujours une demande d’interaction humaine - je crois - cependant, je pense qu’il est clair que les prochaines itérations des LLM montreront clairement que l’IA peut identifier les nuances et les sentiments, et y répondre en conséquence. Peut-être même plus efficacement que les humains car la réponse de l’IA sera plus prévisible.
Bien sûr, je spécule mais je suis assez confiant que la stratégie des centres d’appels/service complet sera une bête très différente dans 5 ans.
Cela signifie-t-il que lorsque les modèles d’IA deviendront plus avancés (nous avons GPT-4), ils constitueront le plat principal pour les réponses ? Cela pourrait réduire le travail des humains pour obtenir des réponses. La précision est également importante, vérifiez les erreurs.
100 %. Ce n’est pas une question de savoir si, mais de quand.
On pourrait soutenir de manière raisonnable que les moteurs de recherche sont déjà devenus le plat principal pour les réponses. Ils ont pratiquement mis les encyclopédies hors d’affaires.
Un moteur de recherche activé par ChatGPT (ce qui pourrait être redondant) pourrait éventuellement devenir difficile à distinguer d’un partenaire de discussion humain.
Mon client vient de mettre en ligne son Chatbot
Nous l’utilisons (actuellement gpt-4o) en complément de l’équipe de support. Les principaux avantages étant :
- Disponible 24h/24 et 7j/7, y compris la nuit et le week-end, comme le forum
- Répond immédiatement, tandis que notre équipe de support humaine prend un peu plus de temps
- Peut être en mesure de répondre à des questions auxquelles vous n’auriez pas pu répondre avec une recherche sur le forum
Certes, il se trompe parfois sur les questions techniques. Essayer de minimiser cela a été le plus grand défi. La capacité pour lui de transférer le chat à notre équipe humaine est cruciale. Actuellement, cela se produit dans un peu moins de 50 % des chats. Je rédigerai un rapport plus détaillé sur son déroulement après qu’il aura fonctionné plus longtemps et que nous aurons plus de retours.
Pouvez-vous deviner quelle est la moyenne industrielle ? Parce que cela semble très élevé. D’un autre côté, j’ai travaillé pour une société mondiale de multipropriété à Cork, en Irlande, à un moment donné de ma vie, et j’ai eu le sentiment que presque tous les appels étaient escaladés si un guide ne pouvait pas offrir aux clients américains ou britanniques ce qu’ils voulaient, donc par rapport à cela, seulement la moitié est un résultat incroyable.
Je ne connais pas la moyenne, mais je suis sûr que cela dépend de ce qui est pris en charge.
Dans notre cas, une partie de nos questions de support ne peut absolument pas être gérée par le chatbot car elles nécessitent une action. Par exemple, si une modification de compte doit être effectuée ou si un équipement doit être retourné (ce qui nécessite un remboursement et/ou une autorisation), le bot ne peut pas le faire.
Cela dépend aussi de la complexité du support technique. Certaines questions sont simples. Si l’utilisateur avait simplement recherché sur le forum avec les bons termes, il aurait trouvé la réponse. Mais certains utilisateurs préfèrent simplement poser la question et obtenir une réponse. Dans ce cas, le bot est très bon pour rechercher sur le forum, trouver la réponse et la leur présenter. Mais lorsque le problème nécessite une enquête ou une analyse multi-variables, le bot a tendance à donner une réponse générique qui n’apporte pas beaucoup de valeur.
Nous nous y attendions cependant. L’élaboration de la base de connaissances et l’amélioration du prompt sont des travaux en cours. Et nous anticipons que le LLM et le plugin s’amélioreront continuellement également.
Quoi qu’il en soit, chaque deuxième demande provenant d’autres canaux de support exerce une pression considérable.