Da sich KI-Modelle weiterentwickeln, werden Hilfe- und Support-Tickets in Foren KI-gesteuert sein. Midjourney ist für Kunst, was die manuelle Arbeit für Kunst überspringt. Spaßbereiche in Foren werden sich nicht so stark verändern, da KI nicht notwendig ist, wenn man Spaß hat. KI kann auch Code schreiben, was die Erstellung von Komponenten erleichtert.
Hilfe- und Supportforen nutzen seit einiger Zeit automatisierte Prozesse, ob ein “echtes” KI-Tool wie ChatGPT eine Verbesserung darstellt, bleibt abzuwarten, soweit ich das beurteilen kann, neigt ChatGPT dazu, technische Fragen zu verhauen.
Ich habe jahrelang im Kundensupport gearbeitet, daher habe ich mir darüber viele Gedanken gemacht. Aus vielen Gründen halte ich es für wichtig, dass der hochwertige Kundensupport es den Kunden weiterhin ermöglicht, ohne zu viel Aufwand mit einem Menschen in Kontakt zu treten. Es gibt jedoch gute Argumente dafür, den Kunden zu erlauben, KI-gestützte Suche als ersten Versuch zur Beantwortung ihrer Supportanfragen zu nutzen.
Eine Sache, die man sehr beachten muss, ist, dass diese Werkzeuge den Support in den nächsten Jahren verändern werden.
Es ist sehr einfach zu sagen: „Igitt, nichts für mich“, ich möchte 100 % menschlich.
Aber es gibt zwei Zwischenzustände, die wir erreichen werden und die weitaus nuancierter sind.
-
KI-basierte Triage, die sich auf KI für einfache Antworten der ersten Ebene stützt, die Kunden sofort erhalten können, ohne auf den Support warten zu müssen.
-
KI-basierte Werkzeuge, die Support-Ingenieure produktiver machen. Ist es ein vergifteter Brunnen und ein Vertrauensbruch, wenn 21 % von der KI verfasst und von Menschen beaufsichtigt werden? Ich glaube nicht … hier gibt es Nuancen.
Da ich oft mehr über das Produkt weiß als das First-Level-Support-Team, kann KI die Dinge kaum schlimmer machen, und mit Spracherkennungs-/Sprachsoftware könnte es sogar einfacher sein, ein Gespräch zu führen, obwohl ein Gespräch mit Alexa oder Siri frustrierend sein kann.
Ich hatte so viele Tickets, die bei einem großen Softwareunternehmen an den Level-2- oder Level-3-Support eskaliert wurden, dass sie mir schließlich eine Möglichkeit gaben, die Level-1-Gruppe zu umgehen.
Ich bin vorsichtig bei Argumenten vom Typ „kann es kaum schlimmer machen“ für alles, was groß angelegte soziale Veränderungen beinhaltet. Es gibt nur wenige komplexe Probleme, die nicht schlimmer gemacht werden können. Ein schrittweises Vorgehen in Richtung gewünschter Ergebnisse scheint ein vernünftigerer Ansatz zu sein.
Mein Interesse daran rührt daher, dass ich als Kundendienstmitarbeiter gearbeitet habe. Ich empfinde eine gewisse Verbundenheit mit den Millionen von Menschen auf der ganzen Welt, die ähnliche Arbeiten ausüben. Die Tatsache, dass „Kundendienstmitarbeiter“ ganz oben auf den Listen der Berufe steht, die voraussichtlich von KI betroffen sein werden, ist besorgniserregend. Beachten Sie, dass Menschen aus marginalisierten Gruppen stark im Kundendienstpersonal vertreten sind.
Das klingt nach einem schlecht strukturierten Supportsystem. Die Level-1-Gruppe muss nicht unbedingt in der Lage sein, Ihr Problem zu lösen. Was sie tun können müssen, ist, Ihr Problem zu verstehen, sich hineinzuversetzen und motiviert zu sein, dafür zu sorgen, dass es gelöst wird.
Discourse hat die Möglichkeit, führend darin zu sein, wie KI in Kundensupportsysteme integriert wird. Ich habe nicht viel dazu beizutragen, außer zu versuchen, die Rolle von menschlichem Verständnis, Empathie und Motivation bei der Arbeit im Kundensupport hervorzuheben. LLMs können diese Attribute bis zu einem gewissen Grad nachahmen, aber aus meiner Sicht ist das keine angemessene Nutzung der Technologie.
Aus Kundensicht, um Sam Altman lose zu zitieren (aus dem Gedächtnis): „Niemand mag es, von einem Computer herablassend behandelt zu werden.“ Wenn LLM-Supportmitarbeiter versuchen, menschliche Besorgnis nachzuahmen, wird dies zu Kundenfrustration führen.
Das weicht vom Thema der Frage ab, wie LLMs Foren beeinflussen werden. Wenn es eine fortgesetzte Diskussion darüber geben soll, wie Discourse-gestützte Kundensupportsysteme durch KI verbessert werden könnten, sollte dies wahrscheinlich in ein separates Thema verschoben werden.
** Bearbeitung: Wenn ich noch einmal darüber nachdenke, glaube ich, dass das Zitat von Sam Altman näher an „Niemand mag es, von einer Maschine beschimpft zu werden“ lag. Beachten Sie, dass meine Korrektur ein Beispiel dafür ist, wie menschliche Motivation oft eine korrigierende Funktion erfüllt.
Niemand hört gerne die Frage: „Sind Sie sicher, dass es eingesteckt ist?“, aber ich habe sie schon oft gehört.
Ich habe auch viele Stunden im Helpdesk verbracht. Aber es war eine Frage des Stolzes, dass wir mehr wussten als unsere Benutzer, und wir wurden regelmäßig vom Helpdesk-Supervisor und anderen befragt, um sicherzustellen, dass wir auf dem Laufenden waren. Aber der erste Schritt war immer, eine Kombination aus dem herauszufinden, was der Benutzer zu tun versuchte, und wie viel der Benutzer darüber wusste.
Die Mitarbeiter des Helpdesks schrieben ein Eliza-Programm, das die ersten paar Minuten vieler Support-Gespräche nachahmte.
Ich habe mich nicht beschwert, als mir dieses Softwareunternehmen eine direkte Leitung zum Level-3-Support gab, und das Level-3-Team auch nicht. Tatsächlich gaben mir ein paar der Entwickler (Level 4) ihre direkten Telefonnummern und riefen mich gelegentlich an!
Wenn sie nicht damit anfangen, befürchte ich normalerweise, dass sie keine Lösung finden werden.
Was frustrierend ist, ist, wenn sie ein Skript lesen, das sie selbst nicht verstehen. Oder schnell vorschlagen, dass die Lösung eine vollständige Neuinstallation des Betriebssystems auf Ihrem Telefon ist.
Wenn ich nicht an Discourse herumschraube, leite ich große Teams in Supportfunktionen. Die Realität ist, dass diese Modelle letztendlich zuverlässiger sein werden als Menschen – immer verfügbar, jederzeit und von überall. Es wird immer eine Nachfrage nach menschlicher Interaktion geben – das glaube ich –, aber ich denke, es ist klar, dass die nächsten Iterationen von LLMs deutlich machen werden, dass KI Nuancen und Stimmungen erkennen und entsprechend reagieren kann. Vielleicht sogar effektiver als Menschen, da die KI-Reaktion vorhersehbarer sein wird.
Natürlich spekuliere ich, aber ich bin ziemlich zuversichtlich, dass die Strategie für Callcenter/Full-Service in 5 Jahren ein ganz anderes Ausmaß haben wird.
Bedeutet das, dass fortschrittlichere KI-Modelle (wir haben GPT-4) die Hauptquelle für Antworten sein werden? Das könnte dazu führen, dass Menschen weniger Arbeit für Antworten haben. Genauigkeit ist ebenfalls wichtig, überprüfen Sie Fehler doppelt.
100%. Es ist nicht die Frage ob, sondern wann.
Man könnte vernünftigerweise argumentieren, dass Suchmaschinen bereits zum Hauptgericht für Antworten geworden sind. Sie haben Enzyklopädien praktisch aus dem Geschäft gedrängt.
Eine ChatGPT-fähige Suchmaschine (was vielleicht redundant ist) könnte sich schließlich kaum noch von einem menschlichen Chatpartner unterscheiden lassen.
Mein Kunde hat gerade mit Chatbot live geschaltet
Wir nutzen es (derzeit gpt-4o) als Ergänzung für das Support-Team. Die Hauptvorteile sind:
- 24/7 verfügbar, einschließlich Nächte und Wochenenden, wie das Forum
- Reagiert sofort, während unser menschliches Support-Team etwas länger braucht
- Kann möglicherweise Fragen beantworten, die Sie mit einer Forensuche nicht beantworten konnten
Zwar kann es manchmal bei technischen Fragen daneben liegen. Dies zu minimieren, war die größte Herausforderung. Die Fähigkeit, den Chat an unser menschliches Team zu eskalieren, ist entscheidend. Derzeit geschieht dies in knapp 50 % der Chats. Ich werde einen detaillierteren Bericht darüber verfassen, wie es läuft, nachdem es länger in Betrieb ist und wir mehr Feedback haben.
Kannst du erraten, was der industrielle Durchschnitt ist? Denn das klingt wirklich hoch. Andererseits – ich habe irgendwann in meinem Leben für ein globales Timesharing-Unternehmen in Cork, Irland, gearbeitet, und ich hatte das Gefühl, dass fast jeder Anruf eskalierte, wenn ein Reiseleiter US- oder UK-Kunden nicht das anbieten konnte, was sie wollten. Im Vergleich dazu ist die Hälfte ein erstaunliches Ergebnis.
Ich kenne den Durchschnitt nicht, aber ich bin sicher, dass es davon abhängt, was unterstützt wird.
In unserem Fall können einige unserer Supportanfragen nicht vom Chatbot bearbeitet werden, da sie eine Aktion erfordern. Wenn beispielsweise eine Kontenänderung vorgenommen werden muss oder Ausrüstung zurückgegeben werden muss (was eine Rückerstattung und/oder eine Genehmigung erfordert), kann der Bot dies nicht tun.
Es hängt auch von der Komplexität des technischen Supports ab. Einige Fragen sind einfach. Wenn der Benutzer das Forum mit den richtigen Begriffen durchsucht hätte, hätte er die Antwort gefunden. Aber manche Benutzer fragen lieber einfach nach und bekommen eine Antwort. In diesem Fall ist der Bot ziemlich gut darin, das Forum zu durchsuchen, die Antwort zu finden und sie ihnen zu präsentieren. Aber wenn das Problem eine Untersuchung oder eine multivariate Analyse erfordert, gibt der Bot tendenziell eine allgemeine Antwort, die nicht viel Wert hinzufügt.
Das haben wir jedoch erwartet. Der Aufbau der Wissensbasis und die Verbesserung des Prompts sind fortlaufende Arbeiten. Und wir gehen davon aus, dass sich die LLM und das Plugin ebenfalls ständig verbessern werden.
Jedenfalls übt jede zweite Anfrage von anderen Support-Kanälen ziemlich viel Druck aus.