À medida que os modelos de IA avançam, os tickets de ajuda e suporte em fóruns serão impulsionados por IA. Midjourney é para arte, o que pula o trabalho manual para a arte. Seções de “diversão” em fóruns não mudarão muito, devido ao fato de que a IA não é necessária se você estiver se divertindo. A IA também pode codificar, facilitando a criação de componentes.
Fóruns de ajuda e suporte têm utilizado processos automatizados há algum tempo; se usar uma ferramenta de IA “real” como o ChatGPT representará uma melhoria, ainda está para ser visto. Pelo que tenho visto, o ChatGPT tende a errar em perguntas técnicas.
Trabalhei com suporte ao cliente por anos, então pensei muito sobre isso. Por muitas razões, acho importante que o suporte ao cliente de alta qualidade continue permitindo que os clientes entrem em contato com um ser humano sem muita dificuldade. Há um bom argumento a ser feito para permitir que os clientes usem a pesquisa com tecnologia de IA como uma primeira tentativa para responder às suas perguntas de suporte.
Uma coisa a ter muito em mente é que essas ferramentas transformarão o suporte nos próximos anos.
É muito fácil dizer “eca, não para mim”, eu quero 100% humano.
Mas haverá dois estados intermediários que alcançaremos, que são muito mais sutis.
-
Triagem baseada em IA, confiando na IA para respostas fáceis de primeira linha que os clientes podem obter imediatamente sem ter que esperar pelo suporte.
-
Ferramentas baseadas em IA que tornam os engenheiros de suporte mais produtivos. 21% criados por IA e supervisionados por humanos é um poço de veneno e violação de confiança? Acho que não… há nuances aqui.
Dado o quão frequentemente eu sei mais sobre o produto do que a equipe de suporte de primeiro nível, a IA dificilmente pode piorar as coisas, e com reconhecimento de voz/software de fala, pode até ser mais fácil manter uma conversa, embora conversar com Alexa ou Siri possa ser frustrante.
Tive tantos tickets elevados para o suporte de nível 2 ou 3 em uma grande empresa de software que eles acabaram me dando uma maneira de contornar o grupo de nível 1.
Sou cauteloso com argumentos do tipo “dificilmente pode piorar as coisas” para qualquer coisa que envolva mudanças sociais em larga escala. Existem poucos problemas complexos que não podem ser piorados. Trabalhar gradualmente em direção aos resultados desejados parece uma abordagem mais razoável.
Meu interesse nisso vem de ter trabalhado como representante de suporte ao cliente. Sinto uma afinidade com os milhões de pessoas ao redor do mundo que realizam trabalhos semelhantes. Ver “representante de suporte ao cliente” no topo das listas de empregos que se espera serem impactados pela IA é preocupante. Note que pessoas de grupos marginalizados são fortemente representadas na força de trabalho de suporte ao cliente.
Isso soa como um sistema de suporte mal estruturado. O grupo de nível 1 não precisa necessariamente ser capaz de resolver seu problema. O que eles precisam ser capazes de fazer é entender e ter empatia com seu problema e ser motivados a garantir que ele seja resolvido.
O Discourse está em posição de ser um líder em termos de como a IA será integrada aos sistemas de suporte ao cliente. Não tenho muito a contribuir para isso, além de tentar destacar o papel da compreensão humana, empatia e motivação no trabalho de suporte ao cliente. Os LLMs podem imitar esses atributos em algum grau, mas do meu ponto de vista, esse não é um uso apropriado da tecnologia.
Do ponto de vista do cliente, para citar livremente Sam Altman (de memória), “ninguém gosta de ser condescendido por um computador.” Ter agentes de suporte LLM tentando imitar a preocupação humana levará à frustração do cliente.
Isso está saindo do tópico da pergunta sobre como os LLMs impactarão os fóruns. Se houver uma discussão contínua sobre como os sistemas de suporte ao cliente com tecnologia Discourse podem ser aprimorados com IA, isso provavelmente deveria ser movido para um tópico separado.
** Edição: pensando um pouco mais, acredito que a citação de Sam Altman pode ter sido mais próxima de “ninguém gosta de ser repreendido por uma máquina.” Note que fazer essa correção é um exemplo de como a motivação humana muitas vezes serve a uma função corretiva.
Ninguém gosta de ouvir “Tem certeza de que está conectado?”, mas eu já ouvi isso muitas vezes.
Eu também passei muitas horas no help desk. Mas era uma questão de orgulho sabermos mais do que nossos usuários, e éramos questionados regularmente pelo supervisor do help desk e outros para garantir que estávamos atualizados sobre as coisas. Mas o primeiro passo era sempre descobrir uma combinação do que o usuário estava tentando fazer e o quanto o usuário sabia sobre isso.
A equipe do help desk escreveu um programa Eliza que imitava os primeiros minutos de muitas conversas de suporte.
Eu não reclamei quando aquela empresa de software me deu um canal direto para o suporte de nível 3, e a equipe de nível 3 também não. Na verdade, alguns dos desenvolvedores (nível 4) me deram seus números de telefone diretos e, ocasionalmente, me ligavam!
Se eles não começarem com isso, geralmente temo que eles não consigam apresentar uma solução.
O frustrante é quando eles estão lendo um script que eles mesmos não entendem. Ou sugerem rapidamente que a solução é fazer uma reinstalação completa do sistema operacional do seu telefone.
Quando não estou mexendo no Discourse, lidero grandes equipes em funções de suporte. A realidade é que esses modelos eventualmente serão mais confiáveis do que os humanos - sempre ativos - disponíveis a qualquer hora de qualquer lugar. Sempre haverá demanda por interação humana - acredito - no entanto, acho que está claro que as próximas várias iterações de LLMs deixarão muito claro que a IA pode identificar nuances e sentimentos e responder de acordo. Talvez até de forma mais eficaz do que os humanos, já que a resposta da IA será mais previsível.
Claro, estou especulando, mas estou bastante confiante de que a estratégia de call center/serviço completo será uma fera muito diferente em 5 anos.
Isso significa que, quando os modelos de IA se tornarem mais avançados (temos GPT-4), eles serão o prato principal para as respostas? Isso pode fazer com que os humanos trabalhem menos para obter respostas. A precisão também é importante, verifique novamente se há erros.
100%. Não é uma questão de “se”, mas de “quando”.
Você poderia argumentar razoavelmente que os motores de busca já se tornaram o prato principal para respostas. Eles praticamente tiraram as enciclopédias do mercado.
Um motor de busca habilitado para ChatGPT (o que pode ser redundante) pode eventualmente se tornar difícil de distinguir de um parceiro humano de bate-papo.
Meu cliente acabou de entrar no ar com o Chatbot dele
Estamos usando-o (atualmente gpt-4o) como um complemento para a equipe de suporte. Os principais benefícios são:
- Disponível 24 horas por dia, 7 dias por semana, incluindo noites e fins de semana, como o fórum
- Responde imediatamente, enquanto nossa equipe de suporte humano leva um pouco mais de tempo
- Pode ser capaz de responder a perguntas que você não conseguiria responder com uma pesquisa no fórum
É verdade que, às vezes, ele erra em perguntas técnicas. Tentar minimizar isso tem sido o maior desafio. A capacidade de ele encaminhar o chat para nossa equipe humana é crucial. Atualmente, isso está acontecendo em pouco menos de 50% dos chats. Farei um relatório mais detalhado sobre como está indo, depois que estiver funcionando por mais tempo e tivermos mais feedback.
Você pode adivinhar qual é a média industrial? Porque parece muito alto. Por outro lado — trabalhei para uma empresa global de multipropriedade em Cork, Irlanda em algum momento da minha vida, e tive a sensação de que quase toda ligação era escalada se um guia não conseguisse oferecer aos clientes dos EUA ou do Reino Unido o que eles queriam, então, em comparação, apenas metade é um resultado incrível.
Não sei a média, mas tenho certeza de que depende do que está sendo suportado.
No nosso caso, uma parte das nossas perguntas de suporte não pode ser tratada pelo chatbot porque exige uma ação. Por exemplo, se uma alteração de conta precisar ser feita ou se um equipamento precisar ser devolvido (o que requer um reembolso e/ou uma autorização), o bot não pode fazer isso.
Também depende da complexidade do suporte técnico. Algumas perguntas são diretas. Se o usuário tivesse apenas pesquisado no fórum com os termos corretos, teria encontrado a resposta. Mas alguns usuários preferem apenas fazer a pergunta e obter uma resposta. Nesse caso, o bot é muito bom em pesquisar no fórum, encontrar a resposta e apresentá-la a eles. Mas quando o problema requer investigação ou análise multivariável, o bot tende a dar uma resposta genérica que não agrega muito valor.
Nós esperávamos isso. A construção da base de conhecimento e a melhoria do prompt são trabalhos contínuos. E prevemos que o LLM e o plugin também melhorarão continuamente.
De qualquer forma, cada segunda solicitação de outros canais de suporte ajuda a pressionar bastante.