Chatbots: atendimentos e casos curiosos

Não é todo dia que podemos interagir com o próprio meme, não é mesmo? Assim foi o caso de diversos consumidores, fãs e clientes que puderam participar de algumas situações inusitadas e deixar a internet inteira gargalhando.

Antes de mais nada, sabemos que os chatbots são muito úteis no atendimento ao cliente. Para isso, é preciso que os profissionais envolvidos planejem as soluções mais adequadas para o uso da ferramenta — o que nem sempre acontece!

Separamos alguns casos envolvendo nossos amigos robóticos em que um descuido de configuração ganhou proporções meméticas!

A ex-Panicat que celebrava qualquer coisa… Mesmo!

Ao configurar o chatbot do Facebook de Nicole Bahls, os profissionais que cuidam de sua assessoria parece que não entenderam muito bem como a ferramenta funcionava, adicionando uma frase única para a interação com seus fãs.

A resposta em questão saudava o internauta e prosseguia com o bordão “Ai que tudo!” juntamente com um emoji de coração. Os fãs acabaram percebendo a resposta padrão para qualquer assunto e começaram a, digamos assim, “explorar” as possibilidades com diálogos, no mínimo, duvidosos… O resultado foram memes e mais memes com o perfil da moça.

A marca de cerveja que concordava com tudo

Outro caso semelhante de resposta única foi no Twitter da Itaipava. A campanha fazia alusão ao fim do verão com a “despedida” da personagem de mesmo nome (interpretada pela Aline Riscado). Com o uso de uma hashtag, o consumidor recebia sempre a mesma resposta: “Obrigada! Agora é só torcer pra essa campanha dar certo. Beijos e muitas geladas pra você!”

É claro que a ação não deu certo e não demorou muito para que os internautas começassem a associar à marca com mensagens negativas, já que, em teoria, a brand persona concordava sempre com tudo.

Crise de puberdade de um chatbot

Criado pela Microsoft, Tay é um chatbot com Inteligência Artificial bem avançada. Foi concebido para “emular” um adolescente no Twitter e parece que o resultado foi impactante tanto para a empresa quanto para os internautas.

A ideia era que o algoritmo “aprendesse” com cada interação, alimentando sua base com informações que o deixasse mais humano possível. Parecia um projeto interessante e promissor até que, em determinado momento, começou a dar muito errado.

Tay começou a postar mensagens ofensivas e até se declarou (pasme!) a favor do nazismo! É claro que a Microsoft desativou o chatbot imediatamente e pediu desculpas pelo ocorrido.

E se dois chatbots conversassem?

Famoso por desenvolver diversos projetos relacionados à Inteligência Artificial, o Facebook presenciou um caso curioso de interação entre dois chatbots, cuja linguagem evoluiu ao ponto de deixar de ser compreendida pelos humanos. Assustador, não?

Trata-se de Alice e Bob, dois chatbots distintos e concebidos para fornecer uma interação mais humanizada. Acontece que alguém teve a brilhante ideia de juntá-los numa conversa e ver no que ia dar.

Os bots foram capazes de “fingir” interesse no assunto um do outro, formular frases com semânticas estranhas e até sair da programação original com a qual foram criados. No final, era impossível mensurar qualquer resultado, visto que já se comunicavam em um inglês completamente incompreensível.

Comentários

instant-solutions
Entre em contato!