Antes de mais nada, sabemos que os chatbots são muito úteis no atendimento ao cliente. Para isso, é preciso que os profissionais envolvidos planejem as soluções mais adequadas para o uso da ferramenta — o que nem sempre acontece!
Separamos alguns casos envolvendo nossos amigos robóticos em que um descuido de configuração ganhou proporções meméticas!
Ao configurar o chatbot do Facebook de Nicole Bahls, os profissionais que cuidam de sua assessoria parece que não entenderam muito bem como a ferramenta funcionava, adicionando uma frase única para a interação com seus fãs.
A resposta em questão saudava o internauta e prosseguia com o bordão “Ai que tudo!” juntamente com um emoji de coração. Os fãs acabaram percebendo a resposta padrão para qualquer assunto e começaram a, digamos assim, “explorar” as possibilidades com diálogos, no mínimo, duvidosos… O resultado foram memes e mais memes com o perfil da moça.
Outro caso semelhante de resposta única foi no Twitter da Itaipava. A campanha fazia alusão ao fim do verão com a “despedida” da personagem de mesmo nome (interpretada pela Aline Riscado). Com o uso de uma hashtag, o consumidor recebia sempre a mesma resposta: “Obrigada! Agora é só torcer pra essa campanha dar certo. Beijos e muitas geladas pra você!”
É claro que a ação não deu certo e não demorou muito para que os internautas começassem a associar à marca com mensagens negativas, já que, em teoria, a brand persona concordava sempre com tudo.
Criado pela Microsoft, Tay é um chatbot com Inteligência Artificial bem avançada. Foi concebido para “emular” um adolescente no Twitter e parece que o resultado foi impactante tanto para a empresa quanto para os internautas.
A ideia era que o algoritmo “aprendesse” com cada interação, alimentando sua base com informações que o deixasse mais humano possível. Parecia um projeto interessante e promissor até que, em determinado momento, começou a dar muito errado.
Tay começou a postar mensagens ofensivas e até se declarou (pasme!) a favor do nazismo! É claro que a Microsoft desativou o chatbot imediatamente e pediu desculpas pelo ocorrido.
Famoso por desenvolver diversos projetos relacionados à Inteligência Artificial, o Facebook presenciou um caso curioso de interação entre dois chatbots, cuja linguagem evoluiu ao ponto de deixar de ser compreendida pelos humanos. Assustador, não?
Trata-se de Alice e Bob, dois chatbots distintos e concebidos para fornecer uma interação mais humanizada. Acontece que alguém teve a brilhante ideia de juntá-los numa conversa e ver no que ia dar.
Os bots foram capazes de “fingir” interesse no assunto um do outro, formular frases com semânticas estranhas e até sair da programação original com a qual foram criados. No final, era impossível mensurar qualquer resultado, visto que já se comunicavam em um inglês completamente incompreensível.
Comentários