Tecnologias exclusivas

O sistema Konversas

O Konversas tem diversas funcionalidades exclusivas voltadas para diversos tipos de uso no atendimento a cliente com WhatsApp. São funcionalidades como comportamento diferenciado para chamadas ativas, seleção automática de setores com IA, menu de triagem inteligente, liberdade total de prompt de instruções, e muitas outras.

Porém aqui nessa página vamos mais a fundo e te mostrar tecnologias que estão por trás e que fazem o konversas ter o último nível em capacidade em uso de inteligência artificial para um chat bot. São eles:

Separação semântica de dados de treinamento

Nós chamamos de forma carinho a guarda de dados do seu assistente como treinamento, mas na verdade é um processo complexo feito em etapas que guardam os dados da sua empresa para depois serem acessados e usados para gerar uma resposta.

Quando você envia um arquivo com informações, por exemplo um DOCx. Esse arquivo é particionado em pedaços. A maioria dos sistema de RAG, incluindo grandes empresa como Amazon, Llama, Openai e outras, fazem essa separação por tamanho de texto. Alguns usam sistemas mais avançados que consideração alguma estrutura do arquivo, mas ainda assim muito caros e pouco eficientes.

O Konversas criou sua própria forma de fazer isso, uma separação semântica dos seus dados, considerando totalmente a estrutura hierárquica dos arquivos, esses blocos semânticos depois são vetorizados e armazenados em nossa base para serem usados para gerar respostas.

Sem entrar em detalhes técnicos, o ponto é que a separação semântica que fazemos resulta em uma resultado de resposta de muito melhor qualidade, porque facilita encontrar o pedaço de texto necessário para gerar a resposta sem que ele seja pequeno ou grande demais, contendo informações de outros assuntos que confundem os modelos. O resultado é que conseguimos respostas melhores mesmo usando modelos menos "expertos" em muitos casos.

Nosso sistema funciona melhor em todos os casos, mas obtem resultados ainda melhores com arquivos DOCx ou HTML. Arquivos PDF são naturalmente complicados e um grande desafio para qualquer sistema, e acredite, nem mesmo sistemas super avançados e caríssimos como Amazon textractor em sua melhor versão conseguem resultados satisfatórios com esse tipo de arquivo.

Análise de complexidade e seleção de modelos

O Konversas, tem no seu processo, em cada resposta que geramos, um passo de análise de complexidade da mensagem do usuário, onde é avaliado a quantidade de perguntas dentro da mensagem, o grau de raciocínio e cálculos necessários para obter uma resposta, e a quantidade de informação que precisa ser acessada. Com essa análise conseguimos dinamicamente selecionar modelos de IA que iremos utilizar para gerar a resposta, usando modelos de boa qualidade e mais baratos na maior parte do tempo, e modelos super avançados e mais caros quando necessário.

Esse processo é opcional e é indicado para clientes que não precisam de modelos super avançados e respostas complexas na maioria do tempo, mas podem ter a disposição um modelo avançado pontualmente. Só o Konversas tem isso.

Distinção inteligente de perguntas

Quando um cliente manda uma mensagem, o seu assisntente não lê todos os dados que temos cadastrados para treinamento, isso seria inviável tecnicamente e financeiramente. O que acontece por trás é que existe um sistema de seleção semântica de blocos de texto que tem similaridade com a mensagem recebida e esses blocos são lidos para se gerar uma resposta. Funciona perfeitamente no Konversas por conta da nossa tecnologia de separação desses blocos.

Porém há situações onde em uma mesma mensagem há perguntas ou afirmações de assuntos diferentes e isso confunde e dificulta a busca de blocos que atendam todas as questões simultaneamente.

O que o Konversas faz, com nossos processo internos, é identificar essas mensagens, separar os assuntos da mensagem e buscar blocos de texto para resposta individualmente cada um deles. Isso aumenta significativamente a qualidade das respostas e diminui a confusão que os modelos de IA poderia experimentar.

Esse recurso, quando acionado em mensagens complicadas, consome mais dos modelos de IA, custa um pouco mais em créditos, mas é muito mais barato do que se cada uma fosse respondida individualmente e no final faz você economizar pelo menos 40% do que gastaria para responder essas perguntas.

Mesmo com resultado cerca de 60% melhor do que sem esse recurso, qualquer sistema de RAG ou chatbot com IA ainda tem limitações em responder diversas coisas ao mesmo tempo, e se você pensar bem, nós também temos. Os sistemas estão evoluindo para ficarem tão bons quanto um profissional ´qualificado, mas também esbarram em algumas dificuldades que os melhores seres humanos também tem.

Uma boa prática é orientar seus clientes a perguntar uma coisa de cada vez para ter quase certeza do sucesso, mas como sabemos que o mundo real não é assim, essa tecnologia está aqui para nos ajudar.

Esse recurso é automático, funciona em todos os tipos de assistente e não precisa de nenhuma ação sua para funcionar.

Atualizado