Reinventando as Conversas com IA: Entrevista Exclusiva com Rodrigo Scotti, CEO da Nama, sobre a Evolução da Interação Humano-Máquina

entrevista llm nama ura cognitiva Dec 06, 2023

Tivemos uma conversa amistosa com o CEO da Nama, Rodrigo Scotti, e ele compartilhou a trajetória da sua empresa e o seu papel na integração das inteligências artificial e humana. 

 

Arara Você é fundador e CEO da Nama. Nos conte um pouco mais sobre a empresa, que tem em seu Slogan a utilização de inteligências humanas e artificiais para ajudar empresas a fornecer melhores experiências.

Scotti: A Nama foi fundada em 2014, surgindo do desejo de aprimorar a interação humano-máquina. Entre 2011 e 2013, eu havia fundado outra startup com uma visão similar. Naquela época, nosso produto visava transformar textos em vídeos com narrativas concisas, facilitando o consumo de conteúdo de notícias e redes sociais. Tivemos a Editora Abril como cliente, e nosso aplicativo alcançou muitos downloads e avaliações positivas na App Store. A evolução natural desse trabalho foi criar um diálogo com a máquina, o que levou à criação da Nama. Minha experiência prévia foi crucial para me aprofundar em aprendizado de máquina e em tecnologias de síntese e reconhecimento de voz. Isso foi fundamental para desenvolver algo inovador para a época: permitir que negócios tivessem sua própria 'Siri', mas no WhatsApp. Era dessa forma que pensávamos, considerando que havia poucas referências no campo – o termo 'chatbot' já existia, mas era considerado algo antigo e limitado. Ferramentas da IBM, Google ou Microsoft não estavam disponíveis. Nossa proposta então se baseou no framework AIML, com a intenção de aprimorá-lo para incluir, entre outras funcionalidades, serviços modernos, a adição de Machine Learning e multicanalidade.

Arara Sempre foi assim, ou no início a solução era outra?

Scotti – No primeiro ano da Nama, a situação era bem distinta. Inicialmente, nosso objetivo era desenvolver um aplicativo de consumo de notícias, cujo diferencial residia em um sistema de recomendação aprimorado por Processamento de Linguagem Natural. Desenvolvemos o aplicativo, mas os modelos de Machine Learning daquele período exigiam extenso treinamento e otimização. Essa demanda, somada à incerteza inerente a um modelo de negócios voltado ao consumidor final (B2C), que requer um investimento significativo antes de começar a gerar receita, nos levou a optar por uma abordagem B2B. O ano de 2014 foi dedicado quase exclusivamente ao desenvolvimento do aplicativo de notícias, enquanto 2015 foi focado na construção da primeira versão da plataforma da Nama. Ao final desse ano, já possuíamos uma versão funcional, integrando inteligência artificial, com o Poupatempo como nosso primeiro grande caso de sucesso.

Arara O que te fez mudar a direção da empresa, o foco do negócio e/ou o produto?

Scotti –  A evolução da nossa empresa não foi marcada por uma única grande mudança, mas por uma série de ajustes ao longo de uma década. Nos primeiros anos, a transformação era evidente na visão e no propósito do nosso produto. Entre 2014 e 2015, enfrentamos incertezas e a tensão natural de sermos pioneiros. No entanto, com o surgimento dos chatbots, em especial após o anúncio do Facebook em 2016, nossa posição de liderança foi consolidada, impulsionada por sucessos como o Poupatempo.

Em 2018, percebemos a necessidade de alinhar nosso produto às demandas de mercado. O cenário estava saturado com ferramentas que prometiam inteligência artificial, mas ofereciam pouco além de comandos básicos. Isso nos impulsionou a refinar nosso foco em IA, culminando na descontinuação do Nama Desk em favor dos avanços com tecnologia de Transformers. Nosso compromisso com a pesquisa e desenvolvimento persistiu, levando-nos a aprimorar métodos de compreensão e geração de linguagem natural.

Ao investir em busca semântica, melhoramos significativamente a eficácia e a velocidade das soluções para nossos clientes. Isso nos levou ao desenvolvimento de uma nova plataforma no-code em 2020, que culminou no lançamento do Nama App em 2021. Esta plataforma utiliza LLM com busca semântica para automatizar respostas e a busca por informações, marcando uma nova era para nossa tecnologia de IA e posicionando-nos estrategicamente na vanguarda do mercado.

 Arara Em termos de tendências emergentes nas áreas de IA e Mercado Conversacional, o que sua empresa está acompanhando? Quais são as suas apostas no momento?

Scotti – Percebemos que a busca semântica, os embeddings e as bases de dados vetoriais estão se tornando cada vez mais reconhecidas como essenciais para as aplicações de LLMs (Large Language Models) no ambiente empresarial. Essa tem sido a nossa área de foco há alguns anos. Existem diversos componentes e variáveis necessários para se obter uma aplicação eficaz desse tipo. Por isso, estamos constantemente aprimorando e expandindo nossos produtos e APIs para clientes e parceiros. É uma jornada que está apenas começando.

Quanto às apostas, noto uma grande excitação do público a cada novo lançamento de um LLM ou de uma funcionalidade da OpenAI. No entanto, observo que poucos realmente compreendem para que esses componentes servem e o impacto real que eles têm na construção ou escala de um produto. Em contrapartida, existe um significativo débito técnico em engenharia de IA no mercado, ou seja, o desafio de fazer com que os modelos atendam a um objetivo de negócio específico e gerem valor concreto. Minha aposta está em ver aplicações eficientes do que já existe hoje. Produtos incríveis já são possíveis com as tecnologias atuais, mas é preciso ter um entendimento técnico básico antes de adotar opiniões generalizadas sobre um novo e 'revolucionário' lançamento em IA.

Arara Há parcerias das quais você está??

Scotti – Com certeza. É graças aos nossos parceiros que estamos aqui e em constante crescimento. A Nama tem uma ampla gama de categorias de parcerias, incluindo integradores e desenvolvedores que utilizam nossa tecnologia para aprimorar seus produtos e ofertas. Temos também parceiros estratégicos, como o Google, por exemplo. Esse, em particular, tem sido um parceiro que compreende a visão da Nama há muitos anos. Através de programas de aceleração, eles têm nos auxiliado significativamente em diversas áreas do nosso negócio.

Arara Como esta solução se integra a outros canais de atendimento ao cliente, como Chatbots, URAs ou Assistentes Virtuais?

Scotti – A integração da API da Nama com ferramentas de chatbot existentes no mercado é realizada de maneira simples, através de uma chamada a um endpoint específico. Para começar a utilizá-la, basta acessar nossa plataforma, adicionar documentos e definir alguns parâmetros essenciais para estabelecer o tom de voz desejado. A partir daí, é possível contar com um modelo de IA generativa altamente eficaz, operando com uma quantidade praticamente ilimitada de dados. Para ilustrar, temos casos em que os modelos processam conjuntos de até 20 milhões de tokens. Isso é mais de 100 vezes o tamanho do clássico "Guerra e Paz" de Lev Tolstói, um dos romances mais extensos já escritos. Quanto à integração com URAs, o processo é igualmente simples. No entanto, é necessário o uso de uma ferramenta de URA cognitiva que esteja conectada à nossa API. Um exemplo disso é nosso parceiro Code7, que oferece integração nativa com a Nama. É realmente impressionante ver o sistema funcionando com voz. As interações são surpreendentemente semelhantes às de filmes de ficção científica.

 Arara Recentemente a Nama e parceiros, promoveram alguns eventos. Pode falar um pouco sobre?

Scott – Certamente. Recentemente, a Nama sediou o "Nama Health & Insurance Morning", reunindo especialistas para discutir inovações práticas e o uso atual de ferramentas de IA na saúde. Entre os destaques, tivemos a contribuição de Roberto Dariva, CEO da Code7, e Rafael Figueroa, CEO da Portal Telemedicina, que apresentaram suas abordagens em suas respectivas áreas. Além disso, um debate com Valter Wolf da ABRIA, com apoio do Google, focou na influência da IA na sociedade. Na sequencia, no Workshop de URA Cognitiva no Google Campus, demonstramos como URAs modernas podem oferecer interações mais intuitivas, beneficiando-se da integração entre as soluções da Nama e Code7. Os participantes desenvolveram protótipos práticos, que puderam levar para testes em suas organizações. Agradecemos a todos pela participação, esses eventos marcaram um avanço significativo para nossa jornada.

 Arara Como você definiria uma URA Cognitiva e como ela se diferencia de uma URA tradicional. E, como a tecnologia de processamento de linguagem natural (NLP) é incorporada em suas soluções de URA Cognitiva, a partir da ferramenta da Nama?

Scotti –  Uma URA Cognitiva pode ser descrita como um termo de marketing que concretiza as inovações recentes em IA dentro de uma aplicação de atendimento telefônico automatizado. Na minha visão, para se distinguir de outras URAs, são necessários alguns componentes fundamentais:

  1. Um sistema de reconhecimento de fala capaz de compreender frases e diálogos completos de maneira precisa, contrastando com soluções anteriores focadas apenas em palavras-chave ou comandos de voz.
  2. Um sistema de compreensão de linguagem natural que entenda o contexto do usuário além de uma simples categoria ou comando. Isso permite, de fato, compreender o que foi dito pelo usuário e oferecer respostas contextualizadas e personalizadas, em contraste com sistemas anteriores que apenas identificavam a categoria e redirecionavam para uma sessão de navegação por opções numeradas ou mensagens genéricas.
  3. Um sistema de síntese de voz natural, também conhecido como síntese de voz neural, é uma abordagem relativamente recente para realizar a síntese de voz que soa consideravelmente melhor e mais humana do que a fala computadorizada comum.

Todas essas etapas tornam-se possíveis graças ao Deep Learning. Agora, com o apoio da IA generativa, podemos dar um passo adiante e alcançar uma interação muito mais pragmática, funcional e natural – ou seja, um grande aliado para uma experiência de usuário satisfatória. Na Nama, focamos especialmente no segundo ponto, compreendendo o que o usuário falou e gerando uma resposta contextualizada com base nas instruções e documentos fornecidos pelo cliente. Quando conectado a uma solução que abarca os outros pontos mencionados, além de, claro, uma conexão com telefonia em nuvem, obtemos uma aplicação que verdadeiramente pode ser chamada de URA Cognitiva.

Arara Essa tecnologia, se aproxima mais de uma representação abstrata de conceitos identificados por estruturas matemáticas e lógicas ou existe algum outro tipo de identificação das relações entre os termos e conceitos envolvidos?

Scotti – Do ponto de vista da inteligência artificial generativa, ao considerarmos como podemos fazer um modelo de linguagem de grande escala (LLM) funcionar com informações contextualizadas, um ponto fundamental é a maneira como a IA compreende conceitos como relações geométricas. Isso faz parte do entendimento sobre os 'embeddings', que são formas pelas quais o modelo de aprendizado de máquina codifica conhecimento em uma palavra ou frase. De forma simplificada, cada conceito, como 'banco' ou 'parque', ocupa uma posição em uma matriz. Para localizar cada palavra, o computador utiliza uma sequência de números, criando assim um vetor e medindo a distância entre as palavras. Portanto, se 'banco' estiver próximo de 'parque', é provável que estejamos falando de um banco para sentar; se estiver próximo de 'empréstimo', refere-se a uma instituição financeira. O mesmo processo ocorre com frases e textos maiores. Há uma aplicação similar para imagens e áudios. A IA também está transformando a maneira como lemos e gravamos informações em bancos de dados, tornando os sistemas de bancos de dados vetoriais extremamente importantes, pois permitem armazenar essa vasta riqueza de informação.

Arara Quais são os principais benefícios que uma URA Cognitiva pode oferecer às empresas e aos clientes?

Scott – O benefício mais significativo é o pragmatismo em termos de resolver problemas do usuário de maneira eficiente. A URA Cognitiva permite agilidade, eficácia e assegura uma experiência de atendimento que se assemelha mais à interação humana no contexto da automação. É notório que o atendimento automatizado já é uma realidade consolidada há anos e continua se expandindo. A URA Cognitiva aprimora este processo, tornando-o mais rápido e eficiente - tanto do ponto de vista do usuário final quanto da empresa que a implementa. É crucial entender que, com essas novas tecnologias, os negócios podem se concentrar mais em seu core-business e também perceber a necessidade de aprimorar seus conteúdos e instruções, pois são eles que alimentam a IA e, consequentemente, a URA Cognitiva, no final das contas.

Arara Então, vocês usam modelos de LLMs no treinamento e aprimoramento dos modelos de NLP para compreensão da linguagem natural?

Scotti – Sim, identificamos muito cedo o potencial dos LLMs em nosso negócio. Inicialmente, o foco foi melhorar as respostas a perguntas frequentes. Começamos usar modelo transformers em 2019, mas, inicialmente, utilizamos apenas algumas de suas tarefas. Um aspecto interessante dos LLMs é que muitos deles desempenham mais de uma tarefa. Com o tempo, esses modelos melhoraram significativamente nisso, o que reduziu a necessidade de ter um modelo específico para cada tarefa. Por exemplo, antes era necessário treinar um modelo para classificação e outro para resumo de texto. Hoje, os modelos multitarefas são muito eficientes em realizar várias tarefas. Atualmente, temos um LLM ajustado com dados próprios, que alimenta nossa pipeline do AI Search, nosso motor de busca semântico.

Arara Como escapam das famosas e indesejadas, alucinações encontradas nestes modelos?

Scotti – Alucinações ocorrem quando o modelo gera uma resposta que parece verossímil, mas contém informações inexistentes ou imprecisas. Esse fenômeno é comum em modelos de linguagem de grande escala (LLMs), pois eles, por natureza, não conseguem verificar ou buscar informações internamente. Para contornar isso, desenvolvemos técnicas avançadas integradas ao nosso AI Search. Assim, garantimos que as respostas do modelo estejam alinhadas a uma "fonte da verdade" fornecida pelo nosso cliente. Isso é crucial para evitar respostas incorretas em aplicações.

Arara Imagino que a questão da alucinação não seja o único desafio. Quais são os desafios mais comuns ao implementar uma URA Cognitiva, e como a Nama se tornou precursora nesse segmento, no Brasil?

Scotti –  De fato, a implementação de uma URA Cognitiva envolve vários desafios, que vão além da própria Inteligência Artificial. Eles também abrangem todo o processo de engenharia da aplicação. Com a Inteligência Artificial se tornando mais evidente e saindo da "bolha", há uma expectativa crescente por uma experiência do usuário (UX) de maior qualidade. Por isso, é crucial analisar como a jornada do usuário é executada em sua totalidade. Não basta ter um sistema avançado de diálogo com o consumidor se ele não fornece informações corretas, não resolve problemas de forma eficaz e não é acessível ao público. Por exemplo, o tempo de resposta de uma aplicação como essa deve ser rápido para evitar frustrações dos usuários e custos adicionais para a empresa. Outro aspecto importante é a capacidade de acessar informações de múltiplas bases de conhecimento atualizadas. Além disso, é essencial entender o objetivo geral do negócio e como diferentes modalidades de interação, além da URA cognitiva, podem complementar uma jornada bem-sucedida. Isso inclui chatbots no WhatsApp e páginas web.

Arara Quais são os principais casos de uso para suas soluções de URA Cognitiva?

Scotti – Existem inúmeras aplicações, e é crucial entender como se dá a comunicação com seu público atualmente. Os casos de uso mais comuns envolvem funcionalidades informativas e transacionais, como consultas e agendamentos. Normalmente, os canais de atendimento existentes, que já servem ao público, indicam as possíveis aplicações de uma URA Cognitiva. No entanto, é essencial manter uma mente aberta, já que o comportamento do público pode ser imprevisível. Por exemplo, em nossa experiência com o Poupatempo, o Poupinha emergiu como um dos primeiros bots do mundo para serviços públicos. Antes disso, o telefone e o portal web eram os canais mais utilizados. Na primeira semana de operação do Poupinha, quase 70% dos atendimentos foram transferidos para o bot, sem nenhuma divulgação prévia. Isso aconteceu em 2015. Jamais esperávamos um resultado tão significativo em tão pouco tempo, especialmente considerando a transição para um meio de comunicação textual. Esse caso exemplifica o potencial surpreendente da URA Cognitiva, que pode ser eficaz e resolver questões no mesmo meio em que o cliente já se sente seguro ou é o único ao qual tem acesso.

Arara Está claro que a Ferramenta aplicada em uma URA Cognitiva lida com consultas ou solicitações complexas dos usuários. Você poderia nos fornecer exemplos de empresas ou clientes que alcançaram resultados notáveis utilizando a ferramenta? 

Scott – Os casos mais notáveis são aqueles nos quais o usuário apresenta uma frase complexa, e a resposta consegue entender as nuances para trazer um retorno preciso. Por exemplo, posso perguntar sobre a “cobertura do meu seguro em relação a internação médica por covid no México” e obter uma resposta contextualizada e empática. Esse é um exemplo real das aplicações que temos em conjunto com nossos parceiros e seus clientes. Outro caso interessante ocorre no suporte técnico de uma empresa de software, que atende seus clientes por diversos meios, incluindo chatbot e URA Cognitiva. A aplicação fornece informações de maneira eficaz para esclarecer dúvidas sobre seus produtos técnicos.

Arara Qual ou quais métricas foram utilizadas para medir o sucesso destas implementações?

Scotti – As métricas foram basicamente perguntas realizadas, perguntas respondidas (positiva, negativa ou neutro) – assim como a feedback livre capturado por pesquisa ao final do atendimento.

Arara O tema privacidade e a segurança dos dados dos usuários é tratado nestas aplicações? É um desafio ou algo já superado?

Scotti – Há algum tempo, o mercado reconhece a importância da LGPD (Lei Geral de Proteção de Dados). Além de cumprir as conformidades padrão relacionadas à LGPD, é essencial salientar que as informações coletadas sobre o uso da aplicação são empregadas para fins de suporte e pesquisa. Esses dados são mantidos de forma segura e privada, respeitando os termos dos contratos estabelecidos com nossos clientes.

Arara Quais são os planos futuros de desenvolvimento e inovação para Nama?

Scotti – No momento, contamos com um roadmap voltado principalmente para potencializar nossas capacidades de engenharia. O objetivo é garantir que nossos modelos principais operem o mais próximo possível de sua capacidade total. É importante ressaltar que muitos dos modelos atuais ainda não são utilizados em toda a sua extensão. Fundamentalmente, nosso foco está em compreender de maneira aprofundada nossas operações e estratégias de crescimento, sempre com o compromisso de oferecer a melhor experiência e os serviços mais eficientes para nossos clientes e usuários.

Arara Por fim, como você vê o futuro da IA e seu impacto nas interações entre empresas e clientes do Mercado Conversacional?

Scott – Tudo está evoluindo muito rapidamente, mas é crucial distinguir o 'hype' dos resultados efetivos, separando o real da fantasia no mundo da IA. De fato, percebemos que o cenário avançado da IA gera muita excitação, mas também consideráveis preocupações. É vital que ajudemos o mercado a compreender plenamente o funcionamento técnico da IA e como as aplicações podem ser expandidas de maneira sustentável. Atualmente, nós, como desenvolvedores de IA, temos a responsabilidade de moldar um futuro mais humano e simples com a IA. Mas, em breve, a IA será uma responsabilidade compartilhada no cotidiano de todas as instituições.

Arara  Obrigado por compartilhar com a gente toda a sua expertise. A Nama continua se destacando como uma plataforma que vai além do conceito tradicional de chatbots. Certamente os nossos leitores terão insights valiosos sobre o futuro da Inteligência Artificial e suas aplicações práticas. 

Mais artigos

Reinventando as Conversas com IA: Entrevista Exclusiva com Rodrigo ...

Como a tecnologia GPT-3 pode fazer a diferença na criação de Chatbots?

Desrobotizando os Bots

Se inscreva na nossa newsletter ✉️

Assine nossa newsletter e receba novos conteúdos por e-mail a cada duas semanas