Atualmente, os aparelhos de assistente digital são os que mais se aproximam de uma inteligência artificial no dia a dia. A cada dia, tornam-se mais populares e mais comuns nas casas realizando novas tarefas.
A base da tecnologia veio com os métodos de compreensão da linguagem natural (NLU). E também reconhecimento automático de fala (ASR).
Ambas dependem de um conjunto de dados. O que acabou resultando em uma rápida evolução dos métodos de IA na linguagem dos aparelhos.
Esses métodos se mostraram um componente padrão de qualquer estrutura de um profundo aprendizado, o que permite a construção de agentes de conversação sofisticados.
Por sua vez, nem tudo é perfeito. Até porque os desafios são muito diferentes comparado com a escala de um assistente digital.
Normalmente, a precisão dos modelos de aprendizado de uma máquina nessas ações é aprimorado pela transcrição manual.
Mas, é uma tarefa cara e demorada. Ainda mais quando é preciso implementar em diferentes domínios e atividades.
O resultado? Pesquisadores de IA iniciaram uma exploração de técnicas, como aprendizado semi-supervisionado ou aprendizado por reforço.
A equipe do Alexa, da Amazon, escolheu uma direção diferente, aproveitando uma disciplina de aprendizado mais profunda. E também pouco conhecida.
O processo da auto-aprendizagem
Conceitualmente, a auto-aprendizagem se refere a sistemas que conseguem aprender automaticamente através de interações com o ambiente.
Com base nessa definição, a ideia de trazer esse aprendizado ao Alexa, por exemplo, é de construir uma arquitetura que detecte erros, gere reformulações e implante correções no sistema.
Reformulações em tempo real, por exemplo, podem servir essencialmente para treino. Resultando, assim, em melhorias nas interações.
E para criar um mecanismo de reformulação em tempo real, a equipe da Amazon inovou uma técnica já padrão: cadeias de Markov.
Essas cadeias modelam um sistema dinâmico, como uma sequência de estados. Cada um com certa probabilidade de fazer a transição para qualquer um de vários outros estados.
O mecanismo de autoaprendizagem do sistema do Alexa é baseado em uma variação do método conhecido como absorção de cadeias de Markov (AMC). E elas possuem duas propriedades distintas:
- Possui um estado final, com probabilidade zero de transição para outro;
- Estado final é acessível a partir de qualquer outro estado do sistema.
As sequências de modelo de mecanismo de autoaprendizagem da Alexa seguem solicitações reformuladas, com absorventes de cadeias de Markov. Nisso, existem dois estados: sucesso e fracasso.
Os dois são descobertos através de pistas.
Então, se o consumidor disser uma ação com limitadas solicitações, o estado de absorção se torna uma falha.
Por outro lado, se o pedido final for uma música que poderá ser tocada por um período substancial de tempo, o estado de absorção será um sucesso.
O processo de um assistente digital
O primeiro passo no algoritmo de reformulação de autoaprendizagem do Alexa é construir uma AMC com milhões de interações.
O passo seguinte é calcular a frequência com que um determinado estado seguiria outro, dentro de todas as cadeias de Markov absorventes.
Depois de uma AMC agregada, o modelo de autoaprendizagem precisa identificar o caminho que leva, com maior probabilidade, ao sucesso.
Para construir e implementar esse mecanismo, foi utilizada uma arquitetura muito simples.
O sistema de conversação IA do Alexa segue um padrão arquitetural muito estabelecido em outros assistentes de voz digitais baseados em nuvem.
Estes, compostos por sistemas ASR e NLU com um gerenciador de diálogo integrado e um sistema de conversão de texto em fala (TTS).
Na estrutura, a equipe adicionou um mecanismo de reformulação de autoaprendizagem que, primeiro intercepta o enunciado que está sendo passado para o sistema NLU.
E o reescreve com o mecanismo de reformulação.
Depois, o mecanismo repassa a reescrita da expressão original de volta à NLU para interpretação, restaurando o fluxo original de dados.