Destaques

Inteligência artificial da Microsoft supera os seres humanos na compreensão da linguagem natural

Microsoft anuncia avanços em IA, modelo DeBERTa supera humanos em compreensão de linguagem natural com 89,9 pontos no SuperGLUE.
Imagem de: Inteligência artificial da Microsoft supera os seres humanos na compreensão da linguagem natural

A Microsoft anunciou esta semana novos avanços da sua tecnologia de Inteligência artificial (IA). Em publicação em seu blog, a empresa disse que seu modelo atual de IA ultrapassou os humanos em compreensão da linguagem natural (NLU) com benchmarks SuperGLUE.

A solução para o Natural Language Understanding (NLU) tem sido um dos objetivos mais antigos da IA e o SuperGLUE está atualmente entre os benchmarks mais promissores para avaliar modelos de NLU.

O benchmark SuperGLUE consiste em uma ampla gama de tarefas de NLU, incluindo resposta a perguntas, inferência de linguagem natural, resolução de co-referência, desambiguação de sentido de palavra e outros.

Como exemplo do resultados, foi usou uma simples tarefa de raciocínio causal. Dada a premissa "a criança ficou imune à doença" e a pergunta "qual é a causa disso?", O modelo é solicitado a escolher uma resposta entre dois candidatos plausíveis: 1 "evitou exposição à doença", e 2 "Ele recebeu a vacina para a doença".

Embora seja fácil para um humano escolher a resposta certa, esta decisão é um desafio para modelos de IA. Para obter a resposta certa, o modelo precisa entender a relação causal entre a premissa e essas opções plausíveis.

Para lidar melhor com os benchmarks, a Microsoft atualizou o modelo DeBERTa (Decoding-Enhanced BERT with Disentangled Attention) treinando uma versão maior que consiste em 48 camadas de Transformer com 1,5 bilhão de parâmetros.

DeBERTa é um modelo de linguagem neural baseado em Transformer pré-treinado em grandes quantidades de corpora de texto bruto usando aprendizagem auto supervisionada. Como outros PLMs, DeBERTa se destina a aprender representações de linguagem universal que podem ser adaptadas a várias tarefas de NLU downstream.

O modelo DeBERTa de AI agora pontua 89,9 no SuperGLUE pela primeira vez em termos de pontuação macro média, enquanto o modelo de conjunto com 3,2 bilhões de parâmetros pontua 90,3 superando a linha de base humana por uma margem considerável de 90,3 contra 89,8.

O modelo também está no topo da classificação de benchmark GLUE, com uma pontuação macro média de 90,8. Esta não é a primeira vez que um modelo de IA superou as linhas de base humanas.

O modelo de parâmetro "T5 Meena" de 11 bilhões do Google ultrapassou a linha de base humana com uma pontuação de 90,2 em 5 de janeiro, que foi superada pelo modelo DeBERTa da Microsoft em 6 de janeiro.

A Microsoft está integrando o DeBERTa na próxima versão do modelo de representação de linguagem natural Microsoft Turing (Turing NLRv4).

O modelo será treinado em grande escala para oferecer suporte a produtos como Bing, Office, Dynamics e Azure Cognitive Services, alimentando uma ampla gama de cenários envolvendo interações humano-máquina e humano-humano por meio de linguagem natural como chatbot, recomendação, resposta a perguntas, pesquisa, assistência pessoal, automação de suporte ao cliente, geração de conteúdo e outros para beneficiar centenas de milhões de usuários por meio da iniciativa Microsoft AI em escala.

De acordo com a Microsoft, em comparação com o modelo T5 do Google, que consiste em 11 bilhões de parâmetros, o DeBERTa de 1,5 bilhão de parâmetros é muito mais eficiente em termos de energia para treinar e manter, e é mais fácil de compactar e implantar em aplicativos de várias configurações.

"DeBERTa superando o desempenho humano no SuperGLUE é um marco importante em direção à IA geral. Apesar de seus resultados promissores no SuperGLUE, o modelo não está de forma alguma alcançando a inteligência de nível humano da NLU.

Os humanos são extremamente bons em alavancar o conhecimento aprendido em diferentes tarefas para resolver uma nova tarefa com nenhuma ou pouca demonstração específica da tarefa.

Isso é conhecido como generalização composicional, a capacidade de generalizar para novas composições (novas tarefas) de constituintes familiares (subtarefas ou habilidades básicas de resolução de problemas).

Seguindo em frente, vale a pena explorar como fazer o DeBERTa incorporar estruturas composicionais de forma mais explícita, o que poderia permitir combinar computação neural e simbólica de linguagem natural semelhante ao que os humanos fazem", acrescentou a empresa.

O código fonte do modelo DeBERTa de 1,5 bilhão de parâmetros da Microsoft está disponível para o público.

Fonte: Blog Microsoft

Mais vistos da semana