• English
    • português (Brasil)
  • português (Brasil) 
    • English
    • português (Brasil)
  • Entrar
Ver registro 
  •   Repositório Institucional PUC-Campinas
  • Produção acadêmica e científica
  • Artigos de periódicos
  • Publicações
  • Ver registro
  •   Repositório Institucional PUC-Campinas
  • Produção acadêmica e científica
  • Artigos de periódicos
  • Publicações
  • Ver registro
JavaScript is disabled for your browser. Some features of this site may not work without it.

Análise de performance dos modelos gerais de aprendizado de máquina pré-Treinados: BERT vs DistilBERT

Autor
Barbon, Rafael Silva
Akabane, Ademar Takeo
Data de publicação
//2022
Tipo de conteúdo
Artigo
Direitos de acesso
Acesso aberto
Metadados
Mostrar registro completo
Resumo
Modelos de aprendizado de máquina (AM) vêm sendo amplamente utilizados devido à elevada quantidade de dados produzidos diariamente. Dentre eles, destaca-se os modelos pré-treinados devido a sua eficácia, porém estes normalmente demandam um elevado custo computacional na execução de sua tarefa. A fim de contornar esse problema, técnicas de compressão de redes neurais vem sendo aplicadas para produzir modelos pré-treinados menores sem comprometer a acurácia. Com isso, neste trabalho foram utilizados dois diferentes modelos pré-treinados de AM: BERT e DistilBERT na classificação de texto. Os resultados apontam que modelos menores apresentam bons resultados quando comparados com seus equivalentes maiores.
 
Machine learning (ML) models have been widely used due to the high amount of data produced daily. Among them, the pre-trained models stand out due to their effectiveness, but normally these demand a high computational cost in the execution of their tasks. To circumvent this problem, neural network compression techniques have been applied to produce smaller pre-trained mo-dels without compromising accuracy. Therefore, in this work two different pre- trained models of ML were used: BERT and DistilBERT in text classification. The results show that smaller models present good results when compared to their larger counterparts.
 
Linguagem
Inglês
Este item aparece nas seguintes coleções:
  • Publicações

Pontifícia Universidade Católica de Campinas
Pontifícia Universidade Católica de Campinas
Entre em contato | Deixe sua opinião

 

Navegue

Todo o repositórioComunidades e ColeçõesPor data do documentoAutoresTítulosAssuntosEsta coleçãoPor data do documentoAutoresTítulosAssuntos

Minha conta

EntrarCadastro

Pontifícia Universidade Católica de Campinas
Pontifícia Universidade Católica de Campinas
Entre em contato | Deixe sua opinião