Mostrar registro simples

dc.contributor.authorBarbon, Rafael Silva
dc.contributor.authorAkabane, Ademar Takeo
dc.date.accessioned2024-03-18T19:51:38Z
dc.date.available2024-03-18T19:51:38Z
dc.date.issued2022-05-23
dc.identifier.urihttp://repositorio.sis.puc-campinas.edu.br/xmlui/handle/123456789/17198
dc.description.abstractModelos de aprendizado de máquina (AM) vêm sendo amplamente utilizados devido à elevada quantidade de dados produzidos diariamente. Dentre eles, destaca-se os modelos pré-treinados devido a sua eficácia, porém estes normalmente demandam um elevado custo computacional na execução de sua tarefa. A fim de contornar esse problema, técnicas de compressão de redes neurais vem sendo aplicadas para produzir modelos pré-treinados menores sem comprometer a acurácia. Com isso, neste trabalho foram utilizados dois diferentes modelos pré-treinados de AM: BERT e DistilBERT na classificação de texto. Os resultados apontam que modelos menores apresentam bons resultados quando comparados com seus equivalentes maiores.pt_BR
dc.description.abstractMachine learning (ML) models have been widely used due to the highamount of data produced daily. Among them, the pre-trained models stand outdue to their effectiveness, but normally these demand a high computational costin the execution of their tasks. To circumvent this problem, neural networkcompression techniques have been applied to produce smaller pre-trained mo-dels without compromising accuracy. Therefore, in this work two different pre-trained models of ML were used: BERT and DistilBERT in text classification.The results show that smaller models present good results when compared totheir larger counterparts.pt_BR
dc.description.sponsorshipCoordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
dc.language.isoporpt_BR
dc.publisherSBC-OpenLib
dc.rightsAcesso abertopt_BR
dc.titleAnálise de performance dos modelos gerais de aprendizado de máquina pré-treinados: BERT vs DistilBERTpt_BR
dc.title.alternativePerformance analysis of general pre-trained machine learning models: BERT vs DistilBERTpt_BR
dc.typeArtigopt_BR
dc.contributor.institutionPontifícia Universidade Católica de Campinas (PUC-Campinas)pt_BR
dc.description.sponsorshipId001
dc.identifier.lattes9713891218812963pt_BR
dc.identifier.lattes6781874728187325pt_BR
puc.centerEscola Politécnicapt_BR
puc.graduateProgramNão se aplicapt_BR
puc.embargoOnlinept_BR
puc.undergraduateProgramEngenharia de Computaçãopt_BR


Arquivos deste item

Thumbnail

Este registro aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples