dc.contributor.author | Barbon, Rafael Silva | |
dc.contributor.author | Akabane, Ademar Takeo | |
dc.date.accessioned | 2024-03-18T19:51:38Z | |
dc.date.available | 2024-03-18T19:51:38Z | |
dc.date.issued | 2022-05-23 | |
dc.identifier.uri | http://repositorio.sis.puc-campinas.edu.br/xmlui/handle/123456789/17198 | |
dc.description.abstract | Modelos de aprendizado de máquina (AM) vêm sendo amplamente utilizados devido à elevada quantidade de dados produzidos diariamente. Dentre eles, destaca-se os modelos pré-treinados devido a sua eficácia, porém estes normalmente demandam um elevado custo computacional na execução de sua tarefa. A fim de contornar esse problema, técnicas de compressão de redes neurais vem sendo aplicadas para produzir modelos pré-treinados menores sem comprometer a acurácia. Com isso, neste trabalho foram utilizados dois diferentes modelos pré-treinados de AM: BERT e DistilBERT na classificação de texto. Os resultados apontam que modelos menores apresentam bons resultados quando comparados com seus equivalentes maiores. | pt_BR |
dc.description.abstract | Machine learning (ML) models have been widely used due to the highamount of data produced daily. Among them, the pre-trained models stand outdue to their effectiveness, but normally these demand a high computational costin the execution of their tasks. To circumvent this problem, neural networkcompression techniques have been applied to produce smaller pre-trained mo-dels without compromising accuracy. Therefore, in this work two different pre-trained models of ML were used: BERT and DistilBERT in text classification.The results show that smaller models present good results when compared totheir larger counterparts. | pt_BR |
dc.description.sponsorship | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) | |
dc.language.iso | por | pt_BR |
dc.publisher | SBC-OpenLib | |
dc.rights | Acesso aberto | pt_BR |
dc.title | Análise de performance dos modelos gerais de aprendizado de máquina pré-treinados: BERT vs DistilBERT | pt_BR |
dc.title.alternative | Performance analysis of general pre-trained machine learning models: BERT vs DistilBERT | pt_BR |
dc.type | Artigo | pt_BR |
dc.contributor.institution | Pontifícia Universidade Católica de Campinas (PUC-Campinas) | pt_BR |
dc.description.sponsorshipId | 001 | |
dc.identifier.lattes | 9713891218812963 | pt_BR |
dc.identifier.lattes | 6781874728187325 | pt_BR |
puc.center | Escola Politécnica | pt_BR |
puc.graduateProgram | Não se aplica | pt_BR |
puc.embargo | Online | pt_BR |
puc.undergraduateProgram | Engenharia de Computação | pt_BR |