| dc.contributor.author | Barbon, Rafael Silva | |
| dc.contributor.author | Akabane, Ademar Takeo | |
| dc.date.accessioned | 2025-04-07T12:34:16Z | |
| dc.date.available | 2025-04-07T12:34:16Z | |
| dc.date.issued | 2022 | |
| dc.identifier.uri | http://repositorio.sis.puc-campinas.edu.br/xmlui/handle/123456789/17757 | |
| dc.description.abstract | Modelos de aprendizado de máquina (AM) vêm sendo amplamente utilizados devido à elevada quantidade de dados produzidos diariamente. Dentre eles, destaca-se os modelos pré-treinados devido a sua eficácia, porém estes normalmente demandam um elevado custo computacional na execução de sua tarefa. A fim de contornar esse problema, técnicas de compressão de redes neurais vem sendo aplicadas para produzir modelos pré-treinados menores sem comprometer a acurácia. Com isso, neste trabalho foram utilizados dois diferentes modelos pré-treinados de AM: BERT e DistilBERT na classificação de texto. Os resultados apontam que modelos menores apresentam bons resultados quando comparados com seus equivalentes maiores. | |
| dc.description.abstract | Machine learning (ML) models have been widely used due to the high amount of data produced daily. Among them, the pre-trained models stand out due to their effectiveness, but normally these demand a high computational cost in the execution of their tasks. To circumvent this problem, neural network compression techniques have been applied to produce smaller pre-trained mo-dels without compromising accuracy. Therefore, in this work two different pre-
trained models of ML were used: BERT and DistilBERT in text classification. The results show that smaller models present good results when compared to their larger counterparts. | |
| dc.language.iso | Inglês | |
| dc.publisher | Sociedade Brasileira de Computação - SBC | pt_BR |
| dc.rights | Acesso aberto | pt_BR |
| dc.title | Análise de performance dos modelos gerais de aprendizado de máquina pré-Treinados: BERT vs DistilBERT | pt_BR |
| dc.type | Artigo | pt_BR |
| dc.contributor.institution | Pontifícia Universidade Católica de Campinas (PUC-Campinas) | pt_BR |
| dc.identifier.doi | https://doi.org/10.5753/sbrc_estendido.2022.223391 | pt_BR |