Avaliação do uso de modelos de aprendizagem profunda na tradução automática de línguas de sinais
Os modelos recentes de Tradução Automática Neural (Neural Machine Translation – NMT) podem ser aplicados a idiomas e domínios de poucos recursos sem limitações significativas. Vários estudos investigam se novas técnicas de NMT também podem ser generalizadas para diferentes contextos, considerando a...
Saved in:
| Main Authors: | , , , , , |
|---|---|
| Format: | Article |
| Language: | English |
| Published: |
Instituto Federal de Educação, Ciência e Tecnologia da Paraíba
2025-05-01
|
| Series: | Revista Principia |
| Subjects: | |
| Online Access: | https://periodicos.ifpb.edu.br/index.php/principia/article/view/8053 |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Summary: | Os modelos recentes de Tradução Automática Neural (Neural Machine Translation – NMT) podem ser aplicados a idiomas e domínios de poucos recursos sem limitações significativas. Vários estudos investigam se novas técnicas de NMT também podem ser generalizadas para diferentes contextos, considerando a disponibilidade de dados e infraestrutura computacional. Nesse contexto, o objetivo principal deste estudo foi explorar métodos modernos de NMT e analisar a sua potencial aplicabilidade em cenários de poucos recursos, como os das línguas de sinais. Para uma melhor avaliação, foram adaptados e utilizados alguns modelos promissores identificados no componente de tradução automática da Suíte VLibras e os resultados foram comparados com aqueles fornecidos pela arquitetura LightConv atual, utilizando-se o mesmo corpus de treinamento e validação bilíngue Português-Libras, um dos maiores desse tipo disponíveis no mundo, constituído por mais de 70.000 frases geradas por linguistas. Os resultados indicam que a adoção de uma das duas arquiteturas de melhor desempenho – a Basic Transformer ou a ByT5 – ajudaria a melhorar a precisão e a qualidade da tradução da Suíte VLibras, com um aumento percentual de até 12,73% considerando a métrica BLEU. |
|---|---|
| ISSN: | 1517-0306 2447-9187 |