Tailoring mt5 for the Uzbek Language: a Compact Model for NLP Applications
dc.creator | Адилова, Ф.Т. | |
dc.creator | Давронов, Р.Р. | |
dc.creator | Кушмуратов, С.И. | |
dc.date | 2023-10-02 | |
dc.date.accessioned | 2024-03-25T11:46:34Z | |
dc.date.available | 2024-03-25T11:46:34Z | |
dc.description | Despite being spoken by nearly 50 million individuals, the Uzbek language remains underrepresented in Natural Language Processing (NLP). One primary reason is the limited availability of Uzbek linguistic resources. With the rising prominence of the Transformer architecture in NLP, it has overtaken earlier methods like convolutional and recurrent neural networks. The T5 (Text-to-Text Transfer Transformer) standardizes linguistic tasks in English by converting them into a text-to-text format. The mT5, its multilingual version, has shown promising outcomes in various NLP tasks spanning multiple languages. However, the considerable dimensions of the mT5 pose challenges for applications focused on a singular language. In our study, we fine-tuned the mT5 specifically for Uzbek, leading to a more compact T5 model. We compared this tailored model's efficiency with the mT5 on Automatic Text Summarization (ATS) and Named Entity Recognition (NER) tasks using identical protocols and datasets. Our adapted model surpassed the performance of the mT5, indicating the feasibility of developing a more compact pre-trained model with nearly half the size, without compromising results. This streamlined model also benefits from reduced memory usage, faster startup, and swifter processing times. For access to this model, please reach out. | en-US |
dc.description | Несмотря на то, что на нем говорят почти 50 миллионов человек, узбекский язык по-прежнему недостаточно представлен в системе обработки естественного языка (NLP). Одной из основных причин является ограниченная доступность узбекских лингвистических ресурсов. С ростом популярности архитектуры Transformer в NLP она обогнала более ранние методы, такие как сверточные и рекуррентные нейронные сети. T5 (преобразователь преобразования текста в текст) стандартизирует лингвистические задачи на английском языке, преобразуя их в формат преобразования текста в текст. mT5, его многоязычная версия, показала многообещающие результаты в различных задачах NLP, охватывающих несколько языков. Однако значительные размеры mT5 создают проблемы для приложений, ориентированных на один язык. В нашем исследовании мы доработали mT5 специально для узбекского языка, в результате чего модель T5 стала более компактной. Мы сравнили эффективность этой адаптированной модели с mT5 в задачах автоматического суммирования текста (ATS) и распознавания именованных сущностей (NER) с использованием идентичных протоколов и наборов данных. Наша адаптированная модель превзошла производительность mT5, что указывает на возможность разработки более компактной предварительно обученной модели почти вдвое меньшего размера без ущерба для результатов. Эта оптимизированная модель также выигрывает от меньшего использования памяти, более быстрого запуска и сокращения времени обработки. Чтобы получить доступ к этой модели, пожалуйста, свяжитесь с нами. | ru-RU |
dc.format | application/pdf | |
dc.identifier | https://ijdt.uz/index.php/ijdt/article/view/104 | |
dc.identifier.uri | https://dspace.umsida.ac.id/handle/123456789/36071 | |
dc.language | eng | |
dc.publisher | Samarkand branch of TUIT | ru-RU |
dc.relation | https://ijdt.uz/index.php/ijdt/article/view/104/70 | |
dc.rights | Copyright (c) 2023 Адилова Ф.Т. | ru-RU |
dc.source | INTERNATIONAL JOURNAL OF THEORETICAL AND APPLIED ISSUES OF DIGITAL TECHNOLOGIES; Vol. 5 No. 3 (2023): International Journal of Theoretical and Applied Issues of Digital Technologies; 7-16 | en-US |
dc.source | Международный Журнал Теоретических и Прикладных Вопросов Цифровых Технологий; Том 5 № 3 (2023): Международный журнал теоретических и прикладных вопросов цифровых технологий; 7-16 | ru-RU |
dc.source | 2181-3094 | |
dc.source | 2181-3086 | |
dc.subject | model compression | en-US |
dc.subject | transformer | en-US |
dc.subject | pre-trained model | en-US |
dc.subject | automatic text summarization | en-US |
dc.subject | named entity recognition | en-US |
dc.subject | сжатие модели | ru-RU |
dc.subject | преобразователь | ru-RU |
dc.subject | предварительно обученная модель | ru-RU |
dc.subject | автоматическое суммирование текста | ru-RU |
dc.subject | распознавание именованных объектов | ru-RU |
dc.title | Tailoring mt5 for the Uzbek Language: a Compact Model for NLP Applications | en-US |
dc.title | Адаптация mt5 для узбекского языка: компактная модель для приложений NLP. | ru-RU |
dc.type | info:eu-repo/semantics/article | |
dc.type | info:eu-repo/semantics/publishedVersion | |
dc.type | Рецензированная статья | ru-RU |