Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | Жогаль, С.И. | - |
dc.contributor.author | Жогаль, С.П. | - |
dc.contributor.author | Алёшин, Н.А. | - |
dc.contributor.author | Орлов, В.В. | - |
dc.date.accessioned | 2022-09-12T13:13:22Z | - |
dc.date.available | 2022-09-12T13:13:22Z | - |
dc.date.issued | 2022 | - |
dc.identifier.citation | Эффективная адаптация скорости машинного обучения на основе иерархического подхода к оптимизации / С.И. Жогаль, С.П. Жогаль, Н.А. Алёшин, В.В. Орлов // Известия Гомельского государственного университета имени Ф. Скорины. Сер.: Естественные науки. - 2022. - № 3 (132). - С. 113-116. | ru |
dc.identifier.uri | http://elib.gsu.by/jspui/handle/123456789/44522 | - |
dc.description.abstract | Рассмотрен иерархический подход к адаптации скорости обучения в градиентных методах, называемый оптимизацией скорости обучения (ОСО). ОСО формулирует проблему адаптации скорости обучения как задачу иерархической оптимизации, которая минимизирует функцию потерь по отношению к скорости обучения для текущих параметров и градиентов модели. Затем ОСО оптимизирует скорость обучения на основе метода множителей переменного направления. В процессе этой оптимизации не требуется никакой информации второго порядка и вероятностной модели, поэтому он очень эффективен. Кроме того, ОСО не требует дополнительных гиперпараметров по сравнению с методом градиента с простым экспоненциальным спадом скорости обучения. Если сравнить эффективность оптимизации с современными методами адаптации скорости обучения, а также с наиболее часто используемыми методами адаптивного градиента, то ОСО превосходит другие методы в задачах классификации. A hierarchical approach to adapting the learning rate in gradient methods, called learning rate optimization (LRO), is considered. LRO formulates the learning rate adaptation problem as a hierarchical optimization problem that minimizes the loss function with respect to the learning rate for current model parameters and gradients. LRO then optimizes the learning rate based on the alternating direction multiplier method. In the process of this optimization it does not require any second order information and a probabilistic model, so it is very efficient. In addition, LRO does not require any additional hyperparameters compared to the gradient method with a simple exponential learning rate decay. If we compare the optimization efficiency with modern learning rate adaptation methods, as well as with the most commonly used SGD adaptive gradient methods, then LRO outperforms all competitors in classification tasks. | ru |
dc.language.iso | Русский | ru |
dc.publisher | Гомельский государственный университет имени Ф.Скорины | ru |
dc.subject | глубокое обучение | ru |
dc.subject | машинное обучение | ru |
dc.subject | математическая оптимизация | ru |
dc.subject | deep learning | ru |
dc.subject | machine learning | ru |
dc.subject | mathematical optimization | ru |
dc.title | Эффективная адаптация скорости машинного обучения на основе иерархического подхода к оптимизации | ru |
dc.type | Article | ru |
dc.identifier.udk | 004.54 | - |
dc.root | Известия Гомельского государственного университета имени Ф. Скорины | ru |
dc.placeOfPublication | Гомель | ru |
dc.series | Естественные науки | ru |
dc.number | № 3 (132) | ru |
Appears in Collections: | Известия ГГУ им. Франциска Скорины. Естественные науки |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Жогаль_Эффективная.pdf | 248.01 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.