Передовые методы оптимизации работы с нейросетями на современных архитектурах
Статья посвящена исследованию и сравнению различных методов оптимизации при обучении нейронных сетей. Рассматриваются ключевые алгоритмы, такие как стохастический градиентный спуск, метод Momentum, AdaGrad и Adam. Для каждого метода предоставляются теоретические обоснования, математические формулы...
Saved in:
Main Authors: | П. М. Урвачев, В. А. Ковтун |
---|---|
Format: | Article |
Language: | English |
Published: |
Siberian Scientific Centre DNIT
2024-12-01
|
Series: | Современные инновации, системы и технологии |
Subjects: | |
Online Access: | https://oajmist.com/index.php/12/article/view/312 |
Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
Similar Items
-
МЕТОД ЭКСТРАПОЛИРУЮЩЕГО ОБУЧЕНИЯ НЕЙРОННЫХ СЕТЕЙ
Published: (2019-03-01) -
Нейронные сети для создания цифровых произведений искусства: искусство глазами алгоритмов
by: Г. В. Конников, et al.
Published: (2024-12-01) -
Искусственный интеллект — это твое. Рец. на кн.: Ховард Дж., Гуггер С. Глубокое обучение с fastai и PyTorch: минимум формул, минимум кода, максимум эффективности. СПб.: Питер, 2022
by: Илья Игоревич Буханский
Published: (2024-11-01) -
ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ ДЛЯ ОПТИМИЗАЦИИ РЕЖИМА РАБОТЫ ТЕПЛОФИКАЦИОННЫХ ТУРБИН ПО ТЕПЛОВОМУ ГРАФИКУ
Published: (2002-06-01) -
THE PROBLEM OF OPTIMIZATION OF EXPENSES OF AN ENTERPRISE IN CRISIS CONDITIONS
by: T. Barsova, et al.
Published: (2016-03-01)