Передовые методы оптимизации работы с нейросетями на современных архитектурах

Статья посвящена исследованию и сравнению различных методов оптимизации при обучении нейронных сетей. Рассматриваются ключевые алгоритмы, такие как стохастический градиентный спуск, метод Momentum, AdaGrad и Adam. Для каждого метода предоставляются теоретические обоснования, математические формулы...

Full description

Saved in:
Bibliographic Details
Main Authors: П. М. Урвачев, В. А. Ковтун
Format: Article
Language:English
Published: Siberian Scientific Centre DNIT 2024-12-01
Series:Современные инновации, системы и технологии
Subjects:
Online Access:https://oajmist.com/index.php/12/article/view/312
Tags: Add Tag
No Tags, Be the first to tag this record!