Analisis Efek Augmentasi Dataset dan Fine Tune pada Algoritma Pre-Trained Convolutional Neural Network (CNN)

Kemajuan teknologi deep learning seringkali berbanding lurus dengan keterkaitan metode yang dapat diandalkan dalam penggunaan jumlah data yang besar. Convolutional Neural Network (CNN) adalah salah satu algoritma deep learning yang paling popular saat ini guna pengolahan citra. Pada era deep learnin...

Full description

Saved in:
Bibliographic Details
Main Authors: Theopilus Bayu Sasongko, Haryoko Haryoko, Agit Amrullah
Format: Article
Language:Indonesian
Published: University of Brawijaya 2023-08-01
Series:Jurnal Teknologi Informasi dan Ilmu Komputer
Online Access:https://jtiik.ub.ac.id/index.php/jtiik/article/view/6583
Tags: Add Tag
No Tags, Be the first to tag this record!
_version_ 1823858627858923520
author Theopilus Bayu Sasongko
Haryoko Haryoko
Agit Amrullah
author_facet Theopilus Bayu Sasongko
Haryoko Haryoko
Agit Amrullah
author_sort Theopilus Bayu Sasongko
collection DOAJ
description Kemajuan teknologi deep learning seringkali berbanding lurus dengan keterkaitan metode yang dapat diandalkan dalam penggunaan jumlah data yang besar. Convolutional Neural Network (CNN) adalah salah satu algoritma deep learning yang paling popular saat ini guna pengolahan citra. Pada era deep learning model CNN yang kompleks seperti saat ini memiliki tantangan-tantangan yang baru baik gradient vanishing, overfitting yang dikarenakan keterbatasan dataset, optimasi parameter hingga keterbatasan perangkat keras. Penelitian ini bertujuan mengukur pengaruh teknik fine tuning dan augmentasi dataset pada model transfer learning CNN Mobilenet, Efficientnet, dan Nasnetmobile dengan dataset yang variasi jumlah dataset yang memiliki jumlah yang terbatas. Pada hasil dari penelitian ini, dari ketiga dataset yang digunakan sebagai dalam melakukan training pada model efisien transfer learning baik MobileNet, EfficientNet, dan NasNetmobile, teknik augmentasi zoom range ataupun random erase dapat meningkatkan akurasi pada dataset dengan jumlah 56 citra dan 222 citra, sedangkan pada dataset dengan jumlah 500 data citra, semua teknik augmentasi terbukti dapat meningkatkan akurasi pada model arsitektur MobileNetV2 dan NasNetMobile. Sedangkan teknik fine tuning terbukti efektif dalam meningkatkan akurasi pada semua skala data yang kecil.   Abstract Today deep learning technology is often associated with reliable processes (methods) when we have large amounts of data. In deep learning CNN (Convolutional Neural Network) plays a very important role which is often used to analyze (classify or recognize) visual images. In the era of deep learning models such as the complex Convolutional Neural Network (CNN) as it is today, it has new challenges such as gradient vanishing, overfitting due to dataset limitations, parameter optimization to hardware limitations. The MobileNet architecture was coined in 2017 by Howards, et al, which is one of the convolutional neural networks (CNN) architectures that can be used to overcome the need for excessive computing resources. This study aims to measure the effect of fine tune and dataset augmentation techniques on CNN mobilenet, efficientnet, and nasnetmobile transfer learning models with very small datasets. The results of this study are that of the three datasets used as the basis for training in efficient transfer learning models (mobilenet, efficientnet, and nasnetmobile), random erase and zoom range augmentation techniques dominate the increase in model accuracy. The amount of increase in accuracy after random erase or zoom range augmentation that occurs is about 0.03% to 0.1%.
format Article
id doaj-art-799c7daa433843318bae1b4c48685da4
institution Kabale University
issn 2355-7699
2528-6579
language Indonesian
publishDate 2023-08-01
publisher University of Brawijaya
record_format Article
series Jurnal Teknologi Informasi dan Ilmu Komputer
spelling doaj-art-799c7daa433843318bae1b4c48685da42025-02-11T10:39:01ZindUniversity of BrawijayaJurnal Teknologi Informasi dan Ilmu Komputer2355-76992528-65792023-08-0110410.25126/jtiik.202410465831153Analisis Efek Augmentasi Dataset dan Fine Tune pada Algoritma Pre-Trained Convolutional Neural Network (CNN)Theopilus Bayu Sasongko0Haryoko Haryoko1Agit Amrullah2Universitas Amikom Yogyakarta, YogyakartaUniversitas Amikom Yogyakarta, YogyakartaUniversitas Amikom Yogyakarta, YogyakartaKemajuan teknologi deep learning seringkali berbanding lurus dengan keterkaitan metode yang dapat diandalkan dalam penggunaan jumlah data yang besar. Convolutional Neural Network (CNN) adalah salah satu algoritma deep learning yang paling popular saat ini guna pengolahan citra. Pada era deep learning model CNN yang kompleks seperti saat ini memiliki tantangan-tantangan yang baru baik gradient vanishing, overfitting yang dikarenakan keterbatasan dataset, optimasi parameter hingga keterbatasan perangkat keras. Penelitian ini bertujuan mengukur pengaruh teknik fine tuning dan augmentasi dataset pada model transfer learning CNN Mobilenet, Efficientnet, dan Nasnetmobile dengan dataset yang variasi jumlah dataset yang memiliki jumlah yang terbatas. Pada hasil dari penelitian ini, dari ketiga dataset yang digunakan sebagai dalam melakukan training pada model efisien transfer learning baik MobileNet, EfficientNet, dan NasNetmobile, teknik augmentasi zoom range ataupun random erase dapat meningkatkan akurasi pada dataset dengan jumlah 56 citra dan 222 citra, sedangkan pada dataset dengan jumlah 500 data citra, semua teknik augmentasi terbukti dapat meningkatkan akurasi pada model arsitektur MobileNetV2 dan NasNetMobile. Sedangkan teknik fine tuning terbukti efektif dalam meningkatkan akurasi pada semua skala data yang kecil.   Abstract Today deep learning technology is often associated with reliable processes (methods) when we have large amounts of data. In deep learning CNN (Convolutional Neural Network) plays a very important role which is often used to analyze (classify or recognize) visual images. In the era of deep learning models such as the complex Convolutional Neural Network (CNN) as it is today, it has new challenges such as gradient vanishing, overfitting due to dataset limitations, parameter optimization to hardware limitations. The MobileNet architecture was coined in 2017 by Howards, et al, which is one of the convolutional neural networks (CNN) architectures that can be used to overcome the need for excessive computing resources. This study aims to measure the effect of fine tune and dataset augmentation techniques on CNN mobilenet, efficientnet, and nasnetmobile transfer learning models with very small datasets. The results of this study are that of the three datasets used as the basis for training in efficient transfer learning models (mobilenet, efficientnet, and nasnetmobile), random erase and zoom range augmentation techniques dominate the increase in model accuracy. The amount of increase in accuracy after random erase or zoom range augmentation that occurs is about 0.03% to 0.1%. https://jtiik.ub.ac.id/index.php/jtiik/article/view/6583
spellingShingle Theopilus Bayu Sasongko
Haryoko Haryoko
Agit Amrullah
Analisis Efek Augmentasi Dataset dan Fine Tune pada Algoritma Pre-Trained Convolutional Neural Network (CNN)
Jurnal Teknologi Informasi dan Ilmu Komputer
title Analisis Efek Augmentasi Dataset dan Fine Tune pada Algoritma Pre-Trained Convolutional Neural Network (CNN)
title_full Analisis Efek Augmentasi Dataset dan Fine Tune pada Algoritma Pre-Trained Convolutional Neural Network (CNN)
title_fullStr Analisis Efek Augmentasi Dataset dan Fine Tune pada Algoritma Pre-Trained Convolutional Neural Network (CNN)
title_full_unstemmed Analisis Efek Augmentasi Dataset dan Fine Tune pada Algoritma Pre-Trained Convolutional Neural Network (CNN)
title_short Analisis Efek Augmentasi Dataset dan Fine Tune pada Algoritma Pre-Trained Convolutional Neural Network (CNN)
title_sort analisis efek augmentasi dataset dan fine tune pada algoritma pre trained convolutional neural network cnn
url https://jtiik.ub.ac.id/index.php/jtiik/article/view/6583
work_keys_str_mv AT theopilusbayusasongko analisisefekaugmentasidatasetdanfinetunepadaalgoritmapretrainedconvolutionalneuralnetworkcnn
AT haryokoharyoko analisisefekaugmentasidatasetdanfinetunepadaalgoritmapretrainedconvolutionalneuralnetworkcnn
AT agitamrullah analisisefekaugmentasidatasetdanfinetunepadaalgoritmapretrainedconvolutionalneuralnetworkcnn