Optimisasi Klasifikasi Sentimen Pada Review Hotel Bahasa Inggris Dengan Model Roberta Twitter

Dalam era digital, wisatawan sering menggunakan internet untuk mencari dan memesan hotel. Ulasan hotel online adalah sumber informasi penting bagi calon tamu, namun sentimen dalam ulasan ini sulit diinterpretasikan karena bahasa yang kompleks dan kontekstual. Klasifikasi sentimen yang akurat dalam...

Full description

Saved in:
Bibliographic Details
Main Authors: Bagas Setiadi, Eko Purwanto, Hanifah Permatasari
Format: Article
Language:English
Published: Institut Bisnis dan Teknologi Indonesia 2024-08-01
Series:SINTECH (Science and Information Technology) Journal
Subjects:
Online Access:https://ejournal.instiki.ac.id/index.php/sintechjournal/article/view/1547
Tags: Add Tag
No Tags, Be the first to tag this record!
Description
Summary:Dalam era digital, wisatawan sering menggunakan internet untuk mencari dan memesan hotel. Ulasan hotel online adalah sumber informasi penting bagi calon tamu, namun sentimen dalam ulasan ini sulit diinterpretasikan karena bahasa yang kompleks dan kontekstual. Klasifikasi sentimen yang akurat dalam ulasan hotel berbahasa Inggris memerlukan strategi yang canggih. Penelitian ini fokus pada model RoBERTa Twitter, yang merupakan pengembangan dari BERT (BiDirectional Encoder Representations from Transformers) Google, untuk meningkatkan pemahaman bahasa dan kinerja dalam konteks ulasan hotel. Dengan pendekatan pelatihan yang lebih komprehensif, model ini diharapkan dapat meningkatkan akurasi analisis sentimen. Penelitian ini melibatkan tahapan identifikasi masalah, seleksi data, preprocessing, pemodelan, dan pengujian hyperparameter. Hasil evaluasi menunjukkan kinerja model yang memuaskan dengan akurasi sentimen 88%, namun akurasi untuk aspek tertentu lebih rendah, dengan fasilitas 75%, pelayanan 78%, kamar 81%, serta lokasi dan harga 84%. Penelitian ini bertujuan untuk memberikan kontribusi dalam meningkatkan akurasi analisis sentimen, mendukung keputusan yang lebih tepat dalam pemilihan hotel online.
ISSN:2598-7305
2598-9642