Sistem Klasifikasi Pola Citra dalam Deteksi Gestur Tangan Pelanggan Menggunakan Metode YOLOv8
DOI:
https://doi.org/10.29407/dwrhp952Keywords:
Computer Vision, Deteksi Gestur, Real-time, YOLOv8, Pengolahan CitraAbstract
Penelitian ini bertujuan mengembangkan sistem deteksi dan klasifikasi gestur tangan pelanggan berbasis citra menggunakan algoritma YOLOv8 sebagai solusi otomatisasi dalam mendukung interaksi layanan tanpa sentuhan. Topik ini dipilih karena kebutuhan identifikasi gestur secara otomatis semakin penting, terutama untuk meningkatkan efisiensi komunikasi antara pelanggan dan pelayanan, sekaligus mengurangi sebuah masalah dikala tempat makan sedang ramai dengan kebisingan suara yang mengganggu interaksi pelanggan dan pelayanan. Metode penelitian menggunakan pendekatan waterfall, yang terdiri atas tahapan pengumpulan data, praproses citra, pelabelan, pemodelan, dan evaluasi. Dataset yang digunakan berjumlah 3.000 citra dengan tiga kelas gestur utama, yaitu konfirmasi, memesan, dan selesai. Proses pelabelan dilakukan melalui Roboflow agar format anotasi selaras dengan kebutuhan deteksi objek. Model YOLOv8 dilatih dan dievaluasi menggunakan metrik akurasi, precision, recall, serta nilai mean Average Precision. Hasil penelitian menunjukkan bahwa sistem mampu mengenali gestur tangan secara akurat dengan nilai akurasi rata-rata sebesar 92,33% dan capaian nilai mAP50 sebesar 0,855. Sistem juga mampu beroperasi secara real-time melalui antarmuka Streamlit dengan tingkat pemrosesan stabil. Hasil penelitian ini membuktikan bahwa pendekatan deteksi objek berbasis citra dapat mendukung identifikasi gestur pelanggan secara cepat, presisi, dan efisien, sehingga berpotensi diterapkan pada sistem pelayanan berbasis komputer visi.
Downloads
References
[1] I. I. Arifah, F. N. Fajri, G. Qorik, and O. Pratamasunu, “Deteksi Tangan Otomatis Pada Video Percakapan Bahasa Isyarat Indonesia Menggunakan Metode YOLO Dan CNN,” vol. 6, no. 2, pp. 171–176, 2022.
[2] F. Teknologi and I. Universitas, “ISYARAT BERDASARKAN GERAK TUBUH SECARA REAL TIME,” vol. 8, no. 2, pp. 300–304, 2023.
[3] J. Medellu, A. Sambul, and A. S. M. Lumenta, “Hand Gesture Detection Application in Sign Language,” vol. 17, no. 4, pp. 285–296, 2022.
[4] K. Karina and M. Andrei, “HaGRID – HAnd Gesture Recognition Image Dataset”.
[5] A. Nuzhdin, A. Nagaev, A. Sautin, A. Kapitanov, and K. Kvanchiani, “HaGRIDv2: 1M Images for Static and Dynamic Hand Gesture Recognition”.
[6] I. Fatahna, P. Desi, K. Sari, A. N. Kamilah, R. Wulanningrum, and C. Utomo, “Implementasi Computer Vision Terhadap Jenis Kualitas Pisang Susu Menggunakan Metode YOLOv8n Berbasis WebApps,” vol. 4, pp. 1–10, 2025.
[7] M. T. Informatika, I. Informatika, and B. Lampung, “Evaluasi Kinerja Model YOLOv8 dalam Deteksi Kesegaran Buah,” pp. 357–368.
Downloads
Published
Issue
Section
License
Copyright (c) 2026 Allvintantyo Fristya Gita Nanda

This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License.
Authors who publish with this journal agree to the following terms:
- Copyright on any article is retained by the author(s).
- The author grants the journal, right of first publication with the work simultaneously licensed under a Creative Commons Attribution License that allows others to share the work with an acknowledgment of the work’s authorship and initial publication in this journal.
- Authors are able to enter into separate, additional contractual arrangements for the non-exclusive distribution of the journal’s published version of the work (e.g., post it to an institutional repository or publish it in a book), with an acknowledgment of its initial publication in this journal.
- Authors are permitted and encouraged to post their work online (e.g., in institutional repositories or on their website) prior to and during the submission process, as it can lead to productive exchanges, as well as earlier and greater citation of published work.
- The article and any associated published material is distributed under the Creative Commons Attribution-ShareAlike 4.0 International License





