Penggabungan Metode Itakura Saito Distance dan Backpropagation Neural Network untuk Peningkatan Akurasi Suara pada Audio Forensik(Combining Itakura Saito Distance and Backpropagation Neural Network Methods to Improve Sound Accuracy in Audio Forensic)

Ardy Wicaksono, Sisdarmanto Adinandra, Yudi Prayudi

Abstract


Audio merupakan salah satu barang bukti digital yang digunakan dalam cybercrime. Seringkali bahwa bukti audio ini membawa peran krusial untuk mengungkapkan adanya kasus kejahatan sehingga diperlukan proses analisis audio forensic. Audio tersebut berisi rekaman suara seseorang yang memiliki karakter dengan pengucapan kosakata yang berbeda-beda, pengucapan yang tidak jelas, dan memiliki banyak noise. Perlu adanya penanganan yang sesuai Standart Operational Procedure (SOP) audio forensics. Tahapan dalam melakukan audio forensic pada Digital Forensic Analyst Team Pusat Laboratorium Forensik (DFAT) PUSLABFOR terdiri dari 4 tahapan yakni Acquisition, Audio Enhancement, Decoding, dan Voice Recognition. Dalam penelitian ini akan dibahas mengenai analisis audio menggunakan metode speech processing yaitu Itakura Saito Distance dan metode jaringan syaraf tiruan yaitu Backpropagation Neural Network dengan tujuan memperkuat hasil akurasi identik suatu barang bukti rekaman suara. Jika metode ini dikaloborasikan akan memperkuat tingkat akurasi dan argument yang diperoleh dari proses analisa, khususnya dalam penanganan audio forensic. Akurasi itu sendiri diukur dari nilai kedekatan frekuensi atau spectrum antara rekaman suara asli dengan rekaman suara pembanding.  Hasil pengujian yang dilakukan pada 4 rekaman suara asli (unknown) dan 4 rekaman suara pembanding (known) dengan lebih dari 20 kosakata menunjukan akurasi tertinggi yang identik lebih dari 95%.


Keywords


itakura saito distance, backpropagation neural network, audio forensik, akurasi suara

References


[1] A. Imario, D. W. Sudiharto, and E. Ariyanto, “Uji Validasi Suara Berbasis Pengenalan Suara (Voice Recognition) Menggunakan Easy VR 3.0,” Pros. SNATIF ke-4 Tahun 2017, pp. 153–160, 2017.

[2] Mansyur, “Alat Bukti Rekaman Suara dalam Pembuktian Perkara Tindak Pidana Korupsi,” J. Komun. Huk., vol. 3, no. 1, 2017.

[3] B. W. Prasetya, B. Susanto, and J. Purwadi, “Identifikasi Suara Pria dan Wanita Berdasarkan Frekuensi Suara,” J. Inform., vol. 4, no. 1, pp. 2–9, 2011.

[4] M. Al-Azhar Nuh, “Audio Forensic : Theory and Analysis,” pp. 1–38, 2011.

[5] Y. Prayudi, A. Luthfi, and A. M. R. Pratama, “Pendekatan Model Ontologi Untuk Merepresentasikan Body of Knowledge Digital Chain of Custody,” Cybermatika ITB, vol. 2, no. 2, pp. 36–43, 2014.

[6] M. Imran, Z. Ali, S. T. Bakhsh, and S. Akram, “Blind Detection of Copy-Move Forgery in Digital Audio Forensics,” IEEE Access, vol. 5, pp. 12843–12855, 2017.

[7] D. Renza, D. M. Ballesteros L., and C. Lemus, “Authenticity verification of audio signals based on fragile watermarking for audio forensics,” Expert Syst. Appl., vol. 91, pp. 211–222, Jan. 2018.

[8] C. Handoko, “Kedudukan Alat Bukti Digital Dalam Pembuktian Cybercrime Di Pengadilan,” J. Jurisprud., vol. 6, no. 1, p. 1, 2017.

[9] Andri and D. A. D. Tawang, “Validitas Keterangan Ahli dari Penyidik dalam Pembuktian Kasus Ujaran Kebencian Ras DI Media Sosial (Studi Putusan: NO.1105/PID.SUS/2017/PN JKT.UTR),” J. Huk. Adigama, vol. 1, 2018.

[10] V. R. C. Putri and Sunarno, “Analisis Rekaman Suara Menggunakan Teknik Audio Forensik Untuk Keperluan Barang Bukti Digital,” Unnes Phys. J., vol. 3, no. 1, 2014.

[11] R. C. Maher, “History of Audio Forensics .Principles of Forensic Audio Analysis,” pp. 29–37, 2018.

[12] A. Subki, B. Sugiantoro, and Y. Prayudi, “Analisis Rekaman Suara Voice Changer dan Rekaman Suara Asli Menggunakan Metode Audio Forensik,” Indones. J. Netw. Secur., vol. 7, no. 1, 2018.

[13] Y. Nozaki and T. Nakamoto, “Itakura-Saito distance based autoencoder for dimensionality reduction of mass spectra,” Chemom. Intell. Lab. Syst., vol. 167, pp. 63–68, Aug. 2017.

[14] T. Ishii, H. Komiyama, T. Shinozaki, Y. Horiuchi, and S. Kuroiwa, “Reverberant Speech Recognition Based on Denoising Autoencoder Division of Information Sciences , Graduate School of Advanced Integration Science ,” Interspeech, no. August, pp. 3512–3516, 2013.

[15] R. M. Gray, “Packet speech on the Arpanet: A history of early LPC speech and its accidental impact on the Internet Protocol,” Electr. Eng., no. June, pp. 1–44, 2007.

[16] B. K. Padhy and S. K. Sahu, “Analysis of Speech Recognition Techniques,” 2009.

[17] A. Irawan, “Perbandingan Metode Itakura-Saito Distance dan Manual Statistik (Pitch, Formant, Spectogram) untuk Akurasi Identifikasi Suara pada Audio Forensik,” Universitas Islam Indonesia, 2019.

[18] Hukumonline.com, “Metode ‘Itakura-Saito’, Silang Pendapat Dua Ahli Forensik di Sidang Tipikor,” 2019. [Online]. Available: https://www.hukumonline.com/berita/baca/lt5c5ced64ac

1a4/metode-itakura-saito--silang-pendapat-dua-ahli- forensik-di-sidang-tipikor?page=3. [Accessed: 13-Jun-2020].

[19] H.-X. Huang, J.-C. Li, and C.-L. Xiao, “A proposed iteration optimization approach integrating backpropagation neural network with genetic algorithm,” Expert Syst. Appl., vol. 42, no. 1, pp. 146–155, Jan. 2015.

[20] M. N. Sidqi, “Sistem Cerdas Deteksi Suara Untuk Pengklasifikasian Smart Sound Detection System For Classifying Heart Disease,” J. Elektron. Pendidik. Tek. Elektron., vol. 8, no. 1, pp. 42–55, 2018.

[21] M. A. Hilmi, “Identifikasi Suara Menggunakan Fft Dan Neural Network,” Universitas Muhammadiyah Gresik,2014.

[22] T. Sutojo, E. Mulyanto, and V. Suhartono, Kecerdasan Buatan. Yogyakarta: Andi Offset, 2011.

[23] H. Mustafidah and S. Suwarsito, “Performance of Levenberg-Marquardt Algorithm in Backpropagation Network Based on the Number of Neurons in Hidden Layers and Learning Rate,” JUITA J. Inform., vol. 8, no.1, p. 29, 2020.

[24] M. Singh and E. N. Kumar Garg, “Audio Noise Reduction Using Butter Worth Filter,” Int. J. Comput. Organ. Trends, vol. 6, no. 1, pp. 20–23, 2014.


Full Text: PDF (Bahasa Indonesia)

DOI: 10.30595/juita.v8i2.8248

Refbacks

  • There are currently no refbacks.


Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

ISSN: 2579-8901