Microsoft Word - 4680-Article Text-12443-2-2-20200227.docx IT Journal Research and Development (ITJRD) Vol.5, No.1, Agustus 2020, pp.11 โ€“ 18, E-ISSN : 2528-4053 | P-ISSN : 2528-4061 DOI : 10.25299/itjrd.2020.vol5(1).4680 11 Journal homepage: http:/journal.uir.ac.id/index.php/ITJRD Peningkatan Akurasi K-Nearest Neighbor Pada Data Index Standar Pencemaran Udara Kota Pekanbaru Yuliska1, Khairul Umam Syaliman2 Teknik Informatika, Politeknik Caltex Riau, Pekanbaru, Riau, Indonesia 1,2 yuliska@pcr.ac.id1, khairul@pcr.ac.id2 Article Info Abstrak History : Dikirim 27 Februari 2020 Direvisi 28 April 2020 Diterima 14 Juli 2020 kNN adalah salah satu metode yang popular karena mudah dieksploitasi, generalisasi yang biak, mudah dimengerti, kemampuan beradaptasi ke ruang fitur yang rumit, intuitif, atraktif, efektif, flexibility, mudah diterapkan, sederhana dan memiliki hasil akurasi yang cukup baik. Namun kNN memiliki beberapa kelemahan, diantaranya memberikan bobot yang sama pada setiap attribut sehingga attribut yang tidak relevant juga memberikan dampak yang sama dengan attribut yang relevant terhadap kemiripan antar data. Masalah lain dari kNN adalah pemilihan tetangga terdekat dengan system suara terbanyak, dimana system ini mengabaikan kemiripan setiap tetangga terdekat dan kemungkinan munculnya mayoritas ganda serta kemungkinan terpilihnya outlier sebagai tetangga terdekat. Masalah-masalah tersebut tentu saja dapat menimbulkan kesalahan klasifikasi yang mengakibatkan rendahnya akurasi. Pada penelitian kali ini akan dilakukan peningkatan akurasi dari kNN tersebut dalam melakukan klasifikasi terhadap data Index Standar Pencemaran Udara di Pekanbaru dengan menggunakan pembobotan attribut (Attibute Weighting) dan local mean. Adapun hasil dari penelitian ini didapati bahwa metode yang diusulkan mampu untuk meningkatkan akurasi sebesar 2.42% dengan rata-rata tingkat akurasi sebesar 97.09%. Kata Kunci : Akurasi Attribute Weighting K-Nearest Neighbor Local Mean Peningkatan ยฉ This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License. Koresponden: Khairul Umam Syaliman Teknik Informatika Politeknik Caltex Riau Jl. Umbansari (Patin), Pekanbaru, Indonesia, 28265 Email : khairul@pcr.ac.id 1. PENDAHULUAN K-Nearest Neighbor atau biasa dikenal dengan kNN merupakan suatu metode klasifikasi yang berbasis jarak [1], kNN adalah salah satu metode yang populer dan paling banyak digunakan dalam penyelesaian berbagai kasus klasifikasi, diantaranya text categorization, pengenalan pola, peramalan, image-similarity, data visualization, pengklasifikasian, estimasi posisi, dan lain-lain [2- 18]. kNN telah banyak mengalami perubahan dengan tujuan untuk meningkatkan kinerja dari metode ini, hal ini disebabkan karena kNN mudah dieksploitasi di berbagai domain aplikasi, memiliki generalisasi yang biak, mudah dimengerti, memiliki kemampuan beradaptasi ke ruang IT Jou Res and Dev, Vol.5, No.1, Agustus 2020 : 11 - 18 Yuliska; Syaliman, Peningkatan Akurasi K-Nearest Neighbor Pada Data Index Standar Pencemaran Udara Kota Pekanbaru 12 fitur yang tidak beraturan, intuitif, atraktif, efektif, flexibility, udah diterapkan, sederhana dan memiliki hasil yang baik [1,3,14-30]. Salah satu modifikasi yang sukses meningkatkan hasil akurasi dari kNN adalah metode yang diusulkan oleh [31] atau biasa dikenal dengan local mean k-Nearest Neighbor (LMKNN). Pada penelitian tersebut disarakan untuk mengganti system vote majority (suara terbanyak) dengan local mean, hal ini bertujuan untuk mengurangi pengaruh outlier [32]. Pada penelitian tersebut local mean terbukti mampu utuk meningkatkan hasil akurasi [31, 20]. Modifikasi selanjutnya diusulkan oleh [33] atau biasa dikenal dengan Distance Weight K- Nearest Neighbor (DWKNN). Pada penelitian ini penulis juga mengusulkan untuk mengganti system vote majority dengan metode distance weight, hal ini bertujuan untuk memberikan pengaruh yang lebih besar terhadap data yang memiliki tingkat kemiripan yang tinggi, sehingga penentuan kelas bagi data baru menjadi lebih akurat. Pada penelitian ini terbukti bahwa distance weight mampu memberikan hasil akurasi yang lebih baik. Dua penelitian diatas yaitu LMkNN dan DWkNN telah berhasil dikombinasikan oleh [34]. Pada penelitian tersebut penulis menyarankan penggabungan beberapa tahapan dari metode LMkNN dengan beberapa tahapan dari metode DWkNN dengan tujuan untuk mengatasi kelemahan pada system vote majority. Dimana tahapan dari LMkNN digunakan untuk mengurangi pengaruh outlier yang terpilih sebagai k-tetangga terdekat, dan tahapan dari DWkNN digunakan untuk menutupi kelemahan system vote majority yang mengabaikan kemirapan antar data dan kemungkinan terjadinya kelas mayoritas ganda [33-34]. Namun, penelitian yang disarakan oleh [34] masih memiliki peluang untuk ditingkatkan. Salah satunya dengan memberikan bobot pada setiap attribut (Feature). Hal ini dirasa perlu dikarenakan metode yang berbasis jarak selalu meberikan pengaruh yang sama pada setiap attribut dalam proses penentuan kemiripan antar data. Tentu saja hal ini membuat attribut yang tidak relevan terhadap hasil klasifikasi juga akan memberikan pengaruh yang sama besarnya terhadap atribut yang memiliki relevan. [33] dan [36] sepakat meberikan bobot yang berbeda terhadap setiap attribut, dimana attribut yang memiliki pengaruh yang lebih besar terhadap hasil akurasi diberikan bobot yang lebih besar dibandingkan attribut lainnya. Pada kedua penelitian ini juga disarankan menggukan Gain Ratio yang dijadikan dasar pembobotan dari setiap attribut. Berdasarkan hasil penelitian gain ratio terbukti mampu untuk meningkatkan nilai akurasi. Berdasarkan penelitian-penelitian diatas, pada penelitian kali ini penulis berusahan untuk melakukan peningkatan pada metode kNN tersebut, dimana pada penelitian ini penulis akan menggabungkan metode pembobotan attribut dengan local mean yang telah terbukti berhasil meningkatkan akurasi dari metode kNN konvensional. Diharapkan gabungan dari metode tersebut mampu untuk meningkatkan hasil akurasi dari kNN. Untuk melihat kinerja dari modifikasi yang dilakukan maka akan digunakan data Index Standar Polusi Udara di Kota Pekanbaru, Riau, Indonesia. Adapun struktur penulisan dari penelitian ini terdiri dari bagian 2 rangkuman mengenai studi literatur. Bagian 3 akan dijelaskan mengenai Metode yang diusulkan, bagian 4 merupakan bagian hasil dan pembahasan serta yang terakhir bagian 5 yang merupakan kesimpulan dari penelitian. 2. STUDI LITERATUR Pada bagian ini akan dijelakan mengenai studi literature dan metode apa saja yang digunakan pada penelitian ini. Metode yang diusulkan akan menggabungkan beberapa tahapan dari FWkNN dan LMkNN, dimana untuk melakukan pembobotan attributnya akan menggukan metode Gain Ratio. 2.1. Gain Ratio Gain Ratio ditemukan pada algoritma C4.5, dimana gain ratio digunakan untuk menghitung pengaruh atribut terhadap target dari suatu data [36]. Gain Ratio merupakan pengembangan dari information gain, dimana gain ratio mengambil informasi intrinsik dan menghilangkan nilai bias IT Jou Res and Dev, Vol.5, No.1, Agustus 2020 : 11 - 18 Yuliska; Syaliman, Peningkatan Akurasi K-Nearest Neighbor Pada Data Index Standar Pencemaran Udara Kota Pekanbaru 13 dari setiap atribut [38]. Adapun langkah-langkah dalam perhitungan Gain Ratio adalah sebagai berikut : โ€ข Hitung nilai entropy dari masing-masing attribut dengan menggunakan persamaan : ๐ธ๐‘›๐‘ก๐‘Ÿ๐‘œ๐‘๐‘ฆ (๐‘†) = โˆ‘ โˆ’ ๐‘๐‘– โˆ— ๐‘™๐‘œ๐‘”!๐‘๐‘– " #$% (1) โ€ข Hitung nilai informasi gain pada masing-masing attribut dengan persamaan : ๐ผ๐‘›๐‘“๐‘œ๐‘Ÿ๐‘š๐‘Ž๐‘ก๐‘–๐‘œ๐‘› ๐บ๐‘Ž๐‘–๐‘› (๐‘†,๐ด) = ๐ธ๐‘›๐‘ก๐‘Ÿ๐‘œ๐‘๐‘ฆ(๐‘†) โˆ’ โˆ‘ |'!| |'| ร— ๐ธ๐‘›๐‘ก๐‘Ÿ๐‘œ๐‘๐‘ฆ(๐‘†#) " #$% (2) โ€ข Hitung nilai split information dengan menggunakan persamaan : ๐‘†๐‘๐‘™๐‘–๐‘ก๐ผ๐‘›๐‘“๐‘œ((๐ท) = โˆ’โˆ‘ |)"| |)| * +$% ร— ๐‘™๐‘œ๐‘”! < )" ) = (3) โ€ข Hitung nilai Gain Ratio setiap attribut dengan persamaan : ๐บ๐‘Ž๐‘–๐‘› ๐‘…๐‘Ž๐‘ก๐‘–๐‘œ (๐ด) = ,-#" (() '12#34"56(() (4) 2.2. Feature Weighting K-Nearest Neighbor Feature Weighting K-Nearest Neighbor (FWKNN) adalah modifikasi dari kNN dengan prinsip kerja memberikan bobot yang berbeda terhadap attribut atau feature data dengan tujuan mengurangi attribut yang tidak atau kurang relevan terhadap kelas data[33,36]. Adapun tahapan dari FWKNN secara sederhana dapat dijelaskan sebagai berikut : Tahapan 1 : Hitung Gain Ratio dari setiap attribut dan jadikan sebagai nilai bobot pada setiap attribut. Tahapan 2 : Tentukan nilai k Tahapan 3 : Hitung kemiriapan dengan menggunakan persamaan : ๐‘‘7(๐‘‹8 โˆ’ ๐‘‹) = Aโˆ‘ ๐‘Š9 ร— (๐‘ฅ# โ€ฒ โˆ’ ๐‘ฅ#)! 9 #$% (5) Tahapan 4 : Pilih k tetangga terdekat berdasarkan kemiripan. Tahapan 5 : Tentukan kelas mayoritas dari k tetangga terdekat dan jadikan sebagai kelas bagi data yang baru. Banyak metode yang dapat digunakan dalam pembobotan attribut, salah satunya dengan menggunakan gain ratio. [33] dan [36] membuktikan bahwa pembobotan attribut dengan menggunakan Gain Ratio mampu memberikan hasil yang lebih baik dari metode kNN konvensional. 2.3. Local Mean K-Nearest Neighbor Local mean K-Nearest Neighbor atau biasa disingkat dengan LMkNN adalah metode yang pertama kali dikenalkan oleh [31]. Pada penelitian tersebut vote system majority digantikan dengan local mean dalam proses penetuan kelas bagi data baru. Adapun tahapan dari LMkNN adalah sebagai berikut : Tahapan 1 : Tentukan nilai k. Tahapan 2 : Hitung kemiripan data training dan data testing dengan menggunakan persamaan : ๐‘‘(๐‘‹8 โˆ’ ๐‘‹) = Aโˆ‘ (๐‘ฅ# โ€ฒ โˆ’ ๐‘ฅ#)! 9 #$% (6) Tahapan 3 : Pilih k tetangga terdekat dari setiap kelas. Tahapan 4 : Hitung local mean dengan persamaan : ๐‘š7" : = # : โˆ‘ ๐‘ฆ#,+ <<: #$% (7) Tahapan 5 : Hitung kemiripan data testing terhadap local mean dari setiap kelas data dengan persamaan (6). Tahapan 6 : Jadikan kelas data dari local mean terdekat sebagai kelas bagi data testing. 3. METODE YANG DIUSULKAN Pada bagian ini akan dijelaskan mengenai metode yang diusulkan. Dimana pada penelitian kali ini penulis akan menggabungkan beberapa tahapan dari FWkNN dan LMkNN. Untuk melihat lebih jelas langkah-langkah dari metode yang diusulkan dapat dilihat pada gambar 1. IT Jou Res and Dev, Vol.5, No.1, Agustus 2020 : 11 - 18 Yuliska; Syaliman, Peningkatan Akurasi K-Nearest Neighbor Pada Data Index Standar Pencemaran Udara Kota Pekanbaru 14 Gambar 1. Metode Yang Diusulkan. Berdasarkan gambar 1 dapat dijelaskan langkah-langkah pengabungkan antara feature weighting dan local mean dalam penelitian ini adalah sebagai berikut : Tahapan 1 : Hitung bobot setiap attribut dengan menggunakan Gain Ratio. Tahapan 2 : Tentukan nilai k. Tahapan 3 : Hitung kemiripan antar data latih dan data uji dengan persamaan (5). Tahapan 4 : Pilih k tetangga terdekat dari setiap kelas data. Tahapan 5 : Tentukan local mean dengan persamaan (7). Tahapan 6 : Hitung kemiripan antara data uji dengan local mean dari setiap kelas menggunakan persamaan (5). Tahapan 7 : Jadikan kelas data dari local mean terdekat sebagai kelas bagi data testing. Tahapan 1 s/d 3 merupakan proses yang diadopsi dari metode FWkNN, sedangkan tahapan 4 s/d 7 merupakan bagian proses dari metode LMkNN. Dimana pembobotan attribut dilakukan untuk mengurangi pengaruh attribut yang tidak atau kurang relevan terhadap kelas data, sedangkan local mean digunakan untuk mengatasi kelemahan pada sistem suara terbanyak. 4. HASIL DAN PEMBAHASAN Untuk mengetahui apakah metode yang diusulkan mampu menghasilkan akurasi yang lebih baik, maka pada penelitian kali ini akan dilakukan pengujian dengan menggunakan data Index Standart Pencemaran Udara (ISPU) Kota Pekanbaru, Riau, Indonesia. Data ISPU ini didapat dari lab Udara Pemerintah Kota Pekanbaru. Data ini terdiri dari 5 attribut dengan 4 kategori kelas data (Bagus, Sehat, Tidak Sehat, Sangat Tidak Sehat), dimana jumlah data sebanyak 992 data. Data ini juga merupakan data yang unbalance, artinya jumlah data dari setiap kelas-nya tidak seimbang. Adapun rincian dari data dapat dilihat pada table 1. Tabel 1. Rincian Data Yang digunakan Data Nilai Attribut Ke Jumlah Data Per- Kelas Jumlah Data 1 2 3 4 5 B S STS TS Index Pencemaran Udara 4โ€ฆ870 0โ€ฆ57 0โ€ฆ150 2โ€ฆ211 0โ€ฆ105 796 150 15 31 992 Pada penelitian ini akan menggunakan metode Hold-Out pada proses validasinya dimana sebanyak 80% dari jumlah data akan dijadikan sebagai data latih dan 20% sisanya akan dijadikan Calculate Feature Weighting using Gain Ratio Determination value of k Compute the similarity between data training and data testing Select k Nearest Neighor Compute local mean Compute the similarity between data test to local mean from each class data Select class with highest similarity FWKNN LMKNN IT Jou Res and Dev, Vol.5, No.1, Agustus 2020 : 11 - 18 Yuliska; Syaliman, Peningkatan Akurasi K-Nearest Neighbor Pada Data Index Standar Pencemaran Udara Kota Pekanbaru 15 sebagai data uji. Pada penelitian ini hanya akan menggunakan k bernilai 1 s/d K bernilai 5 dikarenakan data bersifat unbalance. Adapun rincian data uji dan data latih dapat dilihat pada tabel 2. Tabel 2. Rincian Data Latih dan Data Uji Jumlah Data Per-Kelas Jumlah Data B S STS TS Latih 640 119 10 24 793 Uji 156 31 5 7 199 Total Data 992 Untuk mengatahui dengan pasti apakah metode yang diusulkan mampu memberikan hasil akurasi yang terbaik, maka selanjutnya akan dilakukan pengujian dengan menggunakan data yang telah dibagi menjadi 2 bagian, adapun hasil dari akurasi dapat dilihat pada tabel 3 dan gambar 2. Tabel 3. Result Accuracy from APSI data k Accuracy Metode kNN(1) Metode Yang Diusulkan(2) Terbaik 1 93.97% 95.98% 2 2 93.97% 96.48% 2 3 95.48% 97.99% 2 4 94.47% 96.98% 2 5 95.48% 97.99% 2 Rata-rata 94.67% 97.09% 2 Gambar 2. Hasil Akurasi Klasifikasi Data ISPU. Berdasarkan tabel 3 dan gambar 2 terlihat bahwa metode yang diusulkan selalu memberikah hasil akurasi yang lebih baik dari kNN konvensional, dimana nilai akurasi terendah yang didapati kNN sebesar 93.97% dan yang tertinggi hanya sebesar 95.48% saat k bernilai 3 dan 5, sedangkan metode yang diusulkan mampu menghasilkan nilai akurasi terendah sebesar 95.98% dan tertinggi sebesar 97.99% saat k bernilai 3 dan 5. Rata-rata peningkatan yang dicapai pada metode yang diusulkan adalah sebesar 2.42%. 5. KESIMPULAN Berdasarkan bagian dari hasil dan pembahasan terlihat bahwa pembobotan attribut dan local mean mampu meningkatkan hasil akurasi dari kNN konvensional. Akurasi tertinggi yang mampu dicapai dengan menggunakan kNN konvensional hanya sebesar 95.48% saat k bernilai 3 dan 5, 91,00% 92,00% 93,00% 94,00% 95,00% 96,00% 97,00% 98,00% 99,00% 1 2 3 4 5 kNN Metode Yang Diusulkan IT Jou Res and Dev, Vol.5, No.1, Agustus 2020 : 11 - 18 Yuliska; Syaliman, Peningkatan Akurasi K-Nearest Neighbor Pada Data Index Standar Pencemaran Udara Kota Pekanbaru 16 sedangkan metode yang diusulkan mampu mencapai nilai akurasi sebesar 97.99% saat k bernilai 3 dan 5 dengan rata-rata peningkatan akurasi sebesar 2.42%. UCAPAN TERIMA KASIH Penulis mengucapkan terima kasih kepada Sri Indah Darlianti, S.T untuk sumbangan data ISPU Kota Pekanbaru, Lembaga Penelitian Politeknik Caltex Riau (PCR) untuk dukungan fasilitas serta financial dan kepada Raudhatul Jannah untuk dukungan moral maupun materil yang tak bias diungkapkan dengan kata-kata pada bagian ini. DAFTAR PUSTAKA [1] J. Wang, P. Neskovic, and L. N. Cooper, โ€œImproving nearest neighbor rule with a simple adaptive distance measure,โ€ Pattern Recognit. Lett., vol. 28, no. 2, pp. 207โ€“213, 2007. [2] N. Bhatia, and Vandana, โ€œSurvey of nearest neighbor techniquesโ€ Int. J. of Computer Science and Information Security, vol 8, no. 2, pp. 302-305, 2010. [3] J. Gou, Z. Yi, L. Du, and T. Xiong, โ€œA Local Mean-Based k -Nearest Centroid Neighbor Classifier,โ€ vol. 55, no. 9, 2012. [4] A. Suรกrez Sรกnchez, F. J. Iglesias-Rodrรญguez, P. Riesgo Fernรกndez, and F. J. de Cos Juez, โ€œApplying the K-nearest neighbor technique to the classification of workers according to their risk of suffering musculoskeletal disorders,โ€ Int. J. Ind. Ergon., vol. 52, pp. 92โ€“99, 2014. [5] H. B. Jaafar, N. B. Mukahar, and D. A. B. Ramli, โ€œA methodology of nearest neighbor: Design and comparison of biometric image database,โ€ Proc. - 14th IEEE Student Conf. Res. Dev. Adv. Technol. Humanit. SCOReD 2016, 2017. [6] K. Zheng, G. Si, L. Diao, Z. Zhou, J. Chen, and W. Yue, โ€œApplications of support vector machine and improved k-Nearest neighbor algorithm in fault diagnosis and fault degree evaluation of gas insulated switchgear,โ€ ICEMPE 2017 - 1st Int. Conf. Electr. Mater. Power Equip., pp. 364โ€“368, 2017. [7] Y. Cai, H. Huang, H. Cai, and Y. Qi, โ€œ-Nearest Neighbor Locally Search Regression Algorithm for Short-Term Traffic Flow Forecasting,โ€ no. Icmic, pp. 624โ€“629, 2017. [8] I. Gazalba, N. Gayatri, and I. Reza, โ€œComparative Analysis of K-Nearest Neighbor and Modified K- Nearest Neighbor Algorithm for Data Classification,โ€ pp. 294โ€“298, 2017. [9] F. Chen, Z. Ye, C. Wang, L. Yan, and R. Wang, โ€œA Feature Selection Approach for Network Intrusion Detection Based on Tree-Seed Algorithm and K-Nearest Neighbor,โ€ 2018 IEEE 4th Int. Symp. Wirel. Syst. within Int. Conf. Intell. Data Acquis. Adv. Comput. Syst., pp. 68โ€“72, 2018. [10] S. Han and Y. Li, โ€œScienceDirect ScienceDirect K-Nearest Neighbor combined with guided filter for hyperspectral K-Nearest Neighbor combined with guided filter for hyperspectral image classification image classification,โ€ vol. 00, 2018. [11] L. Le, โ€œDeep Similarity-Enhanced K Nearest Neighbors,โ€ 2018 IEEE Int. Conf. Big Data (Big Data), pp. 2643โ€“2650, 2018. [12] J. Kim, โ€œAdapt tive K -Neare est Ne eighbo our Alg gorithm m for WiFi Finge erprint t Posit tioning g,โ€ ICT Express, pp. 4โ€“7, 2018. [13] H. Kaneko, โ€œSC,โ€ Chemom. Intell. Lab. Syst., 2018. [14] A. Swetapadma and A. Yadav, โ€œA novel single-ended fault location scheme for parallel transmission lines using k-nearest neighbor algorithm โ˜†,โ€ Comput. Electr. Eng., vol. 69, no. May, pp. 41โ€“53, 2018. [15] A. R. Winnersyah, โ€œIdentification and Position Estimation Method with K-Nearest Neighbour and Home Occupants Activity Pattern,โ€ 2018 6th Int. Conf. Cyber IT Serv. Manag., no. Citsm, pp. 1โ€“4, 2018. [16] F. Borghesan, M. Chioua, and N. F. Thornhill, โ€œForecasting of process disturbances using k -nearest neighbours , with an application in process control R,โ€ Comput. Chem. Eng., vol. 128, no. 675215, pp. 188โ€“200, 2020. [17] M. Cao, L. I. N. Li, W. Xie, W. E. I. Jia, M. Ieee, and Z. Lv, โ€œParallel K Nearest Neighbor Matching for 3D Reconstruction,โ€ IEEE Access, vol. 7, pp. 55248โ€“55260, 2019.Test [18] J. Gou, H. Ma, W. Ou, S. Zeng, Y. Rao, and H. Yang, โ€œA generalized mean distance-based k-nearest neighbor classifier,โ€ Expert Syst. Appl., 2018. [19] N. Garcia-Pedrajas, J. A. Romero Del Castillo, and G. Cerruela-Garcia, โ€œA Proposal for Local $k$ Values for $k$-Nearest Neighbor Rule,โ€ IEEE Trans. Neural Networks Learn. Syst., vol. 28, no. 2, pp. 470โ€“475, 2017. IT Jou Res and Dev, Vol.5, No.1, Agustus 2020 : 11 - 18 Yuliska; Syaliman, Peningkatan Akurasi K-Nearest Neighbor Pada Data Index Standar Pencemaran Udara Kota Pekanbaru 17 [20] Z. Pan, Y. Wang, and W. Ku, โ€œA new k-harmonic nearest neighbor classifier based on the multi-local means,โ€ Expert Syst. Appl., vol. 67, pp. 115โ€“125, 2017. [21] S. Ougiaroglou and G. Evangelidis, โ€œFast and accurate k-nearest neighbor classification using prototype selection by clustering,โ€ Proc. 2012 16th Panhellenic Conf. Informatics, PCI 2012, no. i, pp. 168โ€“173, 2012. [22] F. Yu, J. C. Liu, and D. M. Liu, โ€œAn approach for fault diagnosis based on an improved k-nearest neighbor algorithm,โ€ Chinese Control Conf. CCC, vol. 2016-August, no. 1, pp. 6521โ€“6525, 2016. [23] S. K. Shukla and E. Koley, โ€œDetection and classification of open conductor faults in six-phase transmission system using k-nearest neighbour algorithm,โ€ 2017 7th Int. Conf. Power Syst. ICPS 2017, pp. 157โ€“161, 2018. [24] K. Fathoni, M. Zikky, A. S. Nurhayati, and I. Prasetyaningrum, โ€œApplication of K-Nearest Neighbor Algorithm for Puzzle Game of Human Bodyโ€™s System Learning on Virtual Mannequin,โ€ Proc. - 2018 Int. Conf. Appl. Sci. Technol. iCAST 2018, pp. 530โ€“535, 2018. [25] S. S. Mullick, S. Datta, and S. Das, โ€œAdaptive learning-based k-nearest neighbor classifiers with resilience to class imbalance,โ€ IEEE Trans. Neural Networks Learn. Syst., vol. 29, no. 11, pp. 5713โ€“ 5725, 2018. [26] K. Nyodu and K. Sambyo, โ€œAutomatic Identification of Arunachal language Using K-Nearest Neighbor Algorithm,โ€ Proc. - IEEE 2018 Int. Conf. Adv. Comput. Commun. Control Networking, ICACCCN 2018, pp. 213โ€“216, 2018. [27] M. Pujari, C. Awati, and S. Kharade, โ€œEfficient Classification with an Improved Nearest Neighbor Algorithm,โ€ Proc. - 2018 4th Int. Conf. Comput. Commun. Control Autom. ICCUBEA 2018, pp. 1โ€“5, 2018. [28] G. A. Sandag, N. E. Tedry, and S. Lolong, โ€œClassification of Lower Back Pain Using K-Nearest Neighbor Algorithm,โ€ 2018 6th Int. Conf. Cyber IT Serv. Manag. CITSM 2018, no. Citsm, pp. 1โ€“5, 2019. [29] M. Marzouq, H. El Fadili, Z. Lakhliai, A. Mechaqrane, and K. Zenkouar, โ€œNew distance weighted k Nearest Neighbor model for hourly global solar irradiation estimation,โ€ 2019 Int. Conf. Wirel. Technol. Embed. Intell. Syst. WITS 2019, pp. 1โ€“5, 2019. [30] Y. Wang, Z. Pan, and Y. Pan, โ€œA Training Data Set Cleaning Method by Classification Ability Ranking for the k-Nearest Neighbor Classifier,โ€ IEEE Trans. Neural Networks Learn. Syst., no. 1, pp. 1โ€“13, 2019. [31] Y. Mitani and Y. Hamamoto, โ€œA local mean-based nonparametric classifier,โ€ Pattern Recognit. Lett., vol. 27, no. 10, pp. 1151โ€“1159, 2006. [32] Z. Pan, Y. Wang, and W. Ku, โ€œA new general nearest neighbor classification based on the mutual neighborhood information,โ€ Knowledge-Based Syst., vol. 121, pp. 142โ€“152, 2017. [33] A. Duneja and T. Puyalnithi, โ€œEnhancing Classification Accuracy of K-Nearest Neighbours Algorithm Using Gain Ratio,โ€ Int. Res. J. Eng. Technol., vol. 4, no. 9, pp. 1385โ€“1388, 2017. [34] K. U. Syaliman, E. B. Nababan, and O. S. Sitompul, โ€œImproving the accuracy of k-nearest neighbor using local mean based and distance weight,โ€ J. Phys. Conf. Ser., vol. 978, no. 1, 2018. [35] Y. Chen and Y. Hao, โ€œA feature weighted support vector machine and K-nearest neighbor algorithm for stock market indices prediction,โ€ Expert Syst. Appl., vol. 80, pp. 340โ€“355, 2017. [36] A. A. Nababan, O. S. Sitompul, and Tulus, โ€œAttribute Weighting Based K-Nearest Neighbor Using Gain Ratio,โ€ J. Phys. Conf. Ser., vol. 1007, no. 1, 2018. [37] Thomas M. Mitchell. 1997. Machine Learning (1 ed.). McGraw-Hill, Inc., New York, NY, USA. [38] P. P. R., V. M.L., and S. S., โ€œGain Ratio Based Feature Selection Method for Privacy Preservation,โ€ ICTACT J. Soft Comput., vol. 01, no. 04, pp. 201โ€“205, 2011. IT Jou Res and Dev, Vol.5, No.1, Agustus 2020 : 11 - 18 Yuliska; Syaliman, Peningkatan Akurasi K-Nearest Neighbor Pada Data Index Standar Pencemaran Udara Kota Pekanbaru 18 BIOGRAFI PENULIS Yuliska, S.T., M.Eng obtained her bachelor degree in informatics engineering from State Islamic University of Suska Riau, in 2009, obtained her master degree in Computer Science and Communications Engineering from Waseda University, in 2017. She is now a lecturer in Informatics Engineering major, Politeknik Caltex Riau. Her current research interests are Natural Language Processing, Text Mining, Deep Learning and Human Computer Interaction Khairul Umam Syaliman is now a lecturer in Informatics Engineering major, Politeknik Caltex Riau. His current research interests are Artificial Intelligence, Data Mining, Machine Learning, Deep Learning and Natural Language Processing.