lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 83 rancang bangun sistem pilkades menggunakan teknologi smart card sebagai kartu pemilih i putu i permanaa1, i ketut g darma putraa2, i gusti m a sasmitaa3 ajurusan teknologi informasi, fakultas teknik, universitas udayana jalan kampus bukit universitas udayana, bali, indonesia 1indrappermana@gmail.com 2darma.putra@ee.unud.ac.id 3aryasasmita83@gmail.com abstrak pemilihan kepala desa (pilkades) merupakan proses yang tidak terpisahkan dari negara indonesia sebagai negara demokrasi. pilkades saat ini masih menggunakan sistem pemungutan suara (voting) secara konvensional, menggunakan media kertas untuk melakukan proses pemilihan. pelaksanaan sistem voting konvensional tersebut mempunyai banyak kelemahan seperti menghitung hasil voting relatif lebih lama dan menggunakan perhitungan manual. perkembangan dan kemajuan teknologi informasi saat ini dapat dimanfaatkan untuk mendukung pelaksanaan voting pilkades secara lebih baik yang menjadi solusi cerdas akan kemajuan teknologi yang dapat menggantikan sistem voting konvensional, yaitu dengan media sistem elektronik voting (e-voting) menggunakan teknologi smart card sebagai kartu pemilih. sistem dikemas dalam bentuk aplikasi yang dipasang/di-install pada komputer dan reader/writer tools sebagai media untuk membaca/menulis pada smart card. sistem e-voting pilkades dengan teknologi smart card telah berhasil dijalankan dan menghasilkan dashboard hasil voting pilkades dengan menunjukkan jumlah voting dalam bentuk angka, persentase (%), grafik dan diagram. kata kunci: pemilihan kepada desa (pilkades), e-voting, smart card, reader/writer tool, teknologi informasi. abstract village head election (pilkades) is an inseparable process in the state of indonesia as a democracy country. pilkades today still uses a voting system conventionally, using media in form of paper to conduct the electoral process. implementation of the conventional voting system has many weaknesses, such as the time to count the voting results are relatively longer and it still uses manual calculation. the advance development in recent information technology can be used to support the better implementation of the pilkades voting which expected to be a smart solution that in the future may replace the conventional voting system, for example by electronic voting system (e-voting) which is using smart card technology as a voter card. the system is packaged in the form of apps installed on the computer and a reader/writer tool as a media to read/write on the smart e-voting card. pilkades system with smart card technology has been successfully executed and in the dashboard apps is shown the number of voting in pilkades voting results in the form of numbers, percentages (%), graphs and charts. keywords: village head election (pilkades), e-voting, smart card, reader/writer tool, information technology. 1. pendahuluan indonesia merupakan negara yang menganut sistem politik berbasis demokrasi yang artinya memberikan hak pilih atau voting kepada setiap warga negara yang telah memenuhi persyaratan untuk pengambilan keputusan dalam menentukan para wakil rakyat atau kepala daerah. sistem electronic voting (e-voting) adalah evolusi dari sistem voting bersifat konvensional yaitu dengan menggunakan kertas sebagai media untuk melakukan pemilihan menjadi sistem pemilihan mailto:indrappermana@gmail.com mailto:darma.putra@ee.unud.ac.id mailto:aryasasmita83@gmail.com lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 84 berbasis aplikasi yang diterapkan pada komputer serta pengolahan data hasil voting langsung oleh sistem dan mendapatkan hasil cepat dari voting yang telah dilaksanakan. salah satu contoh wilayah yang sudah menerapkan sistem e-voting adalah kabupaten jembrana, bali. kabupaten jembrana sudah menerapkan sistem e-voting untuk melakukan pemilihan kepala daerah (pilkada), menggunakan kartu ktp elektronik (e-ktp) sebagai alat untuk melakukan voting pilkada. wilayah bali sendiri memiliki kabupaten yang tentunya terdapat desa. desa dipimpin oleh kepala desa (kades). proses pemilihan kepala desa (pilkades) setiap desa masih menggunakan sistem voting konvensional, yang mempunyai kelemahan seperti menghitung hasil voting relatif lebih lama serta menggunakan perhitungan secara manual yang juga memiliki resiko pada akurasi hasil voting, sehingga diperlukan sistem e-voting pilkades di desa dengan pemanfaataan smart card sebagai kartu pemilih [1]. penerapan sistem e-voting pilkades dapat memberikan solusi cerdas terkait dengan akurasi hasil dan kecepatan perhitungan suara. teknologi yang digunakan pada sistem e-voting pilkades dengan smart card dan reader/writer tool sebagai pembaca data yang dimiliki warga sesuai persyaratan voting pilkades. aplikasi sistem e-voting pilkades diharapkan dapat bermanfaat untuk desa dan memudahkan warga melakukan pemilihan di tempat pemungutan suara. 2. metodologi penelitian metode e-voting berdasarkan data smart card yang berupa data warga. prinsip kerja dari sistem e-voting pilkades adalah sistem e-voting mendeteksi smart card yang di-scan melalui reader/writer tool oleh pemilih, apabila data cocok dan terdaftar pada sistem, maka sistem akan melanjutkan langkah menampilkan foto dari calon kepala desa yang akan dipilih oleh pemilih. pemilih akan melakukan pemilihan dengan meng-klik dari foto calon kepala desa dan sistem akan menyimpan hasil voting dari pemilih yang telah melaksanakan kewajibannya dengan baik. hasil voting ditampilkan melalui halaman administrator sistem berupa dashboard hasil voting. 2.1. flowchart penggunaan aplikasi diagram alir (flowchart) penggunaan aplikasi merupakan suatu alur secara keseluruhan dari penggunaan aplikasi e-voting pilkades ini. alur dimulai dari melakukan scan terhadap smart card pemilih, kemudian aplikasi membaca data smart card pemilih lalu menampilkan foto calon kepala desa yang ada pada sistem. berikut diagram alir (flowchart) untuk penggunaan aplikasi ini dapat dilihat pada gambar 1. secara umum proses dari aplikasi ini adalah user menggunakan smart card sebagai identitas digital yang akan di-scan melalui reader/writer tool yang sudah terintegerasi pada aplikasi lalu aplikasi e-voting akan mencocokan data dalam database. data sesuai dan terverifikasi maka tahap selanjutnya menampilkan halaman voting yaitu foto calon kepala desa, lalu meng-klik foto calon kepala desa, kemudian muncul halaman terima kasih yang berisi kata-kata terimakasih telah menggunakan kewajiban dengan baik. jika pemilih melakukan kecurangan dengan sengaja meng-scan kembali smart card, maka muncul validasi bahwa data pemilih pada smart card sebelumnya telah melakukan voting. gambar 1. flowchart penggunaan aplikasi lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 85 2.2. gambaran umum sistem aplikasi sistem e-voting pilkades ini diakses oleh satu pemilih. pemilih adalah warga yang sudah terverifikasi dalam sistem untuk melakukan voting. pemilih menggunakan aplikasi ini dengan media komputer, sebagai media voting pilkades yang diselenggarakan oleh panitia setempat. gambar 2. gambaran umum sistem gambaran umum aplikasi pada gambar 2 memperlihatkan interaksi yang terjadi antara pemilih dengan aplikasi e-voting pilkades, dimana pengguna berinteraksi dengan smart card serta reader/writer tool yang terintegerasi pada sistem e-voting pilkades. pemilih melakukan voting calon kepala desa, dan menghasilkan dashboard hasil voting pilkades. 2.3. data flow diagram (dfd) design data flow diagram (dfd) pada aplikasi sistem e-voting memiliki fungsi untuk menggambarkan proses aliran data yang terjadi pada sistem dari tingkat tertinggi sampai terendah dari sistem. sistem e-voting pilkades memiliki context diagram (dfd level 0) dan dfd diagram level 1 yang menunjukkan alur data sistem adalah sebagai berikut. 2.3.1. context diagram (dfd level 0) context diagram merupakan diagram pertama dalam rangkaian suatu dfd yang menggambarkan suatu entity saling berhubungan dengan sistem dan aliran data secara umum. proses yang lebih detail terdapat dalam sistem masih belum dapat diketahui [6]. desain context diagram sistem e-voting pilkades ditunjukkan pada gambar 3 yang memiliki dua external entity, yaitu pemilih dan admin. pemilih 0 sistem e-voting pilkades admin data login, data hasil pemilihan data kepala desa, data hasil pemilihan, data pemilih data kepala desa, data pemilih data hasil pemilihan pemilih ketua panitia data laporan keseluruhan data request laporan gambar 3. context diagram sistem e-voting pilkades lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 86 2.3.2. dfd diagram level 1 context diagram pada sistem e-voting pilkades dikembangkan lagi sehingga menjadi diagram aliran data tingkat satu, yang memuat rincian dari diagram konteks sebelumnya. dfd level 1 dilihat dari pengolahan sistem e-voting pilkades, yang memiliki 5 proses utama adalah sebagai berikut. a. manajemen pemilih b. manajemen calon kepala desa c. manajemen autentifkasi d. manajemen voting e. manajemen hasil voting gambar 4. dfd level 1 2.4. entity relationship diagram (erd) sistem e-voting pilkades ini memiliki 4 buah entitas yaitu administrator, calon kepala desa, pemilih dan hasil voting. administrator menginputkan data warga dan data calon kepala desa ke sistem. warga telah resmi menjadi pemilih tetap, mendapatkan smard card sebagai kartu pemilih. pemilih mengakses sistem e-voting pilkades dengan melakukan login dengan mengscan smart card, lalu masuk pada halaman voting pilkades. halaman voting pilkades, akan muncul kandidat calon kepala desa dan dipilih langsung oleh warga. sistem menyimpan data pilihan dari pemilih ke dalam database dan mengolahnya dengan menghitung jumlah suara masing-masing calon kepala desa, jumlah pemilih atau penduduk yang memilih dan jumlah penduduk yang tidak memilih kemudian menampilkan hasil pemungutan suara. gambar 5 menampilkan erd dari sistem e-voting pilkades. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 87 gambar 5. erd sistem e-voting pilkades 3. kajian pustaka kajian pustaka memuat semua pustaka yang dijadikan acuan pada penelitian aplikasi sistem evoting pilkades. pustaka didapat dari berbagai referensi baik jurnal ilmiah, maupun buku-buku. 3.1. skema e-voting skema e-voting adalah satu set protokol yang menjaga keamanan atau kerahasiaan oleh pemilih dalam melakukan pemilihan serta interaksi dengan panitia pemilihan dan perhitungan suara. evoting pada umumnya dibedakan menjadi dua tipe, yaitu e-voting online (sistem via internet) dan e-voting offline (dengan menggunakan mesin penghitung suara atau kertas suara) [2]. tujuan dari keamanan sistem e-voting adalah menjamin kerahasiaan pemilih dan keakuratan pilihan. keamanan sistem e-voting memiliki beberapa kriteria adalah sebagai berikut. a. eligibility and authentication adalah hanya pemilih terdaftar yang dapat memberikan suara. b. uniqueness adalah pemilih hanya dapat memilih sekali. c. accuracy adalah sistem harus dapat menyimpan pilihan dengan benar. d. integrity adalah sistem harus menjamin pilihan tidak dapat diubah, dipalsu dan dihapus tanpa deteksi. e. verifiability and auditability adalah sistem memungkinkan pengecekan pilihan untuk memeriksa bahwa semua pilihan telah dihitung dengan benar dan harus ada rekaman pilihan yang asli dan terpercaya. f. reliability adalah sistem harus dapat bekerja dengan benar tanpa kehilangan satupun pilihan meskipun bila terjadi permasalahan berat pada mesin atau jaringan komunikasi. g. secrecy and non-coercibility adalah sistem harus menjamin kerahasiaan setiap pemilih untuk mencegah terjadinya penjualan atau pemaksaan suara [3]. pelaksanaan e-voting di indonesia, pertama kali diselenggarakan pada pemilihan kepala daerah di kabupaten jembrana, bali. berikut ini adalah gambar 6 yang menunjukkan alur sistem evoting kabupaten jembrana. m 1 1 m 1 1 lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 88 gambar 6. gambar alur sistem e-voting kabupaten jembrana [4] 3.2. contactless smart card kartu pintar atau smart card adalah chip card atau intergrated circuit card (icc) merupakan kartu plastik yang berukuran sama dengan kartu kredit, yang didalamnya terdapat chip silicon disebut microcontroller. chip terdiri dari rangakaian terintegerasi (integerated circuit), yaitu prosesor dan memory. chip pada smart card berfungsi untuk melaksanakan perintah dan menyediakan power ke smart card [5]. gambar 7 menunjukkan kartu pintar atau smart card. gambar 7. contactless smart card salah satu komponen yang penting dalam penggunaan teknologi ini adalah aspek keamanan. data yang tersimpan biasanya berupa data bersifat rahasia, hanya boleh diakses oleh pihak yang memiliki wewenang. mekanisme pengamanan yang spesifik untuk melindungi informasi yang disimpan dalam smart card. mifare contactless smart card memiliki mekanisme pengamanan yang baik, tetapi bentuknya standart, sehingga setiap pihak yang mengetahui strukturnya akan dapat menembus keamanan dari smart card [6]. 4. hasil dan pembahasan tujuan dari pembuatan aplikasi ini adalah untuk mengembangkan sistem e-voting pilkades, menerapkan teknologi smart card dan menghasilkan informasi dan laporan untuk manajemen pengelola e-voting pilkades. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 89 4.1. halaman pendaftaran pemilih sistem pendaftaran pemilih adalah proses saat pemilih mengisi form pendaftaran dengan benar, kemudian sistem akan memasukkan data pendaftaran ke dalam database dusun sesuai dengan dusun yang dimasukkan oleh pemilih. gambar 8 adalah tampilan untuk pendaftaran pemilih. gambar 8. halaman pendaftaran pemilih 4.2. verifkasi data pemilih proses verifikasi pemilih merupakan tahapan verifikasi pemilih menjadi daftar pemilih tetap (dpt) untuk dapat melakukan e-voting pilkades menggunakan smart card. verifikasi pemilih menjadi dpt telah dilakukan, selanjutnya pemilih mendapatkan smart card yang nantinya sebagai kartu pemilih untuk melakukan e-voting pilkades. gambar 9 merupakan tampilan verifikasi data pemilih menjadi dpt dengan meng-klik button verifikasi pemilih tetap. gambar 9. verifikasi data pemilih menjadi data pemilih tetap (dpt) 4.3. verifikasi data pemilih tetap (dpt) pada smart card proses verifikasi data pemilih tetap (dpt) pada smart card merupakan tahap menulis/writing data pemilih pada smart card dengan reader/writer tools. data pemilih tersimpan dalam memory smart card, kemudian digunakan untuk e-voting pilkades. gambar 9 menjelaskan, data pemilih pada halaman dpt tersebut di-klik kanan dan pilih button tulis ke smart card, lalu data pemilih disimpan dalam memory smart card. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 90 gambar 10. verifikasi data pemilih tetap (dpt) pada smart card 4.4. proses absensi data pemilih absensi data pemilih berfungsi untuk mendata kembali warga sebagai pemilih dengan mengabsensi sebagai tanda hadir serta menunjukkan bahwa benar data pada smart card sesuai dengan pemilih. absensi dalam proses wajib dilakukan agar dapat melakukan e-voting pilkades, jika ada pemilih tidak melakukan proses absensi, maka pemilih tidak bisa melakukan proses evoting pilkades.. gambar 11 menunjukkan halaman hasil absensi data pemilih. gambar 11. halaman hasil absensi data pemilih 4.5. proses e-voting pilkades data pemilih yang sudah tersimpan dalam smart card kemudian dipergunakan dalam proses evoting pilkades. gambar 12 menunjukkan halaman voting dengan proses pemilih melakukan scan smart card, masuk ke sistem voting dan melakukan voting calon kepala desa. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 91 gambar 12. proses e-voting pilkades 4.1 dashboard hasil e-voting pilkades dashboard hasil e-voting pilkades menunjukkan hasil setelah pemilih melakukan e-voting pilkades. gambar 13 menunjukkan dashboard hasil voting pilkades dengan menampilkan jumlah voting dalam bentuk angka, persen (%), grafik dan diagram. gambar 13. dashboard hasil e-voting pilkades 5. kesimpulan pemilihan secara electronic (e-voting) memiliki banyak keunggulan, yaitu dapat menghemat waktu dan tenaga sumber daya terutama dalam proses perhitungan suara. waktu pemilih melakukan voting pilkades lebih cepat dan hemat tenaga sumber daya karena aplikasi sistem sudah dirancang untuk mendapatkan langsung hasil voting yang lebih cepat dan akurat. penelitian ini berhasil menerapkan sistem e-voting pilkades yang terdiri dari sistem pendaftaran pemilih, verifikasi data pemilih, verifikasi data pemilih dengan smart card, absensi data pemilih, proses e-voting pilkades dan dashboard hasil voting dengan menampilkan jumlah voting dalam bentuk angka, persen (%), grafik dan diagram. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p02 e-issn 2541-5832 92 daftar pustaka [1] a. rokhman, “prospek dan tantangan penerapan e-voting di indonesia,” in seminar nasional peran negara dan masyarakat dalam pembangunan dan masyrakat madani di indonesia, 2011, pp. 1–11. [2] s. canard and h. sibert, “how to fit cryptographic e-voting into smart cards,” in ios press, 2011. [3] “jembrana voting” [online]. available: http://www.jembranakab.go.id/index.php?module=evoting [diakses tanggal 1 februari 2016]. [4] advance card system, acr120s contactless reader/writer communication protocol. 2006. [5] c. i. kurnia, h. tanuwijaya, and t. sagirani, “rancang bangun sistem informasi food crount pada pusat pembelanjaan smart surabaya,” jurnal sistem informasi, vol. 2, no. 2, 2013. lontar komputervol. 4, no. 1, april 2013 issn: 2088-1541 224 automatic image annotation menggunakan metode block truncation dan k-nearest neighbor duman care khrisne1, darma putra2 1stiki, bali 2teknologi informasi, universitas udayana, bali e-mail: duman.lx14@gmail.com1, ikgdarmaputra@gmail.com2 abstrak sistem temu kembali citra digital berbasis text sangat bergantung pada label dari gambar digital. dalam penelitian ini, diterapkan gabungan beberapa metode untuk pelabelan sebuah gambar secara otomatis, istilah yang sering digunakan adalah automatic image annotation, teknik ini digunakan untuk menghasilkan label pada gambar agar dapat melakukan pencarian dengan semantik yang diambil dari objek dalam gambar. automatic image annotation dimulai dengan melakukan segmentasi terhadap gambar dan untuk setiap segmen gambar dilakukan ekstraksi fitur warna dan tekstur, fitur ini dinormalisasi dan disimpan kedalam basis data untuk data latih, data latih yang telah terkumpul dilatih menggunakan metode learning vector quantization. bobot yang didapat dari hasil pelatihan digunakan untuk melakukan klasifikasi terhadap segmen gambar ke kosa kata hasil terjemahannya. hasil dari penelitian ini adalah kesimpulan bahwa automatic image annotation dapat dicapai dengan gabungan metode yang diusulkan dan dapat memberi performa hasil anotasi yang bagus, dimana akurasi sistem adalah 73,26 % saat menggunakan k-nn dengan k = 5. kata kunci:automatic image annotation, pelabelan,fitur warna,k-nearest neighbor abstract labeling of digital images is an important role in digital image retrieval system.in this research, combined methods are utilized to create a label for an image automatically, known asautomatic image annotationwhere isthis technique is used to generate a label on the image that will help image searching with a more refined semantics. nowadays, as known the author, there has been no scientific work that combining betweenblock truncation algorithm and k-nearest neighbor.automatic image annotation begins with feature extraction where this features will be labeled and stored into the database as the training data. afterward, the k-nearest neighbor method was usedto classify the test data using the training set in the database. the results of this study is a system can label the image automatically from one of the theme of the image dataset, the accuracy of the system at most is 73,26% while using k-nn with k = 5. keywords:automatic image annotation, labeling, color feature, k-nearest neighbor 1. pendahuluan dalam sepuluh tahun terakhir gambar digital telah mengalami pertumbuhan jumlah yang sangat pesat. internet foto sharing sangat digemari, pada april 2007 flickr yang merupakan salah satu media online foto sharing telah memiliki 5 juta anggota ter-registrasi dan lebih dari 250 juta gambar [1], walaupun penggunanya sudah mulai melakukan pelabelan gambar namun sebagian besar gambar digital yang terdapat di internet masih belum terdokumentasikan. untuk menggali informasi dari gambar digital yang berjumlah banyak, perlu dibuat sebuah teknik untuk mendokumentasikan dan melakukan pencarian kembali terhadap gambar. teknik image retrieval telah dikembangkan sejak tahun 1970 [2]. para peneliti dari dua komunitas yang berbeda yaitu, komunitas database management dan komunitas computer vision menggunakan dua jenis pendekatan yang berbeda untuk melakukan image retreival, textlontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 225 based dan visual-based. text-basedimage retreival pada jaman itu mengharuskan gambar dianotasi secara manual sebelum gambar tersebut dapat diambil atau dicari kembali. ada dua hal yang menyebabkan pendekatan ini tidak mungkin dilakukan sekarang, pertama banyaknya tenaga dan sumber daya yang digunakan untuk meng-anotasi gambar digital yang banyak saat ini, dan subjektivitas dari orang yang melakukan anotasi. orang yang berbeda menginterpretasikan gambar dengan cara yang berbeda dan menghasilkan label yang berbeda [3]. awal tahun 1990 content-based image retreival(cbir), melakukan pendekatan dengan teknik baru yaitu dengan melakukan image retreival berdasarkan isi gambar secara visual, seperti warna dan tekstur dan tidak menggunakan keyword sebagai acuan. teknik ini mendapat lebih banyak perhatian dibandingkan teknik sebelumnya, namun terjadi masalah, karena sebagai pengganti keyword, sebuah gambar harus dijadikan acuan untuk melakukan image retreival. hal ini menyebabkan suatu kejadian yang disebut dengan semantic gap, yaitu kurangnya kemampuan seseorang mendapatkan informasi yang diekstrak dari sebuah data visual yang dimiliki, karena data yang dapat diekstrak dari data visual diinterpretasikan berbeda oleh user [3]. content-based image retreival dan text-based image retrival memiliki kelemahan dalam proses temu kembali citra digital. oleh karena itu penelitian automatic image annotation hadir sebagai jembatan yang mengatasi kelemahan dari kedua metode tersebutdan pada penelitian ini dilakukan perancangan automatic image annotation menggunakan gabungan metode block truncation algorithm untukmelakukan ekstraksi fitur k-nearest neighbor(k-nn) untuk mengklasifikasi vektor fitur. tujuannya adalah mengatasi kelemahan content-ased image retreival dan text-based image retrival, dengan cara memberikan label yang dibentuk dari informasi dalam gambar digital, secara otomatis pada sebuah gambar digital. sehingga proses temu kembali citra digital dapat dilakukan dengan pencarian semantik yang lebih baik, karena keyword atau label dalam sebuah gambar diekstrak dari ciri yang dimiliki oleh gambar tersebut. 2. penelitian sebelumnya jiayu tang pada tahun 2008 telah melakukan penelitian dan membandingkan beberapa pendekatan salah satunya dengan menggunakan metode cross media relevance model pada salient region yang dibandingkan dengan cross media relevance model pada region based yang ditulis oleh jonathon s. hare and paul h[3]. lewis pada penelitian berjudul image retrieval using salient regions with vector spacesand latent semantics pada tahun 2005. data set yang digunakan secara acak dibagi menjadi 3 bagian, 45% digunakan untuk training set, 5% digunakan untuk evaluation set sedangkan 50% sisanya digunakan untuk test set. didapatkan kesimpulan bahwa cross media relevance model pada salient region mampu memprediksi kata yang lebih tepat untuk sebuah gambar, tingkat akurasinya sampai dengan 80% namun hanya bagus untuk sebuah kata dalam sebuah gambar, jika jumlah kata yang harus diprediksi dalam sebuah gambar bertambah maka tingkat akurasinya menurun. trong-tôn pham dalam penelitiannya melakukan penggabungan antara region-based and saliency-based models untuk melakukan automatic image annotation pada tahun 2006 [4]. hasil uji didasarkan pada kemampuan metode mendapatkan kata untuk diprediksi, sebuah kata dianggap dapat diprediksi jika rata-rata pemanggilan kembali lebih besar dari 0, sedangkan jika tidak maka dianggap tidak dapat diprediksi. berdasarkan ketentuan tersebut dari 260 kata dalam test set didapatkan hasil 87 kata dapat diprediksi dengan region-based model, menggunakan direct–fusionmodel mendapatkan 81 kata yang dapat diprediksi, 75 kata terprediksi dengan menggunakan latent semantic analysis, sedangkan menggunakan saliencybased hanya mampu menghasilkan 36 kata terprediksi. dr. sanjay silakari, dr. mahesh motwani dan manish maheshwari dalam penelitiannyamelakukan penelitian dengan metode block truncation algorithm dalam melakukan temu kembali gambar[5], hasil yang didapatkan menunjukkan bahwa teknik block truncation algorithm memberikan presisi yang lebih baik daripada menggunakan momen warna saja. penelitian ini juga menyimpulkan bahwa isi dari sebuah gambar digital dapat direpresentasikan lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 226 dalam fitur–fitur seperti warna, tekstur dan bentuk jika algoritma klasterisasi k-means diaplikasikan pada fitur-fitur ini. ameesh makadia, vladimir pavlovic dan sanjiv kumar telah melakukan penelitiandengan menggunakan 2 pendekatan yaitu joint equal contribution(jec) dan l1-penalized logistic regression(lasso) pada tahun 2008 [6]. kesimpulan yang didapat dari penelitian ini adalah presisi yang mengejutkan dari teknik baseline yang dianggap sederhana namun mampu menyamai metode-metode yang lebih kompleks. penelitian ini berhasil membuat sebuah pendekatan simple yang menggunakan fitur warna dan tekstur yang didapatkan dari momen histogram serta gelombang singkat haar dan gabor serta teknik k-nn digunakan dalam proses klasifikasinya. 3. metode yang diusulkan penelitian ini memiliki dua bagian utama yaitu proses ekstraksi fitur warna dari data latih menggunakan block truncation algorithm(btc) dan proses melakukan pelabelan dengan menggunakan metode k-nn.skema dari sistem yang diusulkan dapat dilihat pada gambar 1. gambar 1. skema sistem yang diusulkan sistem yang akan dikembangkan menggunakan 2 metode yang digabungkan yang akan dibahas pada subbab 3.1 dan 3.2. 3.1 block truncation algorithm block truncation algorithm(btc) adalah algoritma mendapatkan fitur warna dari sebuah citra berwarna, citra berwarna dibagi berdasarkan komponen penyusun warna r, g dan b, rata-rata dari setiap komponen warna dijadikan patokan untuk memisah komponen warna menjadi dua h dan l dimana h untuk pixel-pixel dalam citra yang memiliki nilai lebih tinggi dari rata-rata nilai pixel dalam suatu komponen warna dan l untuk pixel-pixel dalam citra yang memiliki nilai lebih rendah dari rata-rata nilai pixel dalam suatu komponen warna. jadi warna dari sebuah gambar membentuk 6 kelompok rh, rl, gh, gl, bh dan bl. momen-momen dari kelompok inilah yang menjadi fitur warna dari btc [5]. dalam penelitian ini akan digunakan dua buah momenyaitu : a. mean. mean dapat diartikan sebagai rata-rata nilai warna yang terdapat pada gambar digital, momen mean dapat dicari dengan persamaan1. (1) e = momen k = komponen warna p i q j ij k k ppq e 1 1 1 lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 227 pkij = nilai pixel pada (i,j ) dalam sebuah komponen warna k p = tinggi gambar q = lebar gambar b. standar deviasi. standar deviasi adalah nilai akar kuadrat dari distribusi varian, momen standar deviasi dapat dicari dengan persamaan 2. .................................. (2) sd = standar deviasi k = komponen warna pkij = nilai pixel pada (i,j ) dalam sebuah komponen warna k ek = nilai mean pada komponen warna k p = tinggi gambar q = lebar gambar 3.2 k-nearest neighbor k-nearest neighbor(k-nn) adalah jenis metode klasifikasi non parametrik, yang berarti metode ini tidak memperhatikan distribusi dari data yang ingin kita kelompokkan. teknik ini sangat sederhana dan mudah untuk diimplementasikan, algoritma dari k-nn adalah sebagi berikut [7]. 1. mulai. 2. input berupa : data latih, label untuk data latih, k, data uji. 3. hitung jarak data uji ke setiap data training. 4. pilih k data latih yang jaraknya paling dekat dengan data uji. 5. periksa label dari k data latih yang jaraknya paling dekat dengan data uji. 6. tentukan label yang frekuensinya paling banyak. 7. labelkan data uji dengan label yang frekuensinya paling banyak. 8. stop. untuk menghitung jarak antara data uji dan data latih dapat digunakan jarak euclidean. n i ii yxyxyxd 1 22),( ............................. (3) dua buah gambar yang memiliki tema yang sama atau gambar yang dilabelkan dengan label gambar yang sama memiliki fitur warna dengan jarak euclidean yang bernilai relatif kecil jika dibandingkan dengan gambar yang tidak memiliki tema atau label gambar yang sama. tabel 1 membuktikan bahwa gambar yang dilabelkan dengan label yang sama akan memiliki jarak yang lebih kecil jika dibandingkan dengan gambar yang dilabelkan dengan label yang berbeda. tabel1. perbandingan jarak fitur warna terhadap gambar acuan gambar (acuan) (uji 1) (uji 2) fitur warna m – rl 21.81276448 56771 m – rl 13.945058186 849 m – rl 37.471361 4259263 m – rh 89.47943115 23438 m – rh 84.897745768 2292 m – rh 76.651311 3720064 p i q j kij k k eppq sd 1 1 2)( 1 lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 228 m – gl 39.79763793 94531 m – gl 35.905537923 1771 m – gl 32.526725 9446151 m – gh 89.00500488 28125 m – gh 72.360788981 1198 m – gh 81.966498 4637923 m – bl 28.63138834 63542 m – bl 21.731028238 9323 m – bl 33.998931 7761003 m – bh 66.52960205 07812 m – bh 50.730082194 0104 m – bh 87.748926 6893198 sd – rl 28.32713989 7078 sd – rl 18.789773444 1592 sd – rl 36.165092 8673259 sd – rh 45.63636282 38834 sd – rh 48.647543187 6674 sd – rh 69.526094 6237467 sd – gl 39.92827450 81015 sd – gl 29.867275312 4444 sd – gl 33.988356 2170152 sd – gh 54.36267611 57691 sd – gh 63.520961753 7918 sd – gh 68.226359 0709167 sd – bl 27.88844248 23128 sd – bl 20.672400869 1103 sd – bl 35.044393 1234214 sd – bh 31.72561762 6994 sd – bh 20.060846984 7561 sd – bh 76.366856 155085 label kuda kuda gunung dan glasier jarak ke (acuan) 0 33.84635 62.40925 gambar (uji3) (uji 4) (uji 5) fitur warna m – rl 14.15962847 28934 m – rl 4.6231689453 125 m – rl 15.451538 0859375 m – rh 95.09897555 36792 m – rh 68.221750895 1823 m – rh 195.83075 9684245 m – gl 30.86863281 68713 m – gl 4.3232014973 9583 m – gl 13.747090 6575521 m – gh 91.95103614 55589 m – gh 13.289774576 8229 m – gh 192.23825 0732422 m – bl 21.94975431 60015 m – bl 9.3480224609 375 m – bl 42.503356 9335938 m – bh 63.58261188 03219 m – bh 16.255828857 4219 m – bh 147.89525 3499349 sd – rl 25.15114439 7055 sd – rl 6.9671005494 8611 sd – rl 39.388007 1101041 sd – rh 39.40641195 8317 sd – rh 49.050524389 6089 sd – rh 28.735147 9993196 sd – gl 37.93446584 33629 sd – gl 4.5879930757 4405 sd – gl 35.781631 7191425 sd – gh 51.11111812 18775 sd – gh 18.795063036 8458 sd – gh 30.202775 087356 sd – bl 25.14262697 0656 sd – bl 6.5378896368 77 sd – bl 60.444189 5812441 sd – bh 17.15535020 29348 sd – bh 19.718967481 4224 sd – bh 25.324316 7847198 label kuda bunga dinosaurus jarak ke (acuan) 22.69723 119.2468 177.7902 lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 229 4. hasil pengujian terhadap sistem dilakukan menggunakan data latih berjumlah 500 buah data latih yang telah diekstrak fitur warnanya dan dilabelkan sesuai dengan tema, gambar digital yang digunakan diambil dari ‘http://wang.ist.psu.edu/~jwang/test1.tar’, dataset yang sama digunakan oleh [8] untuk melakukan penelitian dalam bidang pelabelan gambar otomatis. file ‘test1.tar’ berisi 1000 buah gambar digital yang dibagi menjadi 10 buah tema yaitu orang afrika dan desa, pantai, gedung atau bangunan, bus, dinosaurus, gajah, bunga, kuda, gunung dan glasier dan makanan, dari 1000 buah gambar digital yang tersedia 500 buah gambar dijadikan gambar latih dan sebanyak 90 gambar akan digunakan sebagai data uji. (a) (b) gambar 2.hasil pelabelan gambar uji dengan (a) k bernilai 3, (b) k bernilai 5 gambar uji diinputkan kedalam sistem dan sistem akan menghitung jarak terdekat dari fitur data uji ke semua fitur data latih yang terdapat dalam basis data, dengan menggunakan metode knn. dengan menginputkan nilai kakan dicari k nilai terdekat dari jarak data uji yang ingin diklasifikasikan, kelas yang memiliki frekuensi paling banyak akan menjadi label dari gambar yang diinputkan. gambar 2 menunjukan hasil pelabelan gambar dengan k bernilai 3 dan kbernilai 5. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 230 gambar uji yang berjumlah 90 buah gambar akan diuji pelabelannya dengan variasi nilai k sehingga mendapatkan hasil seperti yang dapat dilihat pada tabel 2. tabel2.akurasi pelabelan dengan variasi jumlah k padak-nn nilai k label benar label salah akurasi 3 61 27 67,78% 5 63 23 73,26% 10 58 32 64,44% nilai k sangat berpengaruh terhadap hasil pelabelan yang dilakukan oleh sistem, tabel 2 memberikan informasi bahwa pelabelan dengan nilai k = 5 memberi akurasi pelabelan yang lebih baik jika dibandingkan dengan pelabelan dengan nilai k = 3 atau k = 10. 5. simpulan block truncation algorithmsebagai salah satu algoritma ekstraksi fitur warna telah mampu melakukan ekstraksi fitur yang dapat memisahkan ciri gambar dari sepuluh tema yang digunakan dalam penelitian. gabungan metode block truncation algorithmdank-nearest neighbor yang diusulkan terbukti mampu melakukan pelabelan gambar secara otomatis dengan akurasi sistem yang dikembangkan mencapai 73,26%. penggunaan block truncation algorithmmasih dapat digabungkan dengan metode ekstraksi fitur yang lain, sehingga kedepannya performa kerja dari sistem yang dikembangkan masih dapat ditingkatkan. sedangkan jika dilihat dari teknik klasifikasinya teknik k-nearest neighbor adalah teknik klasifikasi non parametrik, dan masih dapat dikembangkan dan diganti dengan teknik klasifikasi menggunakan jaringan syaraf tiruan. daftar pustaka [1] morgan ames, mor naaman,“why we tag: motivations for annotation in mobile and online media”, proceedings of the sigchi conference on human factors in computing systems,acm,pp.971–980, 2007. [2] y. rui, t. huang, and s. chang, “image retrieval: current techniques, promising directionsand open issues”, journal of visual communication and image representation,10(4), pp.39–62, april 1999. [3] jiayu tang,“automatic image annotation and object detection”, thesis, university of southampton”, 2008. [4] trong-ton pham,“automatic image annotation: towards a fusion of region-based and saliency-based models”, disertasi, universite pierre et marie curie master iad, 2006. [5] sanjay silakari, mahesh motwani, manish maheshwari,“color image clustering using block truncation algorithm”, ijcsi international journal of computer science issues, vol. 4, no. 2, pp. 31-36,2009. [6] ameesh makadia, vladimir pavlovic, sanjiv kumar,“baseline for image annotation”, google research new york & rutgers university picastaway, 2009. [7] santosa, budi, “data mining: teknik pemanfaatan data unuk keperluan bisnis”, graha ilmu,yogyakarta, 2007. [8] jia li, james z. wang,“automatic linguistic indexing of pictures by a statistical modeling approach”, ieee transactions on pattern analysis and machine intelligence, vol. 25, no.9, pp.1075-108, 2003. lontar template lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p01 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 124 epileptic seizure classification using deep batch normalization neural network adenuar purnomoa1, handayani tjandrasaa2 adepartment of informatics, institut teknologi sepuluh nopember jalan raya its, surabaya, indonesia 1adenuar.19051@mhs.its.ac.id 2handatj@its.ac.id abstract epilepsy is a chronic noncommunicable brain disease. manual inspection of long-term electroencephalogram (eeg) records for detecting epileptic seizures or other diseases that lasted several days or weeks is a time-consuming task. therefore, this research proposes a novel epileptic seizure classification architecture called the deep batch normalization neural network (deep bn3), a bn3 architecture with a deeper layer to classify big epileptic seizure data accurately. the raw eeg signals are first to cut into pieces and passed through the bandpass filter. the dataset is very imbalanced, so an undersampling technique was used to produce a balanced sample of data for the training and testing dataset. furthermore, the balanced data is used to train the deep bn3 architecture. the resulting model classifies the eeg signal as an epileptic seizure or non-seizure. the classification of epileptic seizures using deep bn3 obtained pretty good results compared to other architectures used in this research, with an accuracy of 53.61%. keywords: deep bn3, seizure, epilepsy, deep learning, neural network. 1. introduction epilepsy is a chronic noncommunicable brain disease. the number of people who have epilepsy worldwide is approximately 50 million. five million people are diagnosed with epilepsy every year. it is estimated that epileptic people improve their condition with treatment, nearly 70% of the time [1]. accurate classification of epileptic seizures plays a vital role in treating epilepsy patients [2]. notably, manual inspection of long-term electroencephalogram (eeg) records for detecting epileptic seizures or other diseases that lasted several days or weeks is a time-consuming task. the development of an automatic algorithm for the detection of epileptic seizures is needed to overcome this problem. recent research by tjandrasa et al. classified the eeg signals using a combination of intrinsic mode function, and power spectrum feature extractor gave a maximum of 78.6% accuracy for five classes [3]. tjandrasa et al. also classified eeg signals using single channel-independent component analysis, power spectrum, and linear discriminant analysis. they obtained a maximum accuracy of 94% for three classes [4]. recent research by acharya et al. [5], cnn 13 layers showed 88.67% accuracy using a dataset from the university of bonn. raghu et al. classified seizure types using cnn and transfer learning based on eeg alone without using motor symptoms, level of consciousness, or video eeg [6]. the application of cnn to the classification of epilepsy has been implemented in several recent studies, such as [7], [8], and [9]. neonatal seizure detection using cnn with 26 neonates achieved a seizure detection rate of 77% [10]. other research proposed the internet of things-based learning optimized for seizure prediction using big eeg data [11]. another research by liu et al. proposed a different architecture than cnn to classify eeg signals, which is a combination of batch normalization (bn) and cnn called the batch normalization neural network (bn3) [12]. research about the usage of batch normalization itself has been carried out several times, such as the proposal of merging the deep artificial neural network and bn [13], adding the displaced rectifier linear unit (drelu) activation function in the bn3 [14]. schindler’s research shows that a deep architecture is suited to a big dataset, and a shallow lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p01 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 125 architecture is suited to a smaller dataset [15]. since epilepsy eeg data is a big dataset, a deeper architecture may be better suited to classify big data. therefore, this research proposes a novel epileptic seizure classification architecture called the deep batch normalization neural network (deep bn3). the deep bn3 architecture is a bn3 architecture with a deeper layer inspired by deep cnn architecture to classify big epileptic seizures data accurately. the deep bn3 architecture is deep cnn architecture added with batch normalization layer, an essential layer in bn3 architecture. this research’s contribution is to design deeper bn3 networks, which was done by stacking uniform convolutions. the raw eeg signal is first cut into pieces and passed through the bandpass filter. the dataset is very imbalanced. the imbalanced dataset can result in a severe bias towards the majority class, reducing the classification performance and increasing the number of false negatives. so an undersampling technique was used to produce a balanced sample of data for the training and testing dataset. undersampling is a technique to delete data in the majority class. furthermore, deep bn3 architecture is trained using balanced data. the resulting model is then used to classify whether the tested eeg signal is an epileptic seizure or non-seizure. the testing data results are compared with the existing ground-truth to compute the confusion matrix’s sensitivity, specificity, and accuracy. deep bn3 will be concluded as a good architecture if it can compete with another architecture. 2. research methods an overview of this research can be seen in figure 1, starting from the dataset used, preprocessing, then classification using deep bn3 architecture. figure 1. overview of the process for epileptic seizure classification lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p01 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 126 figure 2. the international 10–20 electrode system featuring modified combinatorial nomenclature (mcn). 2.1. dataset the data used in this research is a dataset belonging to tuh (temple university hospital), the tuh eeg seizure corpus version 1.5. this dataset is recorded based on the international 10-20 electrode system featuring modified combinatorial nomenclature (mcn), shown in figure 2, with a sampling rate of 250 hz. the training set consists of 1185 sessions taken from 592 patients, of which 343 sessions were seizure sessions, while the testing set consists of 238 sessions taken from 50 patients with 108 sessions being seizure sessions. both the training and testing set used in this research is only limited to sessions with seizures. 2.2. preprocessing there are 26 channels used in both training and testing sets. the raw eeg signal seen in figure 3 will initially be truncated every 2 seconds and then labeled according to the provided groundtruth. the eeg signal is then passed through a bandpass filter with a cut-off frequency of 0.5-44 hz. the undersampling technique will be carried out to produce balanced data for the training and testing sets. we balanced both training and testing sets because both sets are enormous and very unbalanced, with a non-seizure class around 20-25 times than seizure class. therefore we must balance those data such that it can be appropriately classified. otherwise, it will tend to classify closer to the class with more massive amounts of data. the details of class balancing for both training and testing sets are shown in table 1 and table 2. table 1. amount of training data class before undersampling after undersampling seizure 28640 28640 non-seizure 308112 28640 lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p01 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 127 figure 3. raw eeg from the tuh eeg seizure corpus version 1.5 table 2. amount of testing data class before undersampling after undersampling seizure 16998 16998 non-seizure 108373 16998 2.3. deep bn3 architecture deep bn3 architecture used in this research can be seen in figure 4. the first layer is the input layer. the inputs are the preprocessed signals that converted into a 2-dimensional image graphic, as shown in figure 5. then the batch normalization layer, continued by the convolutional layer with the filter size of 4 × 4, and the number of filters is 16. the next layer is the convolutional layer, the batch normalization layer, and the max-pooling layer, repeated four times. each convolutional layer has a filter size of 4 × 4, and the number of filters is 16. then the last max-pooling layer is followed by the fully connected layer. the dropout layer repeated twice with the fully connected layer’s configuration output size is 32 for the first fully connected layer and 16 for the second and with both dropout value 0.5. finally, the last layer is the fully connected layer with the softmax function to classify the input. the training configuration used in this research are maximum training epoch 200 epoch, initial learning rate 10-3, and after 100 iterations the learning rate become 10-4. the training option used in this research is adam optimizer. adam weight update equation can be seen in (1), where 𝑤𝑡 is model weights, 𝜂 is the learning rate, 𝜖 is the epsilon and �̂�𝑡 , �̂�𝑡are bias-corrected estimators for the first and second moments. after the training model is obtained, then the testing set will be classified using the training model. 𝑤𝑡 = 𝑤𝑡−1 − 𝜂 �̂�𝑡 √�̂�𝑡+𝜖 (1) lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p01 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 128 figure 4. deep bn3 architecture figure 5. an input image of the 26 channel signal 3. result and discussion the training process is carried out by building the model for each architecture. the model is trained using the training set. after carrying out the training process, the obtained model is tested using a testing set to obtain the seizure and non-seizure eeg signals’ classification results. the classification results are visualized into a confusion matrix used to calculate the accuracy, sensitivity, and specificity. this research will compare three metrics obtained from the testing set using the deep bn3 architecture’s trained model with lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p01 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 129 figure 6. cnn architecture figure 7. bn3 architecture table 3. accuracy, sensitivity, and specificity results of each architecture for the testing set architecture accuracy (%) sensitivity (%) specificity (%) deep bn3 53.61 46.60 60.62 cnn 49.99 46.54 53.44 bn3 52.95 42.54 63.35 an overview of the cnn and bn3 architecture can be seen in figures 6 and 7. the results of each architecture are shown in table 3. deep bn3 has the highest testing set accuracy, with 53.61% accuracy, and has the highest sensitivity with 46.6%. however, for specificity, the bn3 architecture got the highest, at 63.35%. as we can see, the testing accuracy results of each architecture are only 50-55%. one of the key factors is that the subject in the testing set different from the training set. suppose the signal between the training set and the testing set is different. in that case, the training set signal may have different extracted fundamental feature values than the testing set. the other factor, in this research’s dropout value is high so it makes the training accuracy is not too high. the low accuracy in the training model causing low testing accuracy. the preprocessing step is also a factor that influences the low metric results of the three architectures. the different cutting processes can affect whether the spike from the seizure can be captured intact or only a piece of it within the cut’s range. if the seizure spike in the data is only partly captured, it will affect the results. the undersampling technique used in this research is also one factor of why the accuracy is low. a better undersampling technique used may increase the accuracy results. the other factor in this research used a time-domain signal, so the key features can’t be shown clearly, compared to the frequency domain used in research [3]. in research [3], the fft and power spectrum usage used to have better results when there are 20 features extracted, which can be used in the future. tables 4, 5, and 6 is the confusion matrix of the testing set for each architecture. the deep bn3 architecture has better accuracy, shown by the sum of truly predicted seizure and true predicted lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p01 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 130 non-seizure. figure 9 is an example of a misclassified seizure signal. the signal has seizure spikes, but the deep bn3 and the cnn architecture classified it as a non-seizure signal. meanwhile, only bn3 architecture classified it as a seizure signal. table 4. confusion matrix of deep bn3 architecture predicted seizure predicted non-seizure true seizure 7921 9077 true non-seizure 6694 10304 table 5. confusion matrix of cnn architecture predicted seizure predicted non-seizure true seizure 7911 9087 true non-seizure 7915 9083 table 6. confusion matrix of bn3 architecture predicted seizure predicted non-seizure true seizure 7231 9767 true non-seizure 6229 10769 figure 8. the image of signal misclassified by the models of deep bn3, and cnn architecture 4. conclusion the classification of epileptic seizure using deep bn3 obtained a pretty good result. from the experiment, deep bn3 has the highest accuracy of 53.61% and the highest sensitivity of 46.6%. compared to other architecture used in this research in specificity metric, the deep bn3 architecture has only achieved the second-highest. overall, it has better results than other architecture. future works are needed to search for a different method to preprocess the raw signals to detect the key features more accurately. the usage of spectrogram or fft maybe can detect the key features more accurately. also, to try deep bn3 architectures for the multi-class classification problem. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p01 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 131 references [1] who, “who epilepsy fact sheet,” 2019. [online]. available: https://www.who.int/newsroom/fact-sheets/detail/epilepsy. [accessed: 11-feb-2020]. [2] s. roy, u. asif, j. tang, and s. harrer, “machine learning for seizure type classification: setting the benchmark,” pp. 2–6, 2019. [3] h. tjandrasa, s. djanali, and f. x. arunanto, “feature extraction using combination of intrinsic mode functions and power spectrum for eeg signal classification,” proc. 2016 9th international congress on image and signal processing, biomedical engineering and informatics, cisp-bmei 2016, pp. 1498–1502, 2017. [4] h. tjandrasa and s. djanali, “classification of eeg signals using single channel independent component analysis, power spectrum, and linear discriminant analysis,” in lecture notes in electrical engineering, 2016, vol. 387, pp. 259–268. [5] u. r. acharya, s. lih, y. hagiwara, j. hong, and h. adeli, “deep convolutional neural network for the automated detection and diagnosis of seizure using eeg signals,” computer in biology and medicine, vol. 100, no. july 2017, pp. 270–278, 2018. [6] s. raghu, n. sriraam, y. temel, s. v. rao, and p. l. kubben, “eeg based multi-class seizure type classification using convolutional neural network and transfer learning,” neural networks, vol. 124, pp. 202–212, 2020. [7] j. birjandtalab, m. heydarzadeh, m. nourani, and a. background, “automated eeg-based epileptic seizure detection using deep neural networks,” no. 1, pp. 2–5, 2017. [8] i. ullah, m. hussain, e. qazi, and h. aboalsamh, “an automated system for epilepsy detection using eeg brain signals based on deep learning approach,” expert systems with applications, vol. 107, pp. 61–71, 2018. [9] f. achilles, f. tombari, v. belagiannis, a. m. loesch, s. noachtar, and n. navab, “convolutional neural networks for real-time epileptic seizure detection,” computer methods biomechanics and biomedical engineering imaging and visualisations, vol. 6, no. 3, pp. 264–269, 2018. [10] n. d. truong et al., “convolutional neural networks for seizure prediction using intracranial and scalp electroencephalogram,” neural networks, vol. 105, pp. 104–111, 2018. [11] m. hosseini, d. pompili, k. elisevich, and h. soltanian-zadeh, “optimized deep learning for eeg big data and seizure prediction bci via internet of things,” ieee transactions big data, vol. 3, no. 4, pp. 392–404, dec. 2017. [12] m. liu, w. wu, z. gu, z. yu, f. f. qi, and y. li, “deep learning based on batch normalization for p300 signal detection,” neurocomputing, vol. 275, pp. 288–297, 2018. [13] y. chen et al., “texts with deep learning approaches,” ieee transactions and intelligent transportation systems, vol. pp, no. 8, pp. 1–10, 2018. [14] d. macêdo, c. zanchettin, a. l. i. oliveira, and t. ludermir, “enhancing batch normalized convolutional networks using displaced rectifier linear units: a systematic comparative study,” expert systems with applications, vol. 124, pp. 271–281, 2019. [15] a. schindler, t. lidy, and a. rauber, “comparing shallow versus deep neural network architectures for automatic music genre classification,” ceur workshop proceedings, vol. 1734, pp. 17–21, 2016. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 122 mikrokontroler sistem komunikasi sensor jamak menggunakan serial rs-485 multi processor communication kadek s wibawaa1, a.a.k. o sudanaa2, putu w buanaa3 ajurusan teknologi informasi, fakultas teknik, universitas udayana jalan kampus bukit universitas udayana, bali, indonesia 1suar_wibawa@yahoo.com 2agungokas@hotmail.com 3wbhuana@gmail.com abstrak sistem komunikasi sensor jamak menggunakan standar komunikasi rs-485 untuk menghubungkan tiap pemroses data berbasiskan mikrokontroler membentuk jaringan topologi bus. sistem komunikasi ini memiliki kunggulan dalam hal: konektivitas (mudah dalam melakukan koneksi tiap node pada jaringan komunikasi), skalabilitas (tingkat fleksibilitas yang tinggi dalam perluasan jaringan), tahan terhadap derau dan mudah dalam melakukan perawatan/perbaikan jaringan. sistem komunikasi sensor jamak, dibangun menggunakan pendekatan model komunikasi master-slave. sistem komunikasi master-slave yang dikembangkan menggunakan topologi jaringan bus perlu menerapkan filter terhadap lalulintas paket data pada saluran komunikasi. setiap node yang terhubung pada jaringan komunikasi menggunakan topologi bus mampu mendengar setiap paket data yang lewat pada jaringan tersebut. multi processor communication (mpc) mode dapat diterapkan untuk mengurangi beban kerja prosesor didalam memeriksa tiap paket data yang lewat. prosesor yang bekerja pada sisi slave hanya perlu memeriksa pesan yang ditujukan sesuai dengan alamatnya tanpa perlu memeriksa setiap paket data yang lewat dalam saluran komunikasi. kata kunci: multi processor communication (mpc), monitoring system, rs-485. abstract multi-sensor communication system uses rs-485 standard communication connecting each microcontroller-based data processing unit to form bus topology network. the advantages of this communication system are: connectivity (easy to connecting devices on a network), scalability (flexibility to expand the network), more resistant to noise, and easier maintenance. the system is built using master-slave communication approach model. this system need to filter every data packet on communication channel because every device that connect in this network can hear every data packet across this network. multi processor communication (mpc) model is applied to reduce processor’s burden in inspecting every data packet, so the processor that work in slave side only need to inspect the message for itself without inspecting every data packet across the communication chanel. keywords: multi processor communication (mpc), monitoring system, rs-485. 1. pendahuluan sistem komunikasi melibatkan lebih dari satu perangkat pemroses data yang terhubung dengan sensor untuk melakukan pengamatan terhadap suatu objek sudah menjadi tren saat ini. perkembangan sistem jaringan komunikasi seperti ini harus mampu memenuhi kebutuhan multi-poin [1] untuk menyediakan terminal bagi tiap perangkat terhubung ke dalam sistem jaringan yang dibentuk. sistem minitroing [2] dan sistem telekontrol scada [2] menggunakan sistem komunikasi multi-poin serial rs485 [3] untuk menghubungkan tiap perangkat kedalam sistem jaringan menggunakan pendekatan model topologi jaringan bus. mailto:suar_wibawa@yahoo.com mailto:agungokas@hotmail.com mailto:wbhuana@gmail.com lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 123 topologi jaringan bus pada serial komunikasi rs-485 memiliki beberapa keunggulan diantaranya: (1) mudah dalam melakukan konektivitas terutama untuk penempatan sensor jamak yang membutuhkan interkoneksi antar perangkat yang terhubung dalam jaringan pada jarak yang berjauhan; (2) mudah dalam melakukan perluasan jaringan; (3) biaya yang murah. data yang ditransmisikan pada serial komunikasi rs-485 dibentuk kedalam paket data [4]. paket data pada sistem komunikasi bus ditransmisikan secara broadcasting sehingga setiap perangkat yang terhubung kedalam jalur komunikasi dapat mendengar setiap paket data yang lewat. semakin tinggi tingkat lalulintas data pada jaringan komunikasi, maka akan semakin tinggi juga tingkat kinerja prosesor yang dibutuhkan untuk memeriksa setiap paket data yang lewat. beban kerja prosesor dapat dikurangi dengan menggunakan mekanisme untuk melakukan filter dan kategori paket yang dikirim pada saluran komunikasi. 2.1. metodologi penelitian 2.2. tahapan penelitian penelitian dibagi kedalam 3 tahap yaitu: rancangan sistem, implementasi sistem dan pengujian sistem. lokasi penelitian dilakukan pada laboratorium jurusan teknologi informasi kampus bukit jimbaran. 2.3. rancangan model penelitian rancangan model penelitian dibagi menjadi dua sub bagian yaitu : (1) rancangan perangkat keras dan jaringan komunikasi; (2) rancangan perangkat lunak. a. rancangan perangkat keras diagram umum sistem pada sistem komunikasi multi poin untuk sensor jamak dapat dilihat pada gambar 1. gambar 1. diagram umum sistem komunikasi sensor jamak sistem komunikasi multi point untuk sensor jamak menggunakan serial komunikasi rs485 sebagai antarmuka sistem komunikasi. setiap piranti terhubung ke dalam jaringan komunikasi melalui sebuah terminal, membentuk topologi jaringan bus. piranti perangkat keras dibangun menggunakan mikrokontroler sebagai main processing dan masing-masing piranti dilengkapi dengan antar muka max-485 sebagai komponen sistem komunikasi data. piranti perangkat keras dibedakan menjadi dua bagian yaitu: piranti perangkat keras master dan piranti perangkat keras slave. spesifikasi teknis rancangan perangkat keras seperti terlihat pada tabel 1 [5]. desain perangkat keras dibedakan kedalam tiga kategori sesuai dengan fungsinya yaitu: perangkat keras master, perangkat keras slave #1 (disertakan sensor rht untuk mengukur temperatur dan kelembaban relatif) dan prangkat keras slave #2 (disertakan sensor gps). lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 124 b. rancangan perangkat lunak perangkat lunak dikembangkan menerapkan sintak kode bahasa pemrograman c pada chip programable mikrokontroler embedded system. seperti halnya pada perangkat keras, sistem perangkat lunak dikembangkan menjadi dua bagian yaitu sistem perangkat lunak master dan sistem perangkat lunak slave seperti terlihat pada gambar 2[6]. tabel 1. spesifikasi perangkat keras master board no. komponen spesifikasi fungsi 1 mikrokontroler 32k bytes flash program memory,16-bit timer/counter,programmable serial usart. unit pemroses data 2 max-485 32 multi drop, differential signal, 5volt dc source antar muka komunikasi serial bus 3 lcd grafic 128 x 64 dot matrix with led back light tampilan untuk antar muka pengguna akhir 4 komponen pendukung lain sesuai kebutuhan komponen utama /pelengkap slave board 1 mikrokontroler 8,16, 32k bytes flash program memory, 16-bit timer/counter, programmable serial usart. unit pemroses data 2 max-485 32 multi drop, differential signal, 5volt dc source antar muka komunikasi serial bus 3 lcd 8x2 dot matrix with led back light tampilan untuk antar muka pengguna 4 sensor sesuai kebutuhan sebagai media uji untuk proses pengukuran 5 komponen pendukung lain sesuai kebutuhan komponen utama /pelengkap gambar 2. lapisan perangkat lunak lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 125 c.1 perangkat lunak master memiliki fungsi dan tanggung jawab:  melakukan kontrol dan manajemen sistem komunikasi data.  menampung data sementara dan mengolah data dari slave menjadi bentuk informasi.  berfungsi sebagai antarmuka sistem dengan pengguna akhir, memberikan informasi tampilan visual kepada pengguna. perangkat lunak slave didesain bersifat pasif, hanya bekerja jika diperintahkan. jika tugas yang diberikan telah selesai dikerjakan maka slave berada pada mode sleep. perangkat lunak slave memiliki fungsi:  melakukan pengukuran dan mengolah data hasil ukur sensor.  menyediakan data hasil ukur yang diperlukan oleh master. slave berinteraksi dengan sensor melalui antarmuka sistem komunikasi yang disediakan untuk melakukan proses ukur dan mengolah data hasil ukur yang diterima oleh sensor. 3. kajian pustaka 3.1. sistem komunikasi data dalam jaringan komunikasi. pada sistem komunikasi terdapat tiga elemen dasar untuk melakukan proses komunikasi data merupakan proses pengiriman dan penerimaan data/informasi dari dua atau lebih piranti yang terhubung komunikasi, tiga elemen tersebut adalah: sumber data (source); media transmisi dan penerima (receiver), seperti yang terlihat pada gambar 3. prinsip dasar sistem komunikasi data. sumber media transmisi tujuan gambar 3. prinsip dasar sistem komunikasi data pada sistem komunikasi data umumnya dikenal dua pendekatan cara pengiriman data yaitu pengiriman data secara paralel dan serial. suatu pengiriman data disebut paralel jika sekelompok bit data ditransmisikan pada waktu yang sama dan menggunakan beberapa jalur transmisi. disebut serial jika data ditransmisikan bit per bit untuk setiap bit data secara berurutan pada satu jalur komunikasi yang sama. melihat arah aliran data pada sistem komunikasi serial maka dapat dikelompokan menjadi tiga model cara berkomunikasi: (1) simplex; (2) duplex dan (3) halfduplex. dengan mengikuti model dan aturan cara berkomunikasi, setiap node (piranti) yang terhubung dalam jaringan komputer (membentuk topologi mesh, star, ring, dan bus) dapat berbagi data atau sumber daya yang ada. 3.2. mode multi processor communication (mpc) multi processor communication (mpc) merupakan fitur mode komunikasi yang dimiliki oleh serial uart mikrokontoler. mode ini menggunakan teknik pengalamatan dengan memanfaatkan 1 bit data terakhir untuk mengindikasikan bahwa paket tersebut berupa frame alamat atau frame data, seperti yang terlihat pada gambar 4. struktur bit pada mode mpc. gambar 4. struktur bit pada mpc lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 126 mode komunikasi mpc mampu memberikan pengalamatan hingga 256 (8 bit). berikut merupakan fitur dari mpcm serial uart.  mengatur mpcm bit di ucsrna memungkinkan fungsi memfilter frame masuk yang diterima oleh receiver usart.  frame yang tidak mengandung informasi alamat akan diabaikan dan tidak di masukkan ke dalam buffer penerima. hal ini secara efektif mapu mengurangi jumlah frame masuk yang harus ditangani oleh cpu, dalam sistem dengan beberapa mikrokontroler yang berkomunikasi melalui serial bus yang sama.  transmiter tidak terpengaruh oleh pengaturan mpcm ini, namun harus digunakan berbeda ketika bagian dari sistem memanfaatkan mode komunikasi multi-prosesor tasking. 4. hasil dan pembahasan 4.1. hasil rancangan perangkat keras hasil rancangan model perangkat keras seperti terlihat pada gambar 5. gambar 5 a) merupakan rancangan model perangkat keras master, perangkat keras master berfungsi sebagai unit koleksi data dan antarmuka dengan pengguna akhir, menyajikan parameter hasil ukur berupa data/informasi dalam bentuk tampilan lcd grafis 128x64 dot matrix. gambar 5. rancangan perangkat keras a) perangkat keras master, b) perangkat slave #1, c) perangkat slave #2 gambar 5 b) merupakan rancangan model perangkat keras slave #1. piranti slave #1 dihubungkan dengan sensor temperature and relative humidity mengunakan saluran komunikasi i2c. untuk melihat hasil ukur sensor pada piranti ini dilengkapi lcd dot matrix 2x8 yang menampilkan hasil ukur temperatur dalam °c dan kelembaban relatif dalam %. diagram skematik slave #1, gambar 5 c) merupakan rancangan model perangkat keras slave #2. piranti slave #2 dihubungkan dengan sensor gps untuk melalukan pengukuran koordinat posisi berupa latitude dan longitude dan update waktu jam, menit, detik yang didapat dari clock receiver gps. 4.2. hasil rancangan perangkat lunak master memberikan perintah kepada slave dalam bentuk pesan alamat (address). pesan tersebut di-generate pada interval waktu 25 ms memanfaatkan fungsi interrupt timer tiap satu detik. selama satu detik master mampu mengenerate sebanyak 40 pesan secara berulang. state diagram perangkat lunak master seperti terlihat pada gambar 6 [7]. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 127 gambar 6. rancangan perangkat lunak master mode multi processor communication (mpc) membedakan pesan menjadi dua bagian yaitu pesan berupa alamat dan pesan berupa data. skema mpc pada master men-generate pesan berupa alamat yang nantinya diterjemahkan oleh slave menjadi kode perintah. desain skema diagram proses pengiriman pesan dengan menggunakan mode mpc seperti terlihat pada gambar 7 . gambar 7. proses pengiriman pesan menggunakan mpc pada master lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 128 slave berinteraksi dengan sensor melalui antarmuka sistem komunikasi yang disediakan untuk melakukan proses ukur dan mengolah data hasil ukur yang diterima oleh sensor. proses ini dilakukan jika terdapat pesan yang diberikan oleh master berupa pesan alamat yang menyatakan bahwa sensor malakukan pengukuran secara serentak (broadcast). gambar 8. state diagram perangkat lunak slave nilai hasil olah data ini disimpan sementara pada buffer hingga slave mendapatkan perintah pesan alamat oleh master untuk mengirimkan data hasil ukur sensor pada selang waktu berikutnya. secara default slave berada pada kondisi idel jika tugas yang diberikan oleh master telah selesai dikerjakan slave masuk dalam mode sleep. state diagram perangkat lunak slave seperti terlihat pada gambar 8. proses pengiriman data pada slave menggunakan mode clear mode mpc karna slave hanya mengirimkan data kepada master dan tidak melakukan komunikasi dengan slave yang lain. desain skema diagram proses pengiriman data pada slave seperti terlihat pada gambar 9. gambar 9. proses pengiriman data pada slave pada desain ini, tiap piranti memiliki alamat unik yang menyatakan identitas masing-masing piranti. tiap slave mengirimkan data yang dibutuhkan oleh master sesuai dengan pesan alamat yang diterima. untuk mengidentifikasi dan menjamin keabsahan data yang dikirimkan oleh slave maka data dikirim dalam bentuk paket data menggunakan format frame seperti pada gambar 10 pada lapisan datalink dengan menyertakan checsum sebagai mekanisme validasi data. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 129 gambar 10. format frame data pada data link layer keterangan : start bit : awal data jumlah : jumlah merupakan panjang payload data (1 byte) sumber : id dari sumber data (1 byte) tujuan : id dari sumber data (1 byte) command : respon data untuk nomor alamat yang diberikan oleh master (1 byte) nbyte data : data payload (n byte data) checksum : koreksi data error (1 byte) stop bit : akhir dari data 4.3. pembahasan pada mode mpc format data serial menggunakan pengaturan 9 bit data dimana data terakhir pada register data bit 8 (dari bit 0 s/d bit 8) mengindikasikan bahwa frame tersebut berupa data atau berupa alamat perintah seperti yang telah dijelaskan pada point 4.2, list kode program untuk setup register tersebut seperti pada gambar 11. gambar 11. list kode program pengaturan mode mpc berupa frame data atau alamat baris pertama kode program menunjukan bahwa frame yang dikirimkan piranti master melalui bus serial line berupa alamat dimana pada register ucsrb untuk bit 8 (bit terakhir mode 9 bit) diset dengan nilai 1. baris kedua kode program merupakan frame berupa data dimana pada format ini, nilai register ucsrb untuk bit register tx8b diset dengan nilai 0. gambar 12. hasil uji mode mpc (a) list kode fungsi untuk mengirim data, (b) hasil data dump serial line. gambar 12 (a) merupakan list kode perangkat lunak master mengirimkan format berupa data dengan kode perintah 1 bermakna semua piranti slave yang terhubung pada jaringan komunikasi bus melakukan pengukuran tiap sensor secara serentak. kode perintah 10 bermakna slave #1 mengirimkan data hasil pengukuran sensor setelah menerima kode perintah ini dan nilai 20 bermakna slave #2 mengirimkan data hasil pengukuran setelah menerima kode perintah ini. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 130 pada masing-masing slave dialokasikan 10 kode untuk keperluan yang lain. hasil pengujian menunjukan bahwa tidak ada satu slave pun yang merespon kode perintah ini, hal ini dikarenakan perintah yang dikirimkan oleh piranti master berupa data bukan alamat perintah (register tx8b diset dengan nilai 0.) sehingga semua piranti slave mengabaikan format data tersebut seperti terlihat pada gambar 12 (b). slave hanya merespon perintah yang diberikan oleh master jika kode format perintah tersebut berupa alamat atau dengan kata lain jika nilai register ucsrb untuk bit register tx8b bernilai 1. gambar 13. hasil uji mode mpc (a) list kode fungsi untuk mengirim format alamat, (b) hasil data dump serial line gambar (a) merupakan list kode perangkat lunak master mengirimkan format alamt. gambar 13 (b) menunjukan nilai 01(h) atau 1 dalam desimal yang yang diartikan piranti master memerintahkan seluruh piranti slave untuk melakukan pengukuran sensor secara serantak. perintah ini tidak memerlukan respon sehingga slave tidak mengirimkan respon terhadap perintah tersebut tetapi langsung mangeksekusi perintah yang diberikan. nilai berikutnya adalah 0a(h) atau 10 dalam desimal, yang diartikan master meminta slave #1 mengirimkan nilai hasil pengukuran yang telah dilakukan pada kode perintah 01. format pesan ini memerlukan respon berupa data dari slave sehingga pada pada dump serial line terlihat respon yang diberikan oleh slave berupa frame byte fffe-0e-01-0a-0a-33-32-2e-31-2c-36-2e-37-e3ff-0d sesuai dengan frame data protokol yang telah disepakati (menggunakan format hexa desimal). hasil integrasi modul sistem komunikasi data perangkat keras master, perangkat keras slave #1 dan slave #2 seperti terlihat pada gambar 14[8]. hasil integrasi sistem telah sesuai dengan desain perangkat keras dan perangkat lunak pada point 3 dimana sistem telah mampu menampilkan hasil pengukuran dengan perubahan data hasil ukur sensor dengan durasi waktu satu detik. gambar 14. hasil integrasi sistem komunikasi data mode mp modul piranti slave #1 melakukan pengukuran temperatur lingkungan sebesar 31.2 °c dan kelembaban udara relatif dengan nilai ukur sebesar 65.5%. modul piranti slave #2 mendapatkan nilai hasil ukur titik koordinat latitude -08.6817 dan longitude pada koordinat lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p06 e-issn 2541-5832 131 115.2245 untuk waktu pengukuran pada pukul 21:44:34 w ita. gambar 15. hasil posisi koordinat pengukuran menggunakan bantuan google maps titik koordinat latitude dan longitude hasil pengukuran pada piranti slave #2 jika diinputkan menggunakan bantuan google maps api’s pada halaman website https://www.google.co.id/maps akan ditampilkan lokasi pengukuran berupa peta digital seperti terlihat pada gambar 7. ikon merah merupakan lokasi titik koordinat hasil ukur yang disajikan dalam bentuk peta digital dengan menggunakan bantuan google maps api’s. hasil pengukuran yang disajikan masih mengalami offset sejauh ± 3 meter hal ini dipengaruhi oleh sensitifitas ukur dari sensor gps yang dipergunakan. 5. kesimpulan integrasi modul sistem komunikasi sensor jamak dengan menggunakan satu buah piranti master dan dua buah piranti slave untuk melakukan pengukuran temperatur lingkungan dan kelembaban udara relatif pada titik koordinat tertentu menggunakan bantuan gps reciver sudah meunjukan hasil yang sesuai dengan rancangan awal penelitian. sistem mampu melakukan pengukuran dalam selang waktu satu deik. hasil uji yang dilakukan pada 360 data (360 detik) sistem bekerja dengan baik (tidak terdapat kesalahan data). daftar pustaka [1] t. p. m. lock et al., “8-bit microcontroller with 8k bytes in-system programmable flash/ at89s52,” 2008. [2] atmel, “atmel 8-bit microcontroller with 4/8/16/32kbytes in-system programmable flash,” 2014. [3] g. p. s. e. board, “gps engine board specification.” [4] d. hanto and b. widiyatmoko, “sistem komunikasi sensor jamak dengan serial rs 485,” in seminar nasional fisika 2012, 2011, pp. 187–195. [5] maxim, “reliability report for max3082cpa+ plastic encapsulated devices,” 2010. [6] maxim, “low-power, slew-rate-limited rs-485/rs-422 transceivers,” 2003. [7] a. salam, mukhidin, and t. sucita, “rancang bangun sistem jaringan multidrop menggunakan rs-485 pada aplikasi pengontrolan alat penerangan kamar hotel,” electrans, 2015. [8] a. tiyono, sudjadi, and setiawan, “sistem telekontrol scada dengan fungsi dasar,” diponegoro university, 2011. https://www.google.co.id/maps lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 336 sistem pengenalan kualitas ikan gurame dengan wavelet, pca, histogram hsv dan knn fitri astutik program studi teknik informatika stmik lombok jl. basuki rahmat no.105, praya 83511 ntb telp (0370)654310 fax: (0370)654310 email : pietrie_utomo@yahoo.com abstrak pengenalan pola memiliki peran yang berarti dalam membantu proses klasifikasi suatu kelas atau kelompok.data citra seperti data tekstur dan warna dasar citra dapat diolah dengan mengkonversi citra menjadi data matriks. penelitian ini menyajikan pengenalan citrainduk ikan gurame untuk mengenali kualitas induk gurame melalui tekstur kulit sisiknya dengan ekstraksi fiturgabungan dua metode yaitu alihragam wavelet haar dan principle component analysis (pca) dan untuk mengenali jenis induk gurame menggunakan ekstraksi fitur histogram hsv, proses klasifikasi menggunakan k-nearest neighborhood (k-nn). data yang digunakan adalah citraikan gurame yang terdiri dari 56 buah foto untuk pengenalan kualitas gurame, 56 buah gambar warna dasar sirip gurame untuk mengenali jenis ikan gurame.citra yang diuji terdiri dari kelas unggul dan tidak unggul untuk pengenalan ‘kualitas induk gurame’, kelas 'jantan dan betina’ untuk pengenalan jenis ikan gurame dengan data pengujian seluruh kelas total berjumlah 36 buah citra. hasil klasifikasi dengan k-nn menghasilkan total rata-rata akurasi pengenalannya sebesar 97,8% dengan menggunakan metode ekstraksi wavelet dengan pca. hasil klasifikasi dengan k-nn menghasilkan total ratarata akurasi pengenalannya sebesar 98,8% dengan menggunakan metode ekstraksi wavelet tanpa pca.total rata-rata nilai akurasi pengenalan tersebut untuk membedakan kelas unggul atau tidak unggul induk ikan gurame. nilai akurasi pengenalan hasil klasifikasi k-nn untuk mengenali jenis jantan atau betina induk gurame sebesar 89,5% menggunakan metode histogram hsv. kata kunci: wavelet, pca, histogram hsv, k-nn, citra ikan gurame abstract pattern recognition has a significant role in helping the process of classification of a class or group. such as image data and texture data base color image can be processed by converting the image into a data matrix. this study presents the image recognition carp parent to recognize the quality of the parent gurame through skin texture scales with a combination of two feature extraction methods are wavelet haar alihragam and principle component analysis (pca) and to identify the main types of carp using hsv histogram feature extraction, classification process uses k -nearest neighborhood (k-nn). the data used is the image of carp consisting of 56 photographs for the introduction of quality carp, 56 pieces of carp fin base color images to identify the type of carp. the image consists of superior grade tested and are not superior to the introduction of 'quality carp parent' class 'male and female' for the introduction of carp to the data type of testing an entire class totaled 36 pieces lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 337 image. the results of k-nn classification with a total average of 97.8% accuracy of their identification using wavelet extraction method with pca. the results of k-nn classification with a total average of 98.8% accuracy of their identification using wavelet extraction method without pca.total average value recognition accuracy to distinguish superior or not superior grade parent carp. value recognition accuracy of classification results of k-nn to recognize the type of male or female parent carp by 89,5% hsv histogram method. keyword : wavelet, pca, histogram hsv, k-nn, citra ikan gurame 1. pendahuluan pengenalan pola memiliki peran yang berarti dalam membantu proses klasifikasi suatu kelas atau kelompok. analisis dapat dilakukan secara statistika terhadap data berupa angka untuk menyajikan informasi yang diperlukan.data gambarseperti data tekstur dan warna dasar gambar dapat diolah dengan mengkonversi gambar menjadi data matriks. tulisan ini menyajikan pengenalan pola induk ikan gurame untuk mengenali kualitas induk gurame melalui tekstur kulit sisiknya dengan ektraksi ciri gabungan dua metode yaitu alihragam wavelet haar dengan principle component analysis (pca) dan mengenali jenis induk gurame sedangkan proses klasifikasi menggunakan k-nearest neighborhood (k-nn).data yang digunakan adalah citraikan gurame yang terdiri dari 56 buah foto untuk pengenalan kualitas gurame, 56 buah gambar warna dasar sirip gurame untuk mengenali jenis ikan gurame.data citra akan dibaca dalam bentuk matriks untuk dianalisa menggunakan wavelet selanjutnya hasilnya dilanjutkan ke proses pca dan diproses klasifikasi kelompok ikan gurame menggunakan k-nn, yaitu salah satu metode yang digunakan dalam pengklasifikasian. prinsip kerja k-nn adalah mencari jarak terdekat antara data yang akan dievaluasi dengan k tetangga (neighbor) terdekatnya dalam data pelatihan. 2. metode penelitian 2.1. alat dan bahan data percobaan ini menggunakan 56 image/gambar ikan gurame yang diperoleh dari 2 macam ekorikan gurame yang terbagi menjadi 2 kelas yaitu unggul dan tidak unggul dan masing-masing difoto sebanyak 56 kali berukuran 512 x 256pixel. dan data percobaan menggunakan 56 gambar ikan gurame yang diperoleh dari 2 macam ekorikan gurame yang terbagi menjadi 2 kelas yaitu betina dan jantan dan masing-masing difoto sebanyak 56 kali berukuran 632 x 403pixel. 2.2. alat/software pengolahan data gambar ikan gurame menggunakan bahasa pemrogram matlab versi 7.8.0(r2009a). 2.3. metode adapun metode yang digunakan dalam percobaan ini adalah : 1. metode pengenalan pola : menggunakan ekstraksi wavelet dengan pca untuk menghasilkan pengenalan unggul dan tidak unggul ikan gurame. menggunakan histogram hsv untuk pengenalan jenis induk gurame. 2. ukuran ketakmiripan objek : jarak eukledian 3. klasifikasi : menggunakan k-nn, dengan k menunjukkan berapa banyak tetangga terdekat langkah-langkah 1. data 56 gambar ikan gurame dibaca dalam program matlab berupa matriks. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 338 2. matriks x yang terbentuk berdimensi 512 x 256 sebagai representasi dari 56 gambar ikan gurame. 3. mengekstraksi fitur menggunakan wavelet haar (db1) menghasilkan output berupa vektor fitur citra selanjutnya akan direduksi fiturnya menjadi berdimensi kecil menggunakan pca dengan mengambil beberapa nilai ciri yang merepresentasikan cukup besar informasi. selanjutnya hasil fitur yang direduksi sebagai masukan bagi proses klasifikasi k-nn. 4. mengekstraksi fitur menggunakan histogram hsv menghasilkan vektor fitur dengan mengambil beberapa nilai ciri yang merepresentasikan cukup besar informasi, selanjutnya akan dijadikan masukan bagi proses klasifikasi k-nn. wavelet merupakan alat analisis yang biasa digunakan untuk menyajikan data atau fungsi atau operator ke dalam komponen-komponen frekuensi yang berlainan, dan kemudian mengkaji setiap komponen dengan suatu resolusi yang sesuai dengan skalanya. (daubechies, 1995). transformasi wavelet mempunyai penerapan yang luas pada aplikasi pengolahan isyarat dan pengolahan citra. ada berbagai jenis transformasi wavelet, akan tetapi pada bagian ini lebih menitikberatkan pada transformasi wavelet diskret diantaranya adalah transformasi discrete wavelet transform (dwt) transformasi wavelet 2-dimensi (2-d). transformasi wavelet 2-dimensi (2-d) merupakan generalisasi transformasi wavelet satu-dimensi. dwt untuk 2-d pada citra x(m,n) dapat digambarkan sama dengan implementasi dwt 1-d, untuk setiap dimensi m dan n secara terpisah dan membagi citra ke dalam sub-sub bidang frekuensi, sehingga menghasilkan struktur piramid. langkah-langkah transformasi wavelet 1-d dapat diilustrasikan dengan gambar 1 berikut ini. gambar 1. ilustrasi transformasi wavelet 1-dimensi (1-d) pada gambar di atas langkah pertama citra x(m,n) ditapis pada arah horisontal. dengan tapis lolos-rendah yang merupakan fungsi penyekalan (scaling function) dan tapis lolos-tinggi yang merupakan fungsi wavelet (wavelet function). hasil penapisan selanjutnya dicuplik turun pada dimensi m dengan faktor 2. hasil kedua proses ini adalah suatu citra lolos-rendah dan suatu citra lolos-tinggi. proses selanjutnya masing-masing citra ditapis dan dicuplik turun dengan faktor 2 sepanjang dimensi n. kedua proses akhir ini akan membagi citra ke dalam sejumlah sub-sub bidang yang dinotasikan dengan ll, hl, lh, hh. bidang ll merupakan perkiraan kasar atau koefisien aproksimasi dari citra asli, bidang hl dan lh merekam perubahan pada citra sepanjang arah horisontal dan vertikal secara berurutan dan bidang hh menunjukkan komponen frekuensi tinggi pada citra. hl, lh, hh disebut juga koefisien detail. gambar 2 bentuk skema hasil transformasi wavelet 2d 1 level. gambar 2. bentuk skema hasil transformasi wavelet 2d 1 level lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 339 principle component analysis (pca) adalah teknik statistik untuk menyederhanakan kumpulan data banyak-dimensi menjadi dimensi yang lebih rendah (extration feature) (scrofano & klassen, 2001). konsep penggunaan pca meliputi perhitungan nilai-nilai simpangan baku, matriks kovarian, nilai karakteristik (eigen value) dan vektor karakteristik (eigen vector). pca dapat menggunakan metoda kovaransi atau korelasi (scrofano &klassen, 2001). dalam hal ini digunakan metoda kovariansi dengan algoritma berikut, mengumpulkan data dalam bentuk matrix tingkat-keabuan x dari hasil dekomposisi wavelet ikan gurame berukuran m x n. misalkan adalah vektor n x 1 : (i) menghitung rata-rata: ………..(1) (ii) menghitung selisih rata-rata: ……….(2) (iii) menentukan matriks kovarian. dari matriks x=[φ1 φ2 … φm] (matriks nxm), hitung kovarian: ……….(3) (iv) menentukan nilai karakteristik dan vektor karakteristik dari matrik kovarian ………..(4) dan ………...(5) (v) mengurutkan vektor karakteristik u dan nilai karakteristik λ dalam matriks diagonal dalam urutan menurun sesuai dengan nilai peluang kumulatif terbesar untuk tiap vector karakteristik sehingga diperoleh nilai-nilai karakteristik yang dominan. 5. melakukan klasifikasi objek gambar ikan gurame tersebut dengan k-nn dengan meng-input parameter k. model warna hsv mendefinisikan warna dalam terminologi hue, saturation dan value. hue menyatakan warna sebenarnya, seperti merah, violet, dan kuning. hue digunakan untuk membedakan warna-warna dan menentukan kemerahan (redness), kehijauan (greeness), dsb, dari cahaya. hue berasosiasi dengan panjang gelombang cahaya. saturation menyatakan tingkat kemurnian suatu warna, yaitu mengindikasikan seberapa banyak warna putih diberikan pada warna. value adalah atribut yang menyatakan banyaknya cahaya yang diterima oleh mata tanpa memperdulikan warna (anonim.2011). gambar 3 berikut merupakan model warna hsv. gambar 3. model warna hsv model warna hsv merupakan model warna yang diturunkan dari model warna rgb maka untuk mendapatkan warna hsv ini , kita harus melakukan proses konversi warna dari rgb ke hsv. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 340 perhitungan konversi rgb menjadi hsv dapat dirumuskan sebagai berikut (darma putra, 2010) : h = tan [ 3(g-b)/(r-g)+(r-b)] ………. (6) s = 1((min (r,g,b)) / v) ………. (7) v = (r+g+b) / 3 ………. (8) dimana, h adalah hue, s sebagai saturation dan v sebagai value . namun pada rumus di atas, apabila s = 0 maka h tidak dapat ditentukan. untuk itu diperlukan normalisasi rgb terlebih dahulu dengan rumus berikut (darma putra, 2010) : r = r / (r + g + b) …………. (9) g = g / (r+g+b) ...………. (10) b = b / (r+g+b) …….…… (11) r merupakan nilai red, g adalah green dan b adalah blue. dengan memanfaatkan nilai r, g, dan b yang telah dinormalisasi, rumus transformasi rgb ke hsv sebagai berikut (darma putra, 2010). v = max(r,g,b) ….………. (12) k-nearest neighbor merupakan salah satu metode yang digunakan dalam pengklasifikasian. prinsip kerja k-nearest neighbor (k-nn) adalah mencari jarak terdekat antara data yang akan dievaluasi dengan k tetangga (neighbor) terdekatnya dalam data pelatihan (hanselman, 1998). berikut rumus pencarian jarak menggunakan rumus euclidian : ……..... (16) dengan: x1 = sampel data x2 = data uji i = variabel data dist = jarak p = dimensi data perhitungan nilai akurasi kinerja model k-nn akan ditentukan dan dibandingkan melalui besaran akurasi yang berhasil dicapai. akurasi dapat dihitung dengan persamaan berikut: ........... (13) ........... (14) ............ (15) lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 341 proses pengenalan adapun tahapan-tahapan dalam proses pengenalan data ikan gurame dengan metode wavelet,histogram hsv dan k-nn diperlihatkan seperti gambaran umum sistem pada gambar 4 dibawah ini : gambar 4. gambaran umum sistem 4. hasil dan pembahasan tahap-tahap klasifikasi citra 2 kelas untuk mengenali kualitas induk ikan gurame yaitu: induk unggul dan tidak unggul dan citra 2 kelas untuk mengenali jenis induk ikan gurame yaitu: betina dan jantan dengan spesifikasi sebagai berikut: 1. gambar masing-masing ikan gurame diambil dengan cara di foto. 2. posisi gambar dalam pose yang sama. 3. ukuran gambar ikan gurame 512x256 piksel untuk mengenali kualitas induk gurame dengan ekstensi .bmp. ukuran gambar cropping-an sirip 403x632 piksel untuk mengenali jenis induk gurame dengan ekstensi .bmp. 4. data gambar ikan gurame dan cropping-an siripnya dalam bentuk rgb dan diubah kedalam bentuk grayscale(ikan gurame) dan diubah kedalam bentuk hsv (cropping-an siripnya) dengan perintah dalam matlab contoh data gambar ikan gurame dan sirip ikan gurame hasil cropping-an dapat dilihat pada gambar 5 berikut ini. gambar 5. (a)data citragurame betina, (b) data cropping sirip betina, (c) data citra gurame jantan, (d)data cropping sirip jantan (a) (b) (c) (d) ..................(17) lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 342 grafik user interface (gui) berikut adalah tampilan antarmuka dalam bentuk gui, seperti ditunjukkan pada gambar 6. gambar 6. gui proses pengenalan kualitas dan jenis induk gurame proses pengenalan ikan gurame 1. membuka file gambar/image langkah pertama adalah mengambil data testing dari ikan gurame atau data sirip gurame, kemudian dilakukan pemisahan warna red (r), green (g), dan blue (b). hasil dari proses mengambil data testing tersaji pada gambar 7 berikut gambar 7. proses mengambil data testing hasil mengambil data testing sama seperti yang ditunjukkan di gambar 6. 2. konversi rgb ke grayscale dan hsv konversi gambar dari rgb ke grayscale digunakan untuk merubah gambar ikan gurame berwarna menjadi keabuan. hasil dari konversi rgb ke grayscaledan ke hsvseperti tersaji pada gambar 8 berikut : gambar 8. hasil proses rgb kegrayscale dan rgb ke hsv 3. ekstraksi fitur wavelet, pca dan histogram hsv langkah selanjutnya adalah proses ekstraksi fitur wavelet,pca,dan histogram hsv diperlihatkan dengan hasil grafik penyebaran fitur untuk mengenali kualitas dan jenis induk gurame menggunakan matlab.berikut grafik penyebaran fiturnya terdapat pada gambar 9. gambar 9 grafik penyebaran fiturnya lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 343 hasil pada gambar 10 yang berisi nilai-nilai dari citraproses ekstraksi fitur wavelet dengan pca menghasilkan vektor 1x128. gambar 10. bentuk vektor dari matrik pca hasil pada gambar 11 yang berisi nilai-nilai dari citraproses ekstraksi fitur wavelet tanpa pca menghasilkan vektor 256x128. gambar 11. bentuk vektor dari matrik wavelet hasil pada gambar 12 yang berisi nilai-nilai dari citraproses ekstraksi fitur histogram hsv menghasilkan vektor 255x3. gambar 12. vektor fitur histogram hsv 4. klasifikasi k-nn proses klasifikasi menggunakan k-nn dengan menginput parameter k,dengan pilihan parameter k=1, k=3, dan k=5 yang menunjukkan jumlah k tetangga terdekat. hasil dari input k akan menunjukkan kelas untuk data testing. pada kasus ini data testing diambil dari image tu_8.bmp hingga tu_15.bmp, image b7.bmp hingga b14, dan j7 hingga j27.bmp. berikut contoh menentukan parameter k = 5 seperti tersaji pada gambar 13. gambar 13. parameter k = 5 lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 344 hasil dari inputk akan menunjukkan kelas atau group untuk data testing, seperti tersaji pada gambar 14 dengan hasil perhitungan jarak eukledian secara berurutan. gambar 14. hasil klasifikasi dengan k-nn gambar diatas menggunakan data latih 6 memiliki nilai jarak eukledian terendah 0,1856e+005 dikenali sebagai induk “unggul”. dan data uji dari j7.bmp. hasil pengenalannnya ditampilkan di antarmuka seperti terlihat pada gambar 15 berikut. gambar 15 tampilan hasil pengenalannya dari keseluruhan proses pengujian data uji dengan data latih keseluruhan dapat dirangkum hasil pengenalannya pada tabel 1 dan tabel 2 berikut. tabel 1. hasil pengenalan data uji keseluruhan data latih ekstraksi fitur tekstur tabel 2. hasil pengenalan data uji keseluruhan data latih ektraksi fitur warna perhitungan nilai akurasi kinerja algoritma k-nn dapat diketahui dari hasil klasifikasi menggunakan rumus akurasi pada persamaan 17. data citra ikan gurame yang dihitung akurasinya adalah data citra yang dikenali unggul atau tidak unggul dan data citra ikan gurame jenis betina atau jantan. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 345 tabel 3. akurasi pengenalan menggunakan ekstraksi fitur wavelet tanpa pca tabel 3. akurasi pengenalan menggunakan ekstraksi fitur wavelet dengan pca tabel 4. akurasi pengenalan menggunakan ekstraksi histogram hsv dari pengukuran nilai rata-rata akurasi untuk pengukuran klasifikasi k-nn tingkat pengenalan citra dapat disimpulkan bahwa nilai akurasi rata-rata paling tinggi untuk mengenali induk ikan gurame sebagai induk unggul atau tidak unggul menggunakan metode ekstraksi fitur antara metode alihragam wavelet tanpa pca dan metode alihragam wavelet dengan pca lebih tinggi nilai akurasinya dimiliki oleh ekstraksi fitur alihragam wavelet dengan pca yaitu 100%. sedangkan paling rendah rata-rata nilai akurasi pengukuran pengenalannya adalah 93,8%. bila diamati dari hasil pengujian, ekstraksi fitur metode wavelet dengan pca hasilnya lebih bagus dikenali untuk digunakan pada proses pengenalan fitur citra daripada hasil ekstraksi fitur metode wavelet tanpa pca. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 346 dari pengukuran nilai rata-rata akurasi untuk pengukuran klasifikasi k-nn tingkat pengenalan citra untuk jenis induk gurame jantan atau betina dapat disimpulkan bahwa nilai akurasi pengenalan rata-rata paling tinggi sebesar 92,6% menggunakan data latih 10 citra ikan gurame. 5. kesimpulan bila diamati dari hasil pengujian, ekstraksi fitur metode wavelet dengan pca cukup efektif melakukan pengenalan dibanding menggunakan metode wavelet tanpa pca. hal ini bisa diamati dari beberapa kali perubahan ketika menggunakan data latih 6 ke data latih 10 selanjutnya ke data latih 20 jumlah ikan gurame yang dikenali lebih banyak menggunakan metode wavelet dengan pca. walau perbedaan total nilai akurasi rata-rata lebih tinggi menggunakan metode wavelet tanpa pca yaitu sebesar 98,8% dan menggunakan metode wavelet dengan pca memiliki total nilai akurasi rata-ratanya adalah 97,8%. hasil klasifikasi menunjukkan tingkat keberhasilan yang baik. semakin banyak data pelatihan yang diberikan kepada sistem, maka kemampuan sistem semakin baik bila menggunakan metod ekstraksi fitur wavelet dengan pca. hasil percobaan menunjukkan sistem ini untuk nilai parameter k, semakin tinggi nilai kakan mempengaruhi hasil proses klasifikasi pengenalannya. pengenalan sistem untuk mengenali jenis ikan gurame menggunakan metode histogram hsv selama pengujian yang cukup efektif mampu dikenali baik oleh sistem menggunakan data latih 10 dengan rata-rata akurasi pengenalan tiap kelasnya sebesar 89,5%. pengujian ini menggunakan ekstraksi wavelet haar level 1, saran kedepan dapat dicoba meningkatkan levelnya menjadi lebih banyak seperti level 2, level 3 untuk dibandingkan hasil pengenalannya. selanjutnya perlu ditambahkan pula pembagian jumlah data latihnya bisa menjadi 4 bagian, misalnya 6 data latih, 10 data latih, 20 data latih dan 25 data latih. jumlah objek penelitiannya perlu ditambahkan. daftar pustaka [1]. anonim. 2011. model warna hsv. tersedia di : http://digilib.ittelkom.ac.id/index.php?option=com_content&view=article&id=195:modelwarna-hsv-&catid=20:informatika&itemid=14. [diunduh 19 januari 2011]. [2]. benedictus yoga budi putranto, widi hapsari dan katon wijana. 2010. segmentasi warna citra dengan deteksi warna hsv untuk mendeteksi objek. jurnal penelitian. [online]. tersedia di : ti.ukdw.ac.id/ojs/index.php/informatika/article/download/81/43.[diunduh tanggal: 21 januari 2012]. [3]. blog aneka usaha perikanan. usaha pembibitan ikan gurame/teknik pemijahan. tersedia di : http://aneka-usahaperikanan.blogspot.com. [online].[diunduh: 28 agustus 2012]. [4]. darma putera.2010. pengolahan citra digital. yogyakarta : andi offset [5]. farros, and chan yu, 2001, quantifying fish quality using neural networks, ieee transactions on image proc. [6]. forbes, 2001, quality estimation of fish from eyes of fishes images, master thesis, department of electrical engineering, university of cape town. [7]. mohammed alwakel, zyad shaaban.2010. face recognition base on haar wavelet transform and principal component analysis via lenenberg marquardt backpropagation neural network.[online]. tersedia di: http://www.eurojournals.com/ejsr.htm.[ diunduh: 31 desember 2010] [8]. paniran. 2010. “ pemrosesan citra mata ikan secara digital untuk menentukan kualitas kesegaran daging ikan”. [9]. rafael c. gonzalez and paulwintz, 1999, digital image processing. addison-wesley publishing company, inc. [10]. suharti jati santoso, budi setiyono & r.rizal isnanto.2011. pengenalan jenis-jenis ikan menggunakan metode analis komponen utama.[online]. tersedia di: http://eprints.undip.ac.id/25746/1/ml2f000639.pdf/ [diunduh: 1 januari 2012] http://digilib.ittelkom.ac.id/index.php?option=com_content&view=article&id=195:model-warna-hsv-&catid=20:informatika&itemid=14 http://digilib.ittelkom.ac.id/index.php?option=com_content&view=article&id=195:model-warna-hsv-&catid=20:informatika&itemid=14 http://aneka-usahaperikanan.blogspot.com/ http://www.eurojournals.com/ejsr.htm http://eprints.undip.ac.id/25746/1/ml2f000639.pdf/ lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 138 pembentukan data mart menggunakan metode generalization i gede sugita aryandanaa1, i made sukarsaa2, putu wira buanaa3 ajurusan teknologi informasi, fakultas teknik, universitas udayana jalan kampus bukit jimbaran, bali, indonesia 1sugitaaryandana@gmail.com 2sukarsa@gmail.com 3wbhuana@gmail.com abstrak teknologi zaman sekarang menyebabkan kebutuhan data suatu instansi atau perusahaan untuk mengolah data atau menganalisis data secara cepat, padat dan semakin tinggi. perusahaan atau instansi menginginkan proses analisa data dapat menghemat waktu sebanyak-banyaknya. data warehouse merupakan sebuah teknologi analisis data yang berguna untuk mengatasi masalah tersebut. data warehouse merupakan gudang data yang berguna untuk menampung semua history data yang dimiliki oleh instansi atau perusahaan. data mari merupakan bagian kecil dari data warehouse. datamart difokuskan pada satu subjek. penelitian ini menggunakan metode generalization untuk melakukan proses pembentukan datamart. generalization merupakan sebuah metode yang berguna untuk memperkecil atau mempersempit perbedaan data berdasarkan subclass. subclass tersebut disatukan menjadi sebuah superclass yang berguna untuk menampung beberapa data dari subclass. subclass merupakan data yang sifatnya lebih deskriptif. superclass merupakan data sifatnya lebih general. hasil yang didapatkan adalah kumpulan dari beberapa subclass yang telah ditentukan atau dipilih kemudian membentuk sebuah superclass yang berguna untuk menampung sumber informasi dari subclass. kata kunci: data warehouse, data mart generalization. abstract technology today causing the data needs of an agency or company to process the data or analyze data quickly, dense and higher. companies or institutions want the data analysis process can save time as much as possible. the data warehouse is a data analysis technology that is useful to resolve the issue. the data warehouse is a repository of data that is useful to accommodate all the history data held by agencies or companies. data marts are small part of the data warehouse. data mart is focused on a single subject. this study uses a generalization method to perform the process of establishing a data mart. generalization is a useful method to reduce or narrow the differences in the data based subclass. subclass were integrated into a superclass useful to collect some data from the subclass. subclass is the data that is more descriptive. superclass is more general in nature of data. the result obtained is a collection of some subclass predetermined or selected later formed a superclass useful to accommodate the resources of the subclass. keywords: data warehouse, data mart generalization. 1. pendahuluan berkembangnya teknologi pada zaman sekarang menyebabkan kebutuhan masyarakat untuk memperoleh data dan menyimpan data menjadi cukup besar dan tinggi. penyimpanan data yang sangat besar membuat instansi atau perusahaan melakukan pengolahan data yang efisien dan efektif. data warehouse merupakan teknologi yang dapat mengatasi masalah tersebut. teknologi data warehouse berguna untuk menggabungkan data dari setiap cabang lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 139 perusahaan atau instansi di berbagai daerah yang berbeda. pengukuran kinerja oleh perusahaan atau instansi tersebut berguna untuk mengetahui pertumbuhan data yang dialami oleh perusahaan atau instansi yang terkait [1]. database lebih bersifat data yang melakukan proses sistem sedangkan data warehouse lebih bertugas untuk melakukan analisa data atau read only pada suatu sistem kegunaannya yaitu untuk mengambil keputusan dan melakukan analisa data yang telah ada. data warehouse sangat berbeda dengan database. data warehouse memiliki arsitektur yang lebih jelas. data warehouse sudah melewati tahap normalisasi dan database belum melewati tahap normalisasi, sehingga data yang ada di dalam data warehouse menjadi lebih terorganisir dan terbentuklah suatu data mart di dalam data warehouse [2]. penelitian “pembentukan data mart menggunakan generalization” merupakan penelitian yang berguna untuk meminimalisir perbedaan data atau memperkecil perbedaan data dengan subclass dan superclass [3]. subclass mempunyai sifat data yang deskriptif sedangkan superclass mempunyai sifat data yang lebih umum, dengan adanya pembeda data yaitu subclass dan superclass diharapkan dapat memudahkan dalam mengambil keputusan dan analisa data. penelitian dikembangkan untuk memberikan efisiensi data dan memudahkan organisasi dalam membedakan data dan melakukan pembentukan data mart. menurut hajer baazaoui zha, sami faiz, henda ben ghezela, di dalam penelitian yang berjudul “casme: a case tool for spatial data marts design and generation” generalization merupakan data yang bersifat spasial dan non spasial. data spasial merupakan data yang masih bersifat deskriptif, di dalam penelitian tersebut terdapat dua contoh data yang dibahas yaitu gelar sarjana dan diploma. data non spasial merupakan data yang bersifat general yang artinya beberapa data spasial dapat diwakili dengan data non spasial [4].penelitian tersebut akan memberikan pengguna berupa informasi berdasarkan wilayah yang dipilih kemudian di dalam wilayah tersebut terdapat data yang bersifat lebih deskriptif. penelitian tersebut membahas mengenai sistem informasi geografis yang menggunakan metode generalization untuk menentukan informasi berdasarkan wilayah yang dipilih. persamaan penelitian hajer baazaoui zghal, sami faiz, henda ben ghezela dengan penelitian ini yaitu membahas data yang bersifat general dapat memberikan semua informasi yang terkait. menurut penelitian yoann pitarch, cécile favre, dan anne laurent, di dalam penelitian yang berjudul “context aware generalization for cube measures” membahas mengenai hierarki data yang sangat penting untuk mendapatkan analisa data yang akurat. data hierarki yang dimaksud adalah adanya hubungan data satu dengan yang lain, hampir menyerupai pohon faktor dengan saling berkaitan. data yang saling berkaitan diharapkan nantinya ketika melakukan analisa dapat mengetahui hubungan data yang saling terkait. keterkaitan data dapat memudahkan untuk melakukan analisa menjadi lebih baik [5]. memudahkan dalam melakukan analisa data dan mencari sumber data dari hierarki yang telah dibuat. persamaan dengan penelitian yoann pitarch, cécile fari, dan anne laurent (2010) dan penelitian ini adalah mencari keterkaitan data yang bersifat deskriptif dengan data yang bersifat general menjadi acuannya. menurut penelitian ran liu, kenneth r. koedinger, elizabeth a. mclaughlin, di dalam penelitian yang berisi mengenai “interpreting model discovery and testing generalization to a new dataset” membahas mengenai algoritma learning factors analysis (lfa) yang berguna untuk menerjemahkan bahasa yang mudah dimengerti oleh mesin agar ketika pengguna memasukkan sebuah perintah, mesin agar cepat mengerti dan mengeluarkan hasil sesuai dengan perintah. algoritma learning factors analysis (lfa) mulai berkembang sejak 19961997 perkembangan yang dialami oleh algoritma learning factors analysis (lfa) membuat para pengembang untuk membuat sebuah teknologi yang dimengerti oleh mesin. kegunaan dari algoritma learning factors untuk melakukan analisa informasi yang ada [6]. procedure yang dilakukan oleh algoritma lfa sebenarnya mirip dengan metode generalization yaitu mesin mulai mengumpulkan bahasa yang dianggap sama, kemudian mesin mulai merangkum setiap perintah yang diinputkan. mesin akan menyaring setiap perintah yang telah dilakukan oleh pengguna tujuannya yaitu untuk mendapatkan hasil yang diinginkan oleh pengguna. mesin membutuhkan proses pengecekan atau lopek untuk memastikan perintah yang diinputkan apakah ada atau tidak. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 140 2. metodologi penelitian pembentukan data mart menggunakan metode generalization menggunakan metode penelitian yaitu metode waterfall. metode waterfall memiliki beberapa tahapan, yaitu analisis, desain, implementasi, pengujian, dan pemeliharaan. tahap analisis merupakan tahapan untuk mengetahui kebutuhan data yang digunakan. tahap implementasi merupakan tahapan yang melakukan konversi dari bahasa pemrograman menjadi bahasa yang dimengerti oleh komputer. tahap pengujian merupakan tahapan untuk melakukan testing apakah sesuai dengan prosedur atau rancangan yang sudah diperkirakan. tahap pemelihara merupakan tahapan untuk menjaga kondisi aplikasi, agar dapat digunakan dalam jangka panjang. 2.1. gambaran umum gambaran umum dari pembentukan data mart menggunakan metode generalization ditunjukkan pada gambar 1. gambar 1. gambaran umum tahapan dari gambaran umum sistem pada gambar 1 yaitu administrator melakukan akses ke sistem dengan memasukkan hostname atau ip address yang telah dibuat. tahap kedua setelah administrator memasukkan hostname atau ip address, administrator dapat mengakses data mart yang berasal dari hostname atau ip address tersebut. tahap ketiga administrator harus menentukan relasi atau hubungan antar subclass agar superclass dapat terbentuk. tahap keempat administrator melakukan tahap mapiku data mart, mapping tabel, dan mapping field untuk membentuk sebuah superclass. tahap kelima administrator mempunyai sebuah superclass yang berguna untuk mengetahui asal tabel dan mengetahui hubungan dari sumber data yang telah di-mapping. 2.2. metodologi mapping metodologi mapping digunakan untuk mengetahui tahapan yang terjadi dalam pembentukan data mart menggunakan metode generalization. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 141 gambar 2. alur mapping generalization alur penelitian merupakan bagan atau flowchart yang menggambarkan proses arus mapping dalam perancangan pembentukan data mart menggunakan metode generalization. tahapannya adalah sebagai berikut. a. mendefinisikan masalah yang ditangani b. menentukan subclass yang digunakan sebagai acuan untuk membentuk superclass c. menentukan field berguna sebagai informasi atau pembeda di dalam superclass d. mendefinisikan sebuah nama superclass yang menampun data dari subclass. 3. kajian pustaka kajian pustaka digunakan untuk menunjang materi dalam pembuatan penelitian pembentukan data mart menggunakan metode generalization. 3.1. data warehouse data warehouse adalah sebuah gudang data yang berguna untuk melakukan penyimpanan data atau menampung data dalam skala yang lebih besar. ruang lingkup dalam data warehouse yaitu sebuah instansi atau perusahaan yang mempunyai sumber data dalam bentuk yang lebih besar. kegunaan dari data warehouse untuk melakukan analisis di dalam perusahaan [7]. data warehouse juga bisa disebut sebagai penyimpanan media elektronik yang jumlahnya sangat besar yang berisi mengenai informasi perusahaan atau instansi. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 142 penyimpanan data warehouse harus aman, dan mudah digunakan yang dalam arti perusahaan bisa mengelola data yang sudah menjadi data warehouse. 3.2. data mart data mart adalah bentuk sederhana dari data warehouse yang difokuskan pada satu subjek (fungsional) seperti marketing dan keuangan. data mart sering dibangun dan dikendalikan oleh satu departemen dalam sebuah organisasi. data mart biasanya menarik data dari beberapa sumber yang dianggap penting di dalam suatu perusahaan. sumber data yang diambil oleh data mart biasanya dari sumber data internal operasional, data warehouse pusat, atau data eksternal [8]. data warehouse hampir mirip dengan data mart, bedanya terletak bagian data yang diukur, data warehouse mengukur semua jenis data sedangkan data mart mengukur beberapa jenis data. data mart lebih kecil dan lebih kompleks dari pada data warehouse. perusahaan lebih mudah menggunakan data mart karena mereka lebih mengetahui sumber data yang dijadikan pengukuran. 3.3. generalization metode generalization adalah metode yang dapat mempersempit atau memperkecil perbedaan antar tabel dengan cara melakukan identifikasi terlebih dahulu di setiap tabel yang berbeda serta atribut yang dimiliki. tujuannya agar menjadi satu tabel (superclass), dengan membuat pengolahan data menjadi lebih efisien dan efektif dari segi waktu maupun penggunaannya. dapat mewakili setiap informasi yang dimiliki oleh entitas tersebut [9]. metode generalization dapat dilakukan jika terdapat lebih dari satu entitas yang memiliki perbedaan informasi tetapi masih memiliki makna sama atau informasi yang sama. generalization mempunyai konsep yang digunakan untuk menggabungkan subclass menjadi superclass. konsep generalization yang dimiliki adalah sebagai berikut: a. disjoint constraint merupakan proses yang memberikan informasi bahwa subclass dari superclass merupakan anggota dari salah satu subclass dengan memberikan huruf ‘d’ pada relasi tabel. b. participation constraint partial merupakan proses yang memberikan keterangan di dalam superclass. superclass merupakan anggota dari subclass yang telah didefinisikan. 4. hasil mapping metode generalization hasil metode generalization merupakan hasil dari pembentukan beberapa subclass menjadi sebuah superclass. contoh dari hasil superclass adalah sebagai berikut. 4.1. langkah-langkah mapping generalization a. langkah pertama tentukan subclass yang ingin digabung ke dalam superclass beserta atribut yang ada di dalamnya termasuk primary key. langkah selanjutnya yaitu memilih field yang dibutuhkan oleh superclass yang sumber datanya berasal dari subclass. tabel pegawai merupakan sebuah tabel yang mempunyai data bersifat deskriptif (subclass), adapun contoh tabel pegawai adalah sebagai berikut. tabel 1. pegawai id nama alamat agama gender handphone tabel 1 menunjukkan tabel pegawai yang berguna untuk menjadi bagian dari tabel superclass pekerjaan dengan informasi berupa id, nama, alamat, agama, gender, alamat yang berasal dari tabel pegawai. tabel 2 di bawah adalah contoh data atau gambaran data yang nantinya ada di dalam tabel pegawai. tabel 2. contoh data pegawai id nama alamat agama gender handphone 1 gede denpasar hindu laki-laki 123456789 2 yoga singaraja hindu laki-laki 676767676 3 desak gianyar hindu perempuan 121212121 lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 143 tabel dosen merupakan sebuah tabel yang mempunyai data bersifat (subclass). contoh data dari tabel dosen adalah sebagai berikut. tabel 3. dosen id nama gelar gender type unique unique_id alamat tabel 3 menunjukkan tabel dosen yang berguna untuk menjadi bagian dari tabel superclass pekerjaan dengan informasi berupa id, nama, gelar, gender, type unique, alamat yang berasal dari tabel dosen. tabel 4 di bawah adalah contoh data atau gambaran data yang nantinya ada di dalam tabel dosen. tabel 4. contoh data dosen id nama gelar gender type unique unique_id alamat 1 navi s2 laki-laki nip 9908011 denpasar 2 arta s3 laki-laki nip 9908201 tabanan 3 gede s2 laki-laki nupn 9898989 bangli tabel superclass pekerjaan merupakan sebuah tabel gabungan dari tabel pegawai dan tabel dosen yang berguna untuk mewakili informasi kedua tabel. contoh tabel superclass pekerjaan adalah sebagai berikut. tabel 5. superclass pekerjaan id_superclass subclass_id keterangan tabel 5 menunjukkan tabel superclass pekerjaan yang berguna untuk menampung data dari tabel pegawai dan tabel dosen dengan menambahkan field khusus seperti id_superclass dan keterangan sebagai prototype. tabel 6 di bawah adalah contoh data atau gambaran data yang nantinya ada di dalam tabel dosen. tabel 6. contoh data superclass pekerjaan id_superclass subclass_id keterangan 1 3 tabel dosen 2 1 tabel pegawai b. alur kerja yang kedua yaitu buatlah sebuah relasi terpisah yang sesuai dengan masingmasing entitas subclass beserta atributnya. primary key di masing-masing subclass menjadi foreign di dalam tabel superclass pegawai yang berguna untuk mengetahui asal tabel dari subclass. aturan kedua dapat digunakan jika entitas superclass dan entitas subclass memenuhi syarat dari modul disjoint constraint dan partial constraint. contoh gambar dari alur kedua adalah sebagai berikut. gambar 3. skema generalization lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 144 gambar 3 menunjukkan hasil skema dari metode generalization. skema tersebut dapat terjadi dikarenakan adanya modul dari metode generalization yaitu disjoint constraint dan partial constraint. pertama dimulai dari disjoint constraint, yaitu tabel superclass pekerjaan merupakan anggota dari tabel pegawai dan tabel dosen. partial constraint yaitu tabel superclass pekerjaan dapat menjadi bagian dari tabel pegawai atau dapat menjadi tabel dosen. c. alur kerja yang ketiga yaitu membuat superclass yang berguna untuk mewakili informasi dari setiap subclass. superclass harus mempunyai semua atribut yang dimiliki oleh subclass. superclass juga harus mempunyai satu field yang berguna untuk membedakan setiap entitas subclass, contoh dari alur ketiga adalah sebagai berikut. gambar 4. hasil skema generalization gambar 4 menunjukkan hasil mapping generalization dari struktur data yang berbeda-beda. hasilnya adalah semua atribut yang dimiliki oleh tabel pegawai dan tabel dosen, harus ada di dalam tabel superclass pekerjaan yang berguna untuk mewakili setiap informasi yang dimiliki oleh kedua entitas tersebut. tabel superclass pekerjaan merupakan gabungan dari beberapa atribut yang dimiliki oleh tabel pegawai (subclass) dan tabel dosen (subclass). tabel superclass pekerjaan (superclass) memiliki satu field yang berguna untuk membedakan informasi dari tabel pegawai (subclass) dan tabel dosen (subclass). field yang dimaksud adalah field keterangan yang berguna untuk memberikan definisi atau informasi kepada tabel pegawai (subclass) dan tabel dosen (subclass). tujuannya yaitu untuk membedakan setiap data yang masuk di dalam tabel pekerjaan. tabel 7 di bawah adalah contoh data atau gambaran data yang nantinya ada di dalam tabel superclass pekerjaan. tabel 7. contoh data superclass pekerjaan superclass_id subclass_id nama alamat agama gender 1 3 gede bangli hindu laki-laki 2 1 gede denpasar hindu laki-laki handphone gelar type_unique unique_id keterangan s2 nupn 9898989800 tabel dosen 123456789 tabel pegawai tabel 6 menunjukkan hasil dari mapping generalization dengan menggabungkan dua tabel yaitu tabel pegawai dengan menghasilkan satu field khusus yaitu field keterangan sebagai pembeda sumber data atau subclass. kegunaannya dari mapping generalization ini adalah untuk menggabungkan beberapa subclass menjadi superclass sehingga menghasilkan data yang bersifat general dan lebih efisien dalam memberikan informasi. 4.2. analisis hasil analis hasil yang dilakukan dari penelitian ini adalah untuk mengetahui hasil mapping dari metode generalization adalah sebagai berikut. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 145 a. pegawai merupakan jabatan atau seseorang yang melaksanakan tugasnya untuk mendapatkan imbalan berupa uang atau gaji dan tunjangan yang diberikan oleh pemerintah. b. dosen merupakan ilmuan dengan tugas utama untuk memberikan ilmu pengetahuan atau menyebarluaskan ilmu pengetahuan, mengembangkan teknologi, melakukan penelitian. 4.3. hasil analisa menggunakan jumlah field berbeda gambar 5. subclass dosen gambar 5 menunjukkan pemilihan subclass atau data mart dosen dengan menggunakan tabel dosen sebagai acuan, serta ketujuh field yang dipilih digunakan untuk menganalisis data. field yang digunakan dalam melakukan analisis data adalah id, nama, gelar, gender, type_unique, unique_id dan alamat. field di atas dapat digunakan untuk menampung sumber data atau informasi yang dimiliki oleh subclass db_dosen. gambar 6. subclass pegawai lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 146 gambar 6 menunjukkan pemilihan subclass atau data mart pegawai dengan menggunakan tabel pegawai sebagai acuan, serta keenam field yang dipilih digunakan untuk menganalisis data. field yang digunakan dalam melakukan analisis data adalah id, nama, alamat, agama, gender, handphone dan alamat. field di atas dapat digunakan untuk menampung sumber data atau informasi yang dimiliki oleh subclass db_pegawai. gambar 7. superclass pekerjaan gambar 7 menunjukkan hasil mapping dari metode generalization dengan menghasilkan sebuah superclass bernama superclass_pekerjaan yang berguna untuk menampung subclass dosen dan subclass pegawai. kegunaan dari superclass_pekerjaan adalah untuk memudahkan pengguna dalam melakukan analisa data serta dapat mengetahui subclass yang termasuk di dalam superclass_pekerjaan. gambar 8. contoh data dosen gambar 8 menunjukkan isi data dari tabel dosen dan berguna untuk menampilkan data berdasarkan field yang telah dipilih. gambar 9. contoh data pegawai gambar 9 menunjukkan isi data dari tabel pegawai dan berguna untuk menampilkan data berdasarkan field yang telah dipilih. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 147 4.4. hasil analisa menggunakan jumlah field sama gambar 10. subclass dosen gambar 10 menunjukkan pemilihan subclass atau data mart dosen dengan menggunakan tabel dosen sebagai acuan, serta keenam field yang dipilih digunakan untuk menganalisis data. field yang digunakan dalam melakukan analisis data adalah id, nama, gelar, gender, type_unique, dan unique_id. field di atas dapat digunakan untuk menampung sumber data atau informasi yang dimiliki oleh subclass db_dosen. gambar 11. subclass pegawai gambar 11 menunjukkan pemilihan subclass atau data mart pegawai dengan menggunakan tabel pegawai sebagai acuan, serta keenam field yang dipilih digunakan untuk menganalisis data. field yang digunakan dalam melakukan analisis data adalah id, nama, alamat, agama, gender, handphone dan alamat. field di atas dapat digunakan untuk menampung sumber data atau informasi yang dimiliki oleh subclass db_pegawai. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 148 gambar 12. superclass pekerjaan gambar 12 menunjukkan hasil mapping dari metode generalization dengan menghasilkan sebuah superclass bernama superclass_pekerjaan yang berguna untuk menampung subclass dosen dan subclass pegawai. kegunaan dari superclass_pekerjaan adalah untuk memudahkan pengguna dalam melakukan analisa data serta dapat mengetahui subclass yang termasuk di dalam superclass_pekerjaan. gambar 13 contoh data dosen gambar 13 menunjukkan isi data dari tabel dosen dan berguna untuk menampilkan data berdasarkan field yang telah dipilih gambar 14. contoh data pegawai gambar 14 menunjukkan isi data dari tabel pegawai dan berguna untuk menampilkan data berdasarkan field yang telah dipilih. 5. kesimpulan hasil dari mapping metode generalization adalah data yang memiliki makna data yang sama tetapi penempatan tabelnya berbeda-beda. subclass dapat digabung menjadi sebuah superclass yang berguna untuk menampung perbedaan data tersebut. superclass yang telah dibuat bisa membedakan kumpulan subclass yang telah disatukan dengan menggunakan field khusus atau prototype agar dalam menganalisis data menjadi lebih cepat. hasil mapping dapat dilakukan dengan field yang berbeda atau field yang sama karena metode generalization sifatnya dinamis. daftar pustaka [1] p. lane, “oracle9i data warehousing guide.” oracle corporation, 2002. [2] a. parekh, “introduction on data warehouse with oltp and olap,” international journal of engineering and computer science, vol. 2, no. 8, pp. 2569–2573, 2013. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p02 e-issn 2541-5832 149 [3] s. bagui, “mapping generalizations and specializations and categories to relational databases,” handbook of research on innovations in database technologies and applications: current and future trends, pp. 2009–2011, 2009. [4] h. b. zghal, s. faïz, and h. ben ghézala, “casme : a case tool for spatial data marts design and generation,” international journal of cooperative information systems., pp. 1– 11, 2003. [5] y. pitarch, c. favre, a. laurent, and p. poncelet, “context-aware generalization for cube measures,” proceedings of the acm 13th international workshop on data warehousing and olap (dolap '10), p. 99, 2010. [6] r. liu, k. koedinger, and e. a mclaughlin, “interpreting model discovery and testing generalization to a new dataset,” proceedings of the seventh international conference on educational data mining, pp. 107–113, 2014. [7] m. golfarelli and s. rizzi, data warehouse design: modern principles and methodologies. mcgraw-hill, inc., 2009. [8] a. bonifati, f. cattaneo, s. ceri, a. fuggetta, and s. paraboschi, “designing data marts for data warehouses,” acm transactions on software engineering and methodology (tosem), vol. 10, no. 4, pp. 452–483, 2001. [9] j. eder and s. kanzian, “logical design of generalizations in object-relational databases,” in east european conference advances in databases and information systems, 2004, vol. 8th. lontar template lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 33 a practical analysis of the fermat factorization and pollard rho method for factoring integers aminudina1, eko budi cahyonoa2 adepartment of informatic, university of muhammadiyah malang tlogomas street 246 malang, indonesia 1aminudin2008@umm.ac.id (corresponding author) 2ekobudi@umm.ac.id abstract the development of public-key cryptography generation using the factoring method is very important in practical cryptography applications. in cryptographic applications, the urgency of factoring is very risky because factoring can crack public and private keys, even though the strength in cryptographic algorithms is determined mainly by the key strength generated by the algorithm. however, solving the composite number to find the prime factors is still very rarely done. therefore, this study will compare the fermat factorization algorithm and pollard rho by finding the key generator public key algorithm's prime factor value. based on the series of test and analysis factoring integer algorithm using fermat's factorization and pollards' rho methods, it could be concluded that both methods could be used to factorize the public key which specifically aimed to identify the prime factors. during the public key factorizing process within 16 bytes – 64 bytes, pollards' rho's average duration was significantly faster than fermat's factorization. keywords: factorization, fermat's factorization, pollard's rho. 1. introduction information security is a major challenge in an era of information flood like today. the cryptology method can be one of the solutions used to secure this information [1]. cryptology consists of two parts, namely cryptography and cryptanalysis. the main task of cryptography is to hide data using specific algorithms, while cryptanalyst is a method for investigating the security of a cryptographic system by finding weaknesses in codes, ciphers, protocols, or key management schemes.[2]. usually, cryptanalysis refers to analyzing and solving the keys used to perform the encryption and decryption processes. therefore, cryptanalysts are needed to test the robustness of the encryption algorithm. there are several mathematical approaches in testing the robustness of cryptographic algorithms, including discrete logarithms and factorization. in this study, the factorization method is used to break numbers into smaller numbers [3]. this factorization method is used for the rsa algorithm to generate public and private keys there are several methods that can be used to factor the composite number into prime numbers, namely fermat's factorization and pollard rho. fermat factorization looks for the factor of an odd number by utilizing the property of an odd number which can be expressed as the difference of 2 squares from another number [4]. in contrast, the pollard rho method integrates a polynomial function in a modulo 𝑛 (the number to be factored) and a seed (generator number) [5]. the importance of the two algorithms is that if they can return two large prime factors of modulus processing, it can be ascertained that the public and private keys can be found [6]. thus, this integer factorization problem has a significant impact on the security of the public-key cryptography system. the research conducted by chinniah et al. created a factorization method that aims to find composite number factors resulting from two different prime numbers [7]. then li et al. researched the implementation of algorithms with a mathematical model used for factoring integers. the results of this study were a comparison between pollard's rho and spsqalgorithm based on execution time. [8]. this study aimed to analyze fermat's factorization and pollards' rho due to vulnerability by factorizing the prime factors. furthermore, the purpose is to figure out the receiving the factorization attack by comparing the factorization time between both methods. mailto:1aminudin2008@umm.ac.id.com mailto:2ekobudi@umm.ac.id.com lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 34 the ultimate goal of the proposed research is to discover an opportunity to extend the previous study to contribute in the area of cryptanalysis and cryptography. 2. research methods 2.1. fermat's factorization the following section is the attack method as the technique of factorization. p and q can be easily found using fermat's factorization with the following steps [6]: a. 𝑘 = √𝑛 (1) b. 𝑘2 > 𝑛 𝑒𝑙𝑠𝑒 𝑛 + +. (2) c. 𝑘2 − 𝑛 = ℎ2 that is, if (ℎ == 𝑠𝑞𝑢𝑎𝑟𝑒). (3) d. 𝑝 = (𝑘 + ℎ) and 𝑞 = (𝑘 − ℎ) (4) the variable of 𝑘 on equation (1) is the value of square root n. the variable of 𝑘2 on equation (2) is the value of the perfect square. the variable of ℎ2 on equation (4) is the ultimate value of the perfect square. the variable of 𝑝 and 𝑞 on equation (5) is the sought prime. figure 1 shows the pseudocode of fermat's factorization. input : value public key (n) output: p and q for k from ceil (sqrt (n)) to n h square = k * k-n if p > 1 and p < n do h = sqrt (hsquared) p = k + h q = k – h figure 1. flowchart fermat's factorization algorithm the input value of 𝑛 is used to get factorization from values 𝑝 and 𝑞. the 𝑛 value will be checked to include square root or not. after knowing 𝑘 is the square root, it is processed again whether 𝑞 is greater than 𝑛. subsequently, the calculations can be done if the value 𝑘 is greater than the value 𝑛. if it has a greater value, it proceeds by calculating the result of 𝑘 by performing square root. conversely, the calculation is continued by adding 1 to the value 𝑘. after obtaining the square root value of 𝑛, we find 𝑝 and 𝑞 values depicted in equation (8) to get the 𝑝 and 𝑞 values. the flowchart of fermat's factorization is shown in figure 2. figure 2. flowchart of fermat's factorization algorithm lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 35 figure 5 represents the factorization steps using fermat's factorization method that have already been explained through a flow chart. 2.2. pollard's rho pollard's rho factorization method calculates the factorization 𝑛 with polynomial modulo 𝑛 iteration. this algorithm is based on several mathematical concepts, such as integer factorization[9]. the following procedure explains the steps of pollard's rho algorithm as a method of factorization [2]: a. input a value that are going to be factorized value 𝑛 b. 𝑎 = 2, 𝑏 = 2. (5) c. 𝑎 = 𝑎2 + 1 (𝑚𝑜𝑑 𝑛), 𝑏 = 𝑏2 + 1 (𝑚𝑜𝑑 𝑛) (6) d. 𝑝 = gcd(𝑎 − 𝑏, 𝑛). (7) e. 𝑝 ≠ 1 and 𝑝 ≠ 𝑛. (8) f. 1 < 𝑝 < 𝑛, 𝑞 = 𝑛/𝑝 (9) the 𝑎 and 𝑏 variable on equation (5) is the first step of factorization. the a2 and b2 variable on equation (6) is the value that has been square root from the previous result. the 𝑝 variable on equation (7) is the prime produced by equation gcd (the greatest divisor), and the 𝑛 variable is the prime of the public key. the 𝑞 variable on equation (8) is the prime generated from the division of variable 𝑛 and variable 𝑞. figure 3 shows pseudocode pollard's rho in detail. input : value public key (n) output: p and q values initialization a=2, b=2; while (true) a=(a2 + 1(mod n)) b=(b2 + 1(mod n)) count p = (a b), gcd (n); print (p) ; loop (a,b); false if (p = n); if p > 1 and p < n than count q = (n/p); print (q); figure 3. pollard's rho algorithm the first step in the pollards' rho method gets the public key value 𝑛 to be factored into 𝑝 and 𝑞 values. the next step is calculating the 𝑝 value, which must fulfill the equation 𝑝 > 1 𝑑𝑎𝑛 𝑝 < 𝑛. if it does not fulfill the equation, it is recalculated from the beginning. if the 𝑝 value has been found, then the 𝑞 value can be calculated. figure 4. flowchart of pollard's rho lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 36 figure 7 represents the factorization steps using pollard's rho method that have already been explained through a flow chart. 2.3. scenario of testing the testing scenario was conducted by running the program and inserting the various number of public keys that have been generated and compiled using 𝑛 = 𝑝 < 𝑞 < 2𝑝 which finally created the public key n. then the generated key was factorized by using fermat's factorization and pollard's rho method for obtaining the p and q values and figuring out the duration of factorization. the public key pairs were created within a range from 16 to 64 bytes complying with the equation 𝑛 = 𝑝 < 𝑞 < 2𝑝. 3. result and discussion to increase the security in public key so that it can be concluded afterward the characteristic of the strong public key that can withstand the attacks of factorization mainly by using the fermat's factorization and pollard's rho. the test results of fermat's factorization method are presented in table 1 and table 2, while pollard's rho's test results are shown in tables 3 and 4. the second column shows the public key 𝑛 factorized to obtain the value of 𝑝 and 𝑞. the following columns present the digit length of 𝑛, the found value of 𝑝 and 𝑞, duration of factorization, and success rate of key public factorization. 3.1. testing using fermat's factorization the experiment of fermat's factorization algorithm used the public key 𝑛 that was normally widely distributed. however, this test used the generated public key 𝑛 with the equation 𝑛 = 𝑝 < 𝑞 < 2𝑝 to make it difficult to find the value of 𝑝 and 𝑞. fermat's factorization was used to factorize the public key 𝑛 to find the value of 𝑝 and 𝑞. the test results are illustrated in table 1 and table 2 below: table 1. testing result fermat's factorization on 16 untuk 32 bytes key generation no public key 𝒏 length of public key 𝒏 𝒑 𝒒 execution time (ms) succes s rate (%) 1. 2916425411 10 /16 bytes 65357 44623 561 ms 100 % 2. 1175270081425 9 14 343051 7 3425927 2 ms 100 % 3. 1341849068550 433 16 393584 47 3409303 9 18497 ms / 18,497 d 100 % 4. 4172366223726 2923 17 209763 919 1989077 17 13207 ms / 13,207 d 100 % 5. 4325011719545 94013 18 779594 677 5547769 69 1640872 ms / 27,34786667 m 100 % 6. 8763301721976 902561 19 344668 3453 2542531 637 6688088 ms /1,857802222 jam 100 % 7. 4980853165476 5413631 20/ 32 bytes 707853 7649 7036556 719 6162 ms / 6,162 d 100 % in table 1, fermat's factorization method succeeded in finding the value of 𝑝 and 𝑞. this showed the attack's susceptibility caused by fermat's factorization method, proven by a 100% success rate. the prime factors of public key 𝑛 were still easily obtained through the test. the test used fermat's factorization within 32-64 bytes key generation. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 37 table 2. testing result fermat's factorization on 32 untuk 64 bytes key generation n o. public key 𝒏 length of public key of 𝒏 𝒑 𝒒 execution time (ms) succes s rate (%) 1. 2936653455160738453027 22 469 m 4 s / 7,81667 h 0 % 2. 52891073208710727120157 23 383 m 34 s / 6,38333 h 0 % 3. 147307994954025982922977 1 25 385 m 40 s / 6,41667 h 0 % 4. 123693524037686594532150 77 26 517 m / 8,61667 h 0 % 5. 268889892902937863375973 328747 30 540 m 5 s / 9 h 0 % 6. 568396900241882051501949 76305169 32 967 m 38 s / 16,1167 h 0 % 7. 205777995053692340932379 163614957396549 38/ 64 bytes 30357 s / 5,05 h 0% in table 2, fermat's factorization method did not find the value of p and q. this was considered secure from fermat's factorization attack, proven by a 0% success rate in which the prime factors of public key 𝑛 were not found. 3.2. factorization using fermat's factorization fermat's factorization is used to identify the factors of public key 𝑛 (the value of 𝑝 and 𝑞) by factorizing the value of the public key. the test of fermat's factorization algorithm showed a 100% success rate in finding the value of 𝑝 and 𝑞 at 16 – 32 bytes key generation, even though the key public generation has fulfilled the equation 𝑛 = 𝑝 < 𝑞 < 2𝑝 used to complicate the identification of the prime factors through fermat's factorization. meanwhile, the key generation on variant above 32 – 64 bytes showed a 0% success rate. 3.3. testing using pollard's rho the second test applied pollards' rho method to factorize the public key n to identify the prime factors' values on variant above 32 – 64 bytes. the duration of factorization was also investigated. the test results are presented in table 3 and table 4 below : table 3. testing result pollard's rho on 16 until 32 bytes key generation no public key n length of public key 𝒏 𝒑 𝒒 executio n time (ms) success rate (%) 1. 2916425411 10/16 bytes 44623 65357 8892 ms / 8,892 d 100 % 2. 1175270081425 9 14 3425927 3430517 7394 ms / 7,394 d 100 % 3. 1341849068550 433 16 3935844 7 3409303 9 9843 ms / 9,843 d 100 % 4. 4172366223726 2923 17 1989077 17 2097639 19 8564 ms / 8,564 d 100 % 5. 4325011719545 94013 18 5547769 69 7795946 77 5148 ms / 5,148 d 100 % 6. 8763301721976 902561 19 2542531 637 3446683 453 8440 ms / 8,44 d 100 % 7. 4980853165476 5413631 20/ 32 bytes 7078537 649 7036556 719 28704 ms / 28,704 100 % in table 3, the pollards' rho method succeeded in solving the public key 𝑛 so that the prime factors ( 𝑝 and 𝑛 ) were still identifiable. this proved by the 100% of prime factors from the lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 38 established public key 𝑛 using a variant of 16 – 32 bytes. this happened since the method easily factorized the key. if a prime n is the product of two contiguous numbers (𝑝, 𝑞), then 𝑛 = 𝑝. 𝑞 with 𝑝 ≥ 𝑝 > 0, 𝑝 𝑞 is not really big, and both of 𝑝 and 𝑞) are even, then 𝑝 and 𝑞 are easily identified by pollard's rho method and eventually accelerate the factorization process. table 4. testing result pollard's rho on 32 until 64 bytes key generation no. public key 𝒏 public key 𝒑 𝒒 execution time (ms) success rate (%) 1. 29366534551607384530 27 22 49865 64726 7 58891313 281 27737 ms / 27,737 d 100% 2. 14730799495402598292 29771 25 11043 88782 851 13338418 24921 108280 ms / 1,80466667 m 100% 3. 12369352403768659453 215077 26 34822 18272 409 35521473 48653 224082 ms / 3,7347 m 100% 4. 26888989290293786337 5973328747 30 53122 50579 49433 50616944 5283459 6003859 ms / 1,667738611 h 100% 5. 56839690024188205150 194976305169 32 80319 78041 99680 9 70766739 80804041 24835270 ms / 6,8986861111 h 100% 6. 20577799505369234093 2379163614957396549 38 1,194 m 34 s / 19,9 h 0% in table 4, the pollards' rho method was still able to solve the factors of public key 𝑛 on variants below 64 bytes. meanwhile, the method could not identify the factors of key public 𝑛 on variant at above 64 bytes. it was proved by the 0% success rate indicating that the value of 𝑝 and 𝑞 of the public key prime factors were not found. these test results proved that the success of public key generation fulfilling the equation 𝑛 = 𝑝 < 𝑞 < 2𝑝 used above 64 bytes variant was still secured. 3.4. analysis on duration comparison of fermat's factorization and pollard's rho the analysis on the comparison of public key n factorization duration during the attack using fermat's factorization and pollard's rho showed varieties of durations and key length. the two methods with the fastest rate in the factorizing public key under 64 bytes can be depicted from the results. the duration comparison using 16 – 64 bytes prime length parameter on each test is presented in figure 8. figure 8 shows that along with the public key's growth, the factorization process from both methods spending more time and resources. the highest point for the length of public-key n in fermat's factorization reached 32 digits, while the highest point in pollards' rho reached 38 digits. in terms of the factorizing the public key n within 16 – 64 bytes, pollard's rho generated faster duration (7129203,29 milliseconds or 118,82005483332 minutes or 1,980334247222 hours) than fermat's factorization (15871956,36 milliseconds or 264,532606 minutes or 4,4088767666667 hours. more information can be obtained if a higher specification is provided. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 39 figure 8. comparison duration on the factorization 4. conclusion based on the series of test and analysis factoring integer algorithm using fermat's factorization and pollards' rho methods, it could be concluded that both methods could be used to factorize the public key which specifically aimed to identify the prime factors (p and q). during the public key n factorizing process within 16 bytes – 64 bytes, pollards' rho's average duration was significantly faster than fermat's factorization. pollard's rho performed factorization only in 7129203,29 milliseconds or 118,82005483332 minutes or 1,980334247222 hours, while fermat's factorization was accomplished in 15871956,36 milliseconds or 264,532606 minutes or 4 hours. references [1] a. aminudin, a. f. helmi, and s. arifianto, “analisa kombinasi algoritma merkle-hellman knapscak dan logaritma diskrit pada aplikasi chat,” jurnal teknologi informasi dan ilmu komputer, vol. 5, no. 3, pp. 325–334, 2018. [2] p. p. thwe, m. htet, y. c. city, and i. technology, "extended pollard's rho factorization algorithm for finding factors in composite number," journal of science, engineering and education, pp. 232–235, 2020. doi: 10.13140/rg.2.2.34889.16485 [3] a. aminudin, g. p. aditya, and s. arifianto, "rsa algorithm using key generator esrkgs to encrypt chat messages with tcp/ip protocol," jurnal teknologi dan sistem komputer, vol. 8, no. 2, pp. 113–120, 2020, doi: 10.14710/jtsiskom.8.2.2020.113-120. [4] k. chiewchanchairat, p. bumroongsri, and s. kheawhom, "improving fermat factorization algorithm by dividing modulus into three forms," kku engineering journal, vol. 40, no. march, pp. 131–138, 2016, doi: 10.14456/kkuenj.2016.127. [5] c. l. duta, l. gheorghe, and n. tapus, "framework for evaluation and comparison of integer factorization algorithms," proceeding 2016 sai computing conference, pp. 1047–1053, 2016, doi: 10.1109/sai.2016.7556107. [6] k. somsuk, "the new integer factorization algorithm based on fermat's factorization algorithm and euler's theorem," international journal of electrical and computer engineering, vol. 10, no. 2, pp. 1469–1476, 2020, doi: 10.11591/ijece.v10i2.pp1469-1476. [7] p. chinniah and a. ramalingam, "an integer factorization method equivalent to fermat factorization," international journal of mathematics and its applications, vol. 6, no. 2, pp. 107–111, 2018. [8] j. li, "algorithm design and implementation for a mathematical model of factoring integers," iosr journal of mathematics, vol. 13, no. 01, pp. 37–41, 2017, doi: 10.9790/57280 10000000 20000000 30000000 40000000 50000000 60000000 70000000 80000000 1 0 b y te s 1 4 b y te s 1 6 b y te s 1 7 b y te s 1 8 b y te s 1 9 b y te s 2 0 b y te s 2 2 b y te s 2 3 b y te s 2 5 b y te s 2 6 b y te s 3 0 b y te s 3 2 d ig it s 3 8 d ig it s t im e ( m s ) length of public key n comparison of algorithm duration fermat's factorization pollards' rho lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 40 1301063741. [9] s. sarnaik, r. bhakkad, and c. desai, "comparative study on integer factorization algorithm-pollard's rho and pollard's p-1," in 2015 2nd international conference on computing for sustainable global development (indiacom), 2015, pp. 677–679. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 162 pengenalan tradisi budaya bali melalui aplikasi game explore bali berbasis android dewa putu andre sanjayaa1, i ketut adi purnawana2, ni kadek dwi rusjayanthia3 ajurusan teknologi informasi, fakultas teknik, universitas udayana, bali, indonesia bukit jimabaran, bali, indonesia, telp +6285102853533 1dewapt_andresanjaya@yahoo.co.id 2dosenadi@yahoo.com 3dwi.rusjayanti@gmail.com abstrak perkembangan teknologi informasi sangat berperan penting bagi kehidupan manusia, salah satu teknologi yang saat ini berkembang sangat pesat adalah teknologi yang berupa smartphone terutama yang berbasis android. platform android telah menjadi sangat populer, hal ini dianggap serius oleh pengembang game. game merupakan salah satu media hiburan, namun saat ini game dapat ditujukan sebagai salah satu media pengenalan tradisi budaya bali. game explore bali dirancang untuk mengenalkan tradisi budaya bali pada tujuh kabupaten/kota di provinsi bali. tradisi yang diperkenalkan pada game terdiri dari ngerebong (denpasar), mekotek (badung), okokan (tabanan), makepung (jembrana), ngedeblag (gianyar), megibung, tertekan, gebug ende (karangasem) dan ngocang, bukakak (buleleng) yang disampaikan melalui informasi berupa penjelasan dan gambar. berdasarkan hasil analisis dengan menggunakan kuesioner yang diujikan kepada 30 orang anak untuk sebagian besar sampel. pengetahuan user mengenai tradisi budaya bali bertambah sebanyak 74% dari persentase awal 67% melalui informasi yang ditampilkan pada game explore bali. kata kunci : game, explore, tradisi, budaya bali, dan anak-anak abstract development of information technology is very important for human life, one technology that is currently growing very rapidly in the form of smartphone technology is mainly based on android. the android platform has become very popular, the game developers seriously take it. game is one of the entertainment media, but this time the game can be as one media introduction cultural traditions bali. game explore bali is designed to introduce the bali cultural traditions in seven cities in bali province. traditions introduced in the game consists of ngerebong (denpasar), mekotek (badung), okokan (tabanan), makepung (jembrana), ngedeblag (gianyar), megibung, terteran, gebug ende (karangasem) and ngocang, bukakak (buleleng) through a description and picture information. based on the analysis by using a questionnaire that tested on 30 children for most of the samples. user knowledge about the bali cultural traditions increased by 74% from the initial percentage of 67% through the information displayed on the game explore bali. keyword : game, explore, traditions culture bali, dan children 1. pendahuluan perkembangan teknologi informasi sangat berperan penting bagi kehidupan manusia. manusia mudah mendapatkan informasi dengan bantuan teknologi yang ada. teknologi membawa manusia melihat dunia luar lebih jauh, membuka wawasan berpikir dan membangun sebuah kreativitas untuk membuat hal-hal baru. salah satu teknologi yang saat ini berkembang sangat pesat adalah teknologi yang berupa smartphone terutama yang berbasis android. keberagaman tradisi budaya bangsa indonesia memberikan gambaran betapa pentingnya mengenalkan dan memberikan pemahaman tradisi budaya sejak dini kepada anak-anak mailto:dosenadi@yahoo.com mailto:dwi.rusjayanti@gmail.com lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 163 sehingga norma dan nilai tradisi budaya dapat terwariskan pada generasi selanjutnya. generasi muda diharapkan menjadi generasi yang bangga dengan tradisi budayanya sendiri, mencintai dan melestarikan nilai-nilai luhur tradisi budaya serta bisa mengembangkan sikap menghargai keberagaman tradisi budaya pada masa yang akan datang. game explore bali dirancang sebagai media hiburan sekaligus media pembelajaran dalam memperkenalkan tradisi budaya bali. explore bali dalam bahasa indonesia berarti menjelajahi/mengelilingi bali. istilah explore bali diterapkan pada game terkait tujuan pengembangan game yaitu mengenalkan tradisi dan budaya kepada anak-anak. game explore bali mencakup 10 tradisi budaya bali pada tujuh kabupaten/kota di provinsi bali yang disampaikan melalui informasi berupa penjelasan dan gambar yang dibagi menjadi 10 tantangan. game explore bali nantinya diharapkan dapat memberikan pemahaman dan pengenalan tradisi budaya bali kepada masyarakat khususnya anak-anak. pengenalan tradisi budaya bali melalui media game diharapkan dapat membuat anak-anak lebih antusias dalam mengenali tradisi budaya bali. game explore bali secara garis besar merupakan sebuah game dua dimensi. game ini dirancang dengan tiga permainan yaitu mengumpulkan huruf, puzie dan tanya jawab. genre game explore bali mengarah kepada educational dengan mengenalkan tradisi budaya bali melalui informasi berupa gambar dan penjelasan yang mengacu pada game yang telah ada sebelumnya seperti game edukasi pengenalan kebudayaan indonesia berbasis android [1], rancangan puzzle game delbeldes [2], aplikasi game quiz animals berbasis windows 8 [3], perancangan permainan (game) edukasi belajar membaca pada anak prasekolah berbasis smartphone android[4]. 2. metodologi penelitian aplikasi game explore bali dikembangkan melalui beberapa tahapan penelitian yaitu pengumpulan data, game design, pengujian sistem dan perancangan sistem yang meliputi alur permainan yang digambarkan dalam bentuk flowchart. 2.1. metode pengumpulan data data merupakan informasi awal sebagai penunjang dalam penelitian yang berhubungan dengan perancangan sistem dimana data yang diperoleh berdasarkan sumber data melalui metode pengumpulan data. metode dalam pengumpulan data yang dibutuhkan pada perancangan aplikasi game ini meliputi beberapa metode diantaranya : a. metode observasi yaitu mengumpulkan data dengan melakukan pengamatan dan dokumentasi langsung terhadap hal yang berkaitan dengan pembuatan game berbasis android. b. metode studi literatur yaitu menganalisis data yang diperoleh berdasarkan sumber referensi yang digunakan seperti buku, karya ilmiah serta sumber lain yang berhubungan dengan penelitian dalam memperoleh suatu kesimpulan yang lebih terarah pada pokok pembahasan. sumber data dalam penelitian adalah subyek dari mana data itu diperoleh. sumber data dapat berupa manusia, tempat dan sebagainya. berikut adalah sumber data yang digunakan dalam pembuatan game explore bali yaitu narasumber (informan) dan dokumen atau arsip. 2.2. perancangan sistem aplikasi game explore bali merupakan sebuah aplikasi yang dirancang untuk memberikan informasi tradisi budaya bali setelah pengguna berhasil menyelesaikan permainan puzzle di tiap-tiap kabupaten/kota yang dituju. sebelum sampai di kabupaten/kota yang dituju user terlebih dahulu harus menyelesaikan permainan mengumpulkan huruf yang berkaitan dengan nama tradisi budaya bali di kabupaten/kota yang dituju. permainan tanya jawab tantangan muncul ketika semua tantangan kabupaten/kota berhasil selesaikan. permainan tanya jawab bertujuan mengevaluasi kemampuan user terhadap informasi yang ditampilkan pada game. perancangan alur permainan dari game explore bali terdiri dari 3 buah alur permainan. berikut ini dibahas lebih lengkap mengenai perancangan alur permainan dalam bentuk flowchart. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 164 2.2.1. alur permainan mengumpulkan huruf alur permainan mengumpulkan huruf pada game explore bali dapat dilihat pada gambar 1. gambar 1. alur permainan mengumpulkan huruf user memulai permainan dan mendapat energi 100% dan 3 buah nyawa untuk mengumpulkan huruf yang berkaitan dengan nama tradisi budaya bali pada masing-masing tantangan di kabupaten/kota. user berhasil mengumpulkan satu buah huruf yang benar sesuai dengan urutan maka nilai = 1 dan satu huruf nama tradisi budaya bali mendapatkan input berubah warna dari hitam menjadi kuning untuk selanjutnya mendapatkan huruf benar berikutnya dengan memperhatikan sisa nyawa dan energi, jika salah mengambil item huruf maka nilai = 0 dan nyawa dikurangi 1/2. user dapat kembali mengumpulkan huruf sampai nilai maksimum n terpenuhi ketika nyawa dan energi masih tersisa. permainan berakhir ketika dokar kehabisan nyawa dan energi. nilai maksimum n mengikuti jumlah huruf benar yang harus didapatkan sesuai dengan nama tradisi budaya bali, jika nilai maksimum n terpenuhi maka dilanjutkan ke permainan puzzle. alur permainan puzzle pada game explore bali dapat dilihat pada gambar 2. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 165 gambar 2. alur permainan puzzle user memulai permainan puzzle dengan menyusun satu persatu dari enam potongan gambar sesuai dengan posisi gambar yang benar. dimana satu gambar yang benar disusun memiliki nilai = 1 pada posisi gambar yang benar, jika salah nilai = 0 dan gambar tidak dapat dipasangkan. informasi tradisi budaya bali ditampilkan setalah enam potongan gambar telah tersusun dengan benar. 2.2.3. alur permainan tanya jawab alur permainan tanya jawab pada game explore bali dapat dilihat pada gambar 3. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 166 gambar 3. alur permainan tanya jawab user memulai permainan tanya jawab dengan menjawab satu persatu dari 10 pertanyaan yang ditampilkan secara acak. dimana saat user berhasil menjawab satu pertanyaan dengan benar memiliki nilai = 1, jika salah menjawab pertanyaan nilai = 0. user mendapatkan hasil permainan tanya jawab setelah 10 pertanyaan dijawab oleh user. user dikatakan berhasil jika menjawab 7 sampai 10 pertanyaan dengan benar dan dikatakan gagal jika user hanya menjawab kurang dari 7 pertanyaan yang benar. 3. kajian pustaka beberapa teori penunjang digunakan sebagai dasar acuan dalam pembuatan aplikasi game explore bali. teori penunjang yang disertakan yaitu materi penunjang dan aplikasi pendukung yang digunakan dalam pembuatan aplikasi. 3.1. tradisi budaya tradisi dan budaya memiliki peranan penting sebagai sumber dari akhlak dan budi pekerti. tradisi, yang merupakan sebuah kebiasaan, memberikan sebuah pengaruh yang cukup kuat bagi perilaku kita sehari-hari karena tradisi memiliki lingkup yang sempit dan biasanya berasal dari lingkungan sekitar. selain itu, budaya juga memberikan pengaruh yang cukup kuat bagi lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 167 akhlak dan budi pekerti seseorang. pengaruh ini timbul dari aktivitas seseorang sehari-hari. oleh karena itu, tradisi dan budaya dapat memberikan pengaruh positif maupun negatif bagi akhlak dan budi pekerti manusia[5]. pulau bali memiliki banyak warisan budaya dari leluhur yang masih tertanam dan melekat erat pada kebiasaan dalam kehidupan masyarakat bali dan berbagai tradisi unik yang masih dipegang teguh, dilaksanakan dan terjaga baik di kalangan masyarakat bali. tradisi budaya tersebut memiliki ciri khas tersendiri pada masing-masing daerah, desa maupun banjar yang ada di bali. pulau bali memiliki kekayaan tradisi budaya beragam tentunya menjadi aset wisata bali yang wajib dilestarikan oleh masyarakat bali. bertahannya kebiasaan-kebiasaan unik tersebut adalah karena fungsi desa pekraman yang masih tetap konsisten untuk menerapkan segala aturan adat, tetap menjaga kepercayaan dan keyakinan beragama masyarakatnya, agar tidak terkikis dengan kemajuan zaman dan pengaruh asing. berikut beberapa tradisi budaya bali yaitu ngerebong, megibung, gebug ende, okokan, mekepung, ter-teran, megeret pandan, omed-omedan, mekotek, okokan dan masih banyak lagi tradisi budaya yang ada di pulau bali. tradisi mekotek, ngerebong, megibung, okokan, mekepung, ngedeblag, gebug ende, terteran, ngoncang dan bukakak merupakan tradisi budaya bali yang akan dikenalkan di dalam game explore bali dengan menampilkan informasi dari tradisi budaya bali tersebut. 3.1.1. mekotek tradisi mekotek disebut mekotek lantaran berawal dari suara kayu-kayu yang saling bertabrakan ketika kayu-kayu tersebut disatukan menjadi bentuk gunung yang menyudut ke atas. "mekotek karena timbul dari suara kayu-kayu yang digabung jadi satu, bunyinya tek.. tek.. tek. 3.1.2. ngerebong ngerebong dalam bahasa desa kesiman, denpasar, berarti berkumpul, yakni yang berarti berkumpulnya para dewa. ngerebong merupakan tradisi yang digelar oleh umat hindu di pura pangrebongan. tradisi ini biasanya dilakukan setiap enam bulan dalam penanggalan kalender bali yakni pada hari minggu atau redite pon wuku medangsia. 3.1.3. megibung megibung berasal dari kata gibung yang diberi awalan me-. gibung artinya kegiatan yang dilakukan oleh banyak orang, yakni saling berbagi antara satu orang dengan yang lainnya. megibung merupakan salah satu tradisi warisan leluhur, dimana merupakan tradisi makan bersama dalam satu wadah. selain makan bisa sampai puas tanpa rasa sungkan, megibung penuh nilai kebersamaan, bisa sambil bertukar pikiran, bersenda gurau, bahkan bisa saling mengenal atau lebih mempererat persahabatan antar sesama. 3.1.4. okokan okokan adalah salah suatu alat musik bunyi-bunyian yang pada umumnya terbuat dari bahan kayu yang dilubangi hampir menyerupai kentongan, tetapi di dalamnya diisi pemukul yang disebut palit. okokan umumnya dipasang pada binatang piaraan seperti sapi atau kerbau, yang berfungsi sebagai penghias atau tanda hewan tersebut. okokan dapat mengeluarkan irama tertentu jika diayun-ayunkan. 3.1.5. mekepung mekepung artinya berbalapan (pacuan) cepat-cepatan mengejar sampai penaripan) di sawah yang berisi tanah lumpur. tradisi mekepung mempertontonkan joki/sais yang ingin mengadu kebolehan kerbaunya dalam kekuatan menarik bajak lampit slau yang ditunggangi joki/saisnya. bajak lampit slau yang ditarik oleh dua ekor kerbau dan sebagai alat menghias kerbau maka pada leher kerbau tersebut dikalungi genta gerondongan (gongseng besar). karena apabila kerbau tersebut berjalan menarik bajak lampit slau maka kedengaran bunyi seperti alunan musik (dengan suara gejreng-gejreng). lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 168 3.1.6. ngedeblag tradisi ngedeblag merupakan upacara turun-temurun yang dilakukan setiap kajeng kliwon menjelang sasih kanem. ritual ini berawal dikarenakan pada masa lalu banyak terjadi bencana, seperti : banjir, longsor ataupun berbagai wabah penyakit. maka untuk menghindari warga dari berbagai bencana, dilakukan suatu ritual yang diyakini dapat mencegah bencana, yaitu ngedeblag. ngedeblag wajib diikuti oleh para karma desa khususnya para pemuda dan pemudi. tradisi ini tergolong unik, ratusan warga yang terdiri dari anak-anak, remaja dan dewasa, bergerombol dengan hiasan yang menyeramkan atau penampilan wajah yang dicoretcoret seperti komedian. 3.1.7. gebug ende gebug ende berasal dari kata gebug dan ende. gebug artinya adalah memukul dan alat yang digunakan adalah rotan dengan panjang sekitar 1,5 hingga 2 meter, sedangkan alat untuk menangkisnya disebut dengan ende. ende dibuat dari kulit sapi yang dikeringkan selanjutnya dianyam berbentuk lingkaran. gebud ende hanya dimainkan kaum pria baik dewasa maupun anak-anak. gebug ende biasanya digelar antara oktober dan desember pada saat warga baru saja menanam jagung di pelosok desa seraya, bali. 3.1.8. terteran terteran/perang api berasal dari kata ter yang artinya menembak dan teer berarti memperlihatkan, dan disimpulkan menjadi memperlihatkan kekuatan, sedangkan kaitannya dalam ritual upacara yadnya memperlihatkan kekuatan untuk melebur kejahatan dan malapetaka, dalam pelaksanaan yadnya ini prosesi yang dilakukan dengan saling melempar menggunakan bobok (obor) dari daun kelapa kering, kemudian dibakar dan dilempar ke lawan mereka. 3.1.9. ngoncang rangkaian hari suci nyepi diisi dengan berbagai tradisi unik di berbagai desa di bali. demikian juga di banjar pakraman paketan, singaraja. sehari sebelum nyepi tepatnya pada hari pangerupukan, desa di tengah kota itu menyelenggarakan tradisi mengancang. tradisi ngoncang atau memukul lesung, selain sebagai kegiatan untuk menyambut tahun baru saka dengan senang hati, juga untuk melestarikan kebudayaan agraris atau kebudayaan petani yang kini makin punah seiring maraknya alih fungsi sawah menjadi pemukiman. 3.1.10. bukakak bukakak digelar oleh warga desa sangsit, kec. sawan , kab. buleleng. ritual ini dirayakan sekali setahun bertepatan pada bulan penuh (purnama) sasih kedasa (bulan kesepuluh) pada kalender hindu atau di bulan april pada penanggalan masehi, tujuannya sebagai rasa terima kasih warga kepada dewi kesuburan atas segala anugerah kesuburan yang telah diberikan dan mengharap lagi supaya hasil pertanian berikutnya tambah berlimpah. 3.2. software development corona sdk (software development kit) merupakan aplikasi yang digunakan untuk membuat aplikasi game explore bali pada platform android. corona sdk menggunakan bahasa pemrograman lua[6]. proses coding pembuatan game explore bali menggunakan software notepad++ dengan bahasa pemrograman lua yang kemudian dijalankan pada corona sdk. selain corona sdk dan notepad++ adapun software pengolah gambar lainnya yang digunakan untuk mendukung saat proses pembuatan game explore bali. 4. hasil dan pembahasan aplikasi game explore bali memiliki beberapa tampilan dalam penggunaannya diantaranya splash screen, menu utama, menu pencapaian, informasi tradisi budaya bali, menu tantangan, permainan mengumpulkan huruf, permainan puzzle dan permainan tanya jawab. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 169 4.1. tampilan menu utama menu utama merupakan interface awal yang pertama muncul saat aplikasi dibuka. tampilan menu utama dapat dilihat pada gambar 5. gambar 5. tampilan menu utama gambar 5. merupakan tampilan menu utama dari game explore bali yang menampilkan tiga buah button yaitu : a. button menu play untuk memulai permainan b. button menu pencapaian untuk menampilkan informasi mengenai tradisi budaya bali c. button sound untuk on/off suara game d. button exit untuk keluar dari aplikasi 4.2. tampilan menu pencapaian gambar 6 merupakan scene menu pencapaian yang dapat dilihat melalui button pencapaian pada menu utama game explore bali. gambar 6. tampilan menu pencapaian scene pencapaian menampilkan informasi tradisi budaya bali yang tantangannya berhasil diselesaikan oleh pemain pada setiap kabupaten/kota. a. tampilan informasi tradisi budaya bali gambar 7 merupakan tampilan informasi tradisi budaya bali yang menyatakan tantangan di salah satu kabupaten/kota berhasil diselesaikan. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 170 gambar 7. tampilan informasi tradisi budaya bali informasi tradisi budaya bali yang ditampilkan berbeda-beda di setiap kabupaten/kota, sesuai dengan tradisi budaya bali yang ingin diangkat pada setiap kabupaten/kota. 4.3. tampilan menu tantangan aplikasi game explore bali memiliki 3 jenis permainan yang dapat dimainkan oleh user, user dapat memilih salah satu tantangan di kabupaten/kota untuk diselesaikan tantangannya. tampilan menu tantangan dapat dilihat pada gambar 8. gambar 8. tampilan menu tantangan gambar 8 merupakan tampilan menu main, terdiri dari 6 button untuk menuju ke permainan di kabupaten/kota yang di dalamnya terdapat permainan kecil bali yaitu puzzle. user terlebih dahulu harus menyelesaikan permainan mengumpulkan huruf untuk menuju ke kabupaten/kota tersebut. permainan tanya jawab muncul setelah semua tantangan di semua kabupaten/kota terselesaikan, permainan tanya jawab bertujuan untuk mengevaluasi kemampuan user. a. permainan mengumpulkan huruf permainan mengumpulkan huruf menantang user untuk mengumpulkan huruf-huruf yang membentuk kata berkaitan dengan nama tradisi budaya bali di setiap kabupaten/kota yang dituju. pada permainan mengumpulkan huruf user menuju tiap kabupaten/kota untuk mengetahui 10 informasi tradisi budaya di kabupaten/kota yang terdiri ngerebong (denpasar), mekotek (badung), okokan (tabanan), makepung (jembrana), ngedeblag (gianyar), megibung, terteran, gebug ende (karangasem) dan ngocang, bukakak (buleleng). lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 171 gambar 9. tampilan permainan mengumpulkan huruf gambar 9. merupakan tampilan permainan mengumpulkan huruf, user diharuskan mengumpulkan huruf sesuai dengan tradisi budaya pada kabupaten/kota yang dituju. b. permainan puzzle permainan puzzle menantang user untuk menyusun potongan-potongan gambar menjadi susunan yang benar. gambar yang disusun berkaitan dengan tradisi budaya bali yang dituju pada setiap daerah. informasi mengenai tradisi budaya bali muncul setelah user berhasil menyelesaikan permainan puzzle. gambar 10. tampilan permainan puzzle gambar 10. merupakan tampilan permainan puzzle, potongan gambar puzzle dijaga dan di-drop sampai membentuk pola gambar yang benar. c. permainan tanya jawab permainan tanya jawab muncul setelah tantangan pada 6 kabupaten/kota terselesaikan. pertanyaan pada permainan tanya jawab meliputi tradisi budaya bali di 6 kabupaten/kota. pertanyaan yang diajukan sebanyak 10 soal secara acak/random susunannya, setiap kali dimainkan. gambar 11. tampilan permainan tanya jawab lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 172 gambar 11. merupakan tampilan permainan tanya jawab yaitu memilih jawaban yang benar sesuai dengan pertanyaan yang ditanyakan. c.1. tampilan hasil permainan tanya jawab gambar 10 merupakan tampilan hasil permainan tanya jawab pada permainan game explore bali. gambar 12. tampilan berhasil menyelesaikan permainan tanya jawab gambar 12. menampilkan hasil dari kemampuan pemain yang berhasil dalam menjawab benar dari 7 sampai 10 pertanyaan yang diberikan. gambar 13. tampilan gagal menyelesaikan permainan tanya jawab gambar 1. menampilkan hasil dari kemampuan pemain yang gagal dalam menjawab pertanyaan kurang dari 7 jawaban benar. 4.4. analisa hasil analisa aplikasi game explore bali ini dilakukan dengan menggunakan metode survei untuk pengambilan data, dimana untuk pengambilan data tersebut menggunakan kuesioner. kuesioner diberikan kepada 30 responden yaitu anak-anak yang telah memainkan game explore bali. a. hasil analisa aplikasi hasil analisa aplikasi setelah responden memainkan game explore bali dapat dilihat pada tabel 1. terdapat beberapa aspek kriteria penilaian antara lain aspek grafis game, aspek rekayasa perangkat lunak, aspek entertainment dan aspek content. 5. kesimpulan aplikasi yang dihasilkan terdiri dari tiga buah permainan yaitu mengumpulkan huruf, puzie dan tanya jawab. berdasarkan hasil analisa kuesioner yang telah diujikan kepada 30 orang anak, pengetahuan user mengenai tradisi budaya bali bertambah setelah bermain game explore bali, sebanyak 74% dari persentase awal 67%. pengenalan tradisi budaya bali pada game dilakukan dengan cara menampilkan informasi berupa penjelasan dan gambar mengenai tradisi budaya bali pada permainan. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p04 e-issn 2541-5832 173 20% 67% 9% 15% 48% 27% 27% 0% 38% 5% 13% 6% 0% 0% 50% 13% 57% 10% 24% 74% 0% 10% 20% 30% 40% 50% 60% 70% 80% aspek pengetahuan mengenai tradisi budaya bali aspek grafis game aspek rekayasa perangkat lunak aspek entertaiment aspek content tidak cukup baik baik sangat baik gambar 14. grafik hasil uji coba aplikasi pada anak-anak berdasarkan grafik pada gambar 10 dapat disimpulkan beberapa hal seperti berikut : a. aspek grafis game memiliki rata-rata tertinggi pada jawaban baik sebesar 48%. b. aspek rekayasa perangkat lunak memiliki rata-rata tertinggi pada jawaban cukup baik sebesar 50%. c. aspek entertainment rata-rata tertinggi pada jawaban baik sebesar 57%. d. aspek conteng memiliki rata-rata e. tertinggi pada jawaban baik sebesar 74%, dimana sebelumnya responden banyak memilih cukup baik pada aspek pengetahuan mengenai tradisi budaya bali sebelum memainkan game ini. daftar pustaka [1] a. g. salman, n. chandra, and norman, “game edukasi pengenalan kebudayaan indonesia berbasis android,” comtech, vol. 4, no. 2, pp. 1138– 1154, 2013. [2] e. usada and f. a. muqtadiroh, “rancangan puzzle game delbeldes,” infotel, vol. 3, no. 1, 2011. [3] y. arifin, b. handoko, and v. k. nurtanio, “aplikasi game quiz animals berbasis windows 8,” comtech, vol. 4, no. 2, pp. 757–763, 2013. [4] bursan and fitriyah, “perancangan permainan ( game ) edukasi belajar membaca pada anak prasekolah berbasis smartphone and,” jurnal teknoif, 2015. [5] r. r. maran, manusia dan kebudayaan. jakarta: rineka cipta, 2000. [6] b. g. burton, learning mobile application & game development with corona sdk. texas: abilene, 2013. lontar template lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 123 classification of rice plant diseases using the convolutional neural network method a a je veggy priyangkaa1, i made surya kumarab1 adepartment of information technology, udayana university badung, indonesia 1veggypr@gmail.com (corresponding author) bnetwork learning technology, national central university taoyuan, taiwan 2suryakumara33@gmail.com abstract indonesia is one of the countries with the population majority of farming. the agricultural sector in indonesia is supported by fertile land and a tropical climate. rice is one of the agricultural sectors in indonesia. rice production in indonesia has decreased every year. thus, rice production factors are very significant. rice disease is one of the factors causing the decline in rice production in indonesia. technological developments have made it easier to recognize the types of rice plant diseases. machine learning is one of the technologies used to identify types of rice diseases. the classification system of rice plant disease used the convolutional neural network method. convolutional neural network (cnn) is a machine learning method used in object recognition. this method applies to the vgg19 architecture, which has features to improve results. the image used as training and test data consists of 105 images, divided into training and test images. parameter testing using epoch variations and data augmentation. the research results obtained a test accuracy of 95.24%. keywords: classification, recognition, convolutional network, rice diseases 1. introduction indonesia is known as the third-largest rice producer and consumer in the world [1]. data from the central bureau of statistics show that around 35.7 million indonesians in 2018 are farmers, and some of them live below poverty. activities that can increase rice productivity will affect millions of rice farmers in indonesia. it estimates that farmers lose 37% of their rice production annually due to rice pests and diseases [2]. knowledge of pests and diseases of rice plants is very significant in increasing farmers’ income. thus, it is necessary to develop a system to recognize and classify rice plant diseases, and hence it can help indonesian rice farmers. recognition and classification of rice plant diseases require an accurate system to produce classification data. types of rice diseases can be identified in several ways, one of which is leaf characteristics. the first research is identification using convolutional neural network (cnn). it consists of different layers which use for identification. the data used is ai crowd with ten leaf diseases, including apple black spot, broadleaf spot, apple needle leaf spot, normal apple, normal bell paper, normal blueberry, normal cherry, normal cherry powder, corn blight, and corn rust. the result is a python-based system with an accuracy of about 78% [3]. the second research is the detection and classification of plant diseases that consists of four main phases. the first phase uses the k-means clustering method. further, the second phase is masking object area and background. the third phase involves feature extraction by applying the color co-occurrence method (ccm). last, the fourth phase is leaf disease detection using neural network. the neural network process is the creation of a training and testing process. five types of plants with various diseases and healthy leafy plants use in the classification process. this lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 124 classification applies rgb image data set. this classification uses the neural network classifier, which achieves a precision between 83% and 94% active [4]. based on the problems above, this research designs an application to classify rice diseases based on leaf color and texture and uses the convolutional neural network method. the use of several methods to improve the classification result accuracy is a fundamental difference between this research and previous studies. on the other hand, the similarity lies in the speed of rice diseases identification. the programming language used is python with vgg19 pre-trained architecture, which is trained for imagenet. the usage of large numbers of images and computers with high computing to use cnn using pre-trained models with specific data [5]. this rice disease classification system can classify rice plant diseases accurately. 2. research methods this research used a dataset of rice diseases obtained from research data of upt bptph bali province and https://irri.org. the study consisted of four phases, namely phases of data collection, data processing, data training, and testing. the data collection phase is the phase of collecting the data needed in this research. the data processing phase was the data adjustment phase from the dataset obtained for use in the data training phase. this research used seven classes of rice disease with 15 images. the image size of each class was 200 x 200 pixels in rgb format. training data and test data types were in *.jpeg format. the disease types used for the identification process were bacterial leaf streak, brown spots, narrow brown spots, blast, bacterial leaf streak, fake burns, and healthy rice leaves. the age of rice plants used in the vegetative and generative phases (45-85 days). the disease image used was on the leaves and seeds (grain). figure 1. image of rice plant disease the data training phase was for the object detection model with the vgg-19 convolutional neural network architecture using prepared training data in the previous stage. this research made four scenarios to determine the effect of the training data used in each class. the testing phase was the phase to test the performance of each model that has been trained and evaluate the test results. evaluation of test results was carried out by comparing the results obtained with related previous studies. this research used seven classes of rice plant diseases, and each of them had a total of 15 images. the image was divided into four parts for training and used as a test image. this experiment expected to know how much influence the number of images used in the training process had on the resulting accuracy. 2.1. convolutional neural network nowadays, artificial intelligence is almost applied in all daily life aspects because it can solve complex problems, such as those mentioned in ai [6]. the popularity of machine learning is increasing following the popularity of artificial neural networks (ann) [7]. convolutional neural network (cnn) is a deep learning algorithm that is popular in image processing. generally, it uses to perform object recognition in images. the model used in rice disease classification relies on the convolutional network (cnn). cnn processes image data, which will build by the network using information from the executed process [8]. cnn can apply to image and text classification [9]. after design the cnn architecture, the next phase is the training process. transfer learning (tl) is the reuse of models that have been carried out previously and with different images [10]. a cnn consists of several layers. based on the lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 125 vgg19 architecture, there are four main layers in cnn. however, this research only applied three layers. cnn layer can consist of three types; convolutional layer, pooling layer, and fully connected layer[11]. the convolution layer is the first layer of cnn that performs convolution on the output of layers. furthermore, image processing that used to image the entire potential balance. subsampling is an activity to reduce the size of the image. in image processing, it is used to repair the position invariance of features. max pooling is a subsampling method applied to cnn. this method separates the results of the convolution layer into small parts. thus, it is easy to substitute with a convolutional layer using equivalent steps to the pooling layer [12]. a fully connected layer is a layer where all activation neurons from the previous layer connect to the following layer neurons [13]. the operation at this layer is the same as the convolution operation, which is to perform a linear combination filter operation on the local area. each activates certain features of the input image [14]. a journal by lin et al. explains that a convolution layer with a kernel size of 1 x 1 performs the same function as a fully connected layer but retains the spatial character of the data. it makes use of the fully connected layer on cnn does not widely used now. [15]. figure 2. vgg19 architecture visual geometry group (vggnet) is deep learning used for digital processing. vgg19 compresses five convolutional layers before being combined in a multilayer perceptron (mlp). the last layer includes nodes that directly contain the number of classified classes (for some classes) or a sigmoid activation function (for classes that do not more than or equal to two) [16]. 2.2. data augmentation during the research process, the dataset is the most important thing [17]. if the dataset provided in the training process is very small, then the accuracy of the results from the neural network model will be less good than the neural network model with more datasets [18]. data augmentation is needed to solve this problem. thus, it is essential to provide more variety from the current data set. the results of data augmentation on the image have various images. thus, the image characteristics are better during the training process [19]. manual data augmentation can improve the classification results. in this research, the classification process at the training phase applies data augmentation to produce a more varied image [20]. the augmentation methods used are sheer range, zoom range and rotation range, and horizontal flip. figure 3 is the output of the data augmentation process that has been carried out. the data training process by applying cnn takes place after the augmentation process. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 126 figure 3. data augmentation 3. result and discussion the experiments carried out in this research used four experimental scenarios based on variations in the amount of data used and data augmentation. the image data used in this experiment is in rgb form. all images do only resized in size 200x200 pixels for cnn needs, so it does not apply image processing. in this research, each disease class contains 15 images. the image used for the training process must have high accuracy in testing to determine the effect of the image. test scenarios use different numbers of images in data training and data testing. each data used in the training and testing steps is different. the cnn pre-trained model used in this research is the vgg19 model. the experimental scenario presents in table 1. table 1. research scenario the analysis carries out according to the various parameters of the test data and test data on the training model. the variation used in the data sample consists of 3, 6, 9, and 12 data. variations of data augmentation used are zoom range, sheer range, horizontal flip, and rotation range, with epochs for each training consisting of 50, 100, and 150 epochs. this scenario uses 70% data for training data and 30% for validation. the results of the first experiment conducted in this research are present in figure 4. figure 4. accuracy of the first scenario the first experiment uses three training data and 12 test data. the test chart uses data augmentation of the zoom range and 150 epochs, and it obtains an accuracy of 73.81% in the test results. the second test chart uses zoom range, sheer range, and 150 epochs which obtains an accuracy level of 70.24%. furthermore, it uses data augmentation of the zoom range, shear 68.00% 69.00% 70.00% 71.00% 72.00% 73.00% 74.00% 75.00% 1 2 3 4 no total training data total testing data 1 3 12 2 6 9 3 4 9 12 6 3 lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 127 range, horizontal flip, and 100 epochs on the chart, and it obtains an accuracy level of 71.43%. last, the fourth test chart uses data augmentation of the zoom range, shear range, horizontal flip, rotation range, and 150 epochs, and it obtains an accuracy level of 71.43% in the test results. figure 5. accuracy of the second scenario the second experiment uses six training data and nine test data. the first chart of the test steps uses data augmentation of the zoom range and 150 epoch which obtains an accuracy level of 77.78%. the second chart of the test uses data augmentation the zoom range, shear range, and 50 epochs, and it obtains an accuracy level of 76.19%. data augmentation used in the third graph test consists of the zoom range, shear range, horizontal flip, and 100 epochs, obtains an accuracy rate of 82.54%. data augmentation consists of the zoom range, shear range, horizontal flip, rotation range, and 150 epochs used in the fourth chart of the test. the test results obtained an accuracy rate of 76.19%. figure 6. accuracy of the third scenario the third experiment uses nine training data and six test data. the first test chart uses data augmentation of the zoom range and 150 epochs, which obtains an accuracy rate of 80.95%. the data augmentation used in the second chart of the test is the zoom range, shear range, and 150 epochs, and it obtains an accuracy rate of 80.95%. data augmentation of the zoom range, shear range, horizontal flip, and 100 epochs used in the third chart of the test obtains an accuracy rate of 80.95%. data augmentation used in the fourth graph consists of the zoom range, shear range, horizontal flip, rotation range, and 150 epochs which obtained an accuracy rate of 78.57%. figure 7. accuracy of the fourth scenario the fourth experiment uses 12 training data and three test data. the first test step chart uses data augmentation consisting of the zoom range and 100 epochs which obtain an accuracy rate 70.00% 75.00% 80.00% 85.00% 1 2 3 4 77.00% 78.00% 79.00% 80.00% 81.00% 82.00% 1 2 3 4 80.00% 85.00% 90.00% 95.00% 100.00% 1 2 3 4 lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 128 of 90.48%. the second chart of the test uses data augmentation consisting of the zoom range, shear range, and 150 epochs which obtains an accuracy rate of 95.24%. the third graph testing phase uses data augmentation of the zoom range, shear range, horizontal flip, and 100 epochs which obtains an accuracy rate of 90.48%. the fourth graph testing phase uses data augmentation consisting of the zoom range, shear range, horizontal flip, rotation range, and 150 epochs obtained an accuracy rate of 85.71%. the maximum result from using this dataset is achieved in the fourth scenario that uses 12 training data and three test data. this research can develop using more datasets and various categories of rice diseases. the best four graphs in each scenario show that the amount of training data affects the test accuracy. the scenario using 12 training data obtains the best accuracy shows that the convolutional neural network method requires many training images to get better results in the testing step. on the other hand, the three training data images used in the testing process have the worst performance in the trained model. we suspect that the amount of training data is not compatible with the test dataset because the convolutional neural network requires large data manual labeled data for the training process. 4. conclusion the fourth scenario model was carried out on rice disease with an accuracy of 95.24% using 100 epochs and using data augmentation of the zoom range and shear range. classification of rice diseases using the cnn method in two phases: the training and testing process. in this research, each class used 15 disease image data for the training and testing process. before processing the training data, the training image processing is carried out by doing data augmentation to add images from each class to increase the accuracy obtained. the training data will be stored and then used for the testing data process. references [1] b. p. statistik, “persentase penduduk miskin 2017,” 2017. [2] o. russakovsky et al., “imagenet large scale visual recognition challenge,” international journal computer vision., vol. 115, no. 3, pp. 211–252, 2015, doi: 10.1007/s11263-0150816-y. [3] mushtaq adnan, karol ali, and g. drushti, “plant disease detection using cnn & remedy,” pp. 622–626, 2019, doi: 10.15662/ijareeie.2019.0803014. [4] h. b. prajapati, j. p. shah, and v. k. dabhi, “detection and classification of rice plant diseases,” intelligent decision technology., vol. 11, no. 3, pp. 357–373, 2017, doi: 10.3233/idt-170301. [5] m. mehdipour ghazi, b. yanikoglu, and e. aptoula, “plant identification using deep neural networks via optimization of transfer learning parameters,” neurocomputing, vol. 235, no. august 2016, pp. 228–235, 2017, doi: 10.1016/j.neucom.2017.01.018. [6] r. kamble and d. shah, “applications of artificial intelligence in human life,” international journal research -granthaalayah, vol. 6, no. 6, pp. 178–188, 2018, doi: 10.29121/granthaalayah.v6.i6.2018.1363. [7] y. adiwinata, a. sasaoka, i. p. agung bayupati, and o. sudana, “fish species recognition with faster r-cnn inception-v2 using qut fish dataset,” lontar komputer : jurnal ilmiah teknolologi informasi., vol. 11, no. 3, p. 144, 2020, doi: 10.24843/lkjiti.2020.v11.i03.p03. [8] s. sakib, ahmed, a. jawad, j. kabir, and h. ahmed, “an overview of convolutional neural network: its architecture and applications,” researchgate, no. november, 2018, doi: 10.20944/preprints201811.0546.v1. [9] i. m. mika parwita and d. siahaan, “classification of mobile application reviews using word embedding and convolutional neural network,” lontar kompututer : jurnal ilmiah teknologi informasi., vol. 10, no. 1, p. 1, 2019, doi: 10.24843/lkjiti.2019.v10.i01.p01. [10] s. k. g. manikonda and d. n. gaonkar, “a novel islanding detection method based on transfer learning technique using vgg16 network,” 1st ieee international conference sustainable energy technologies and system. icsets 2019, vol. 6, pp. 109–114, 2019, doi: 10.1109/icsets.2019.8744778. [11] c. g. pachón-suescún, j. o. pinzón-arenas, and r. jiménez-moreno, “detection of scratches on cars by means of cnn and r-cnn,” international journal advanced science, engineering and information technology., vol. 9, no. 3, pp. 745–752, 2019, doi: lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 129 10.18517/ijaseit.9.3.6470. [12] s. arivazhagan and s. v. ligi, “mango leaf diseases identification using convolutional neural network,” international journal of pure and applied mathematics., vol. 120, no. 6, pp. 11067–11079, 2018. [13] d. jaswal, s. v, and k. p. soman, “image classification using convolutional neural networks,” international journal of scientific and engineering research., vol. 5, no. 6, pp. 1661–1668, 2014, doi: 10.14299/ijser.2014.06.002. [14] m. sayed and f. baker, “thermal face authentication with convolutional neural network,” journal of computer science., vol. 14, no. 12, pp. 1627–1637, 2018, doi: 10.3844/jcssp.2018.1627.1637. [15] k. he, x. zhang, s. ren, and j. sun, “deep residual learning for image recognition,” proceedings ieee computer society conference on computer vision pattern recognition., vol. 2016-decem, pp. 770–778, 2016, doi: 10.1109/cvpr.2016.90. [16] m. a. h. abas, n. ismail, a. i. m. yassin, and m. n. taib, “vgg16 for plant image classification with transfer learning and data augmentation,” international journal of engineering and technology (uae)., vol. 7, no. 4, pp. 90–94, 2018, doi: 10.14419/ijet.v7i4.11.20781. [17] k. k. lai, “an integrated data preparation scheme for neural network data analysis,” ieee transactions on knowledge and data engineering., vol. 18, no. 2, pp. 217–230, 2006, doi: 10.1109/tkde.2006.22. [18] c. shorten and t. m. khoshgoftaar, “a survey on image data augmentation for deep learning,” journal of big data, vol. 6, no. 1, 2019, doi: 10.1186/s40537-019-0197-0. [19] a. mikołajczyk and m. grochowski, “data augmentation for improving deep learning in image classification problem,” 2018 international interdisciplinary phd workshop iiphdw 2018, no. may, pp. 117–122, 2018, doi: 10.1109/iiphdw.2018.8388338. [20] a. p. parente, m. b. de souza, a. valdman, and r. o. mattos folly, “data augmentation applied to machine learning-based monitoring of a pulp and paper process,” processes, vol. 7, no. 12, 2019, doi: 10.3390/pr7120958. lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 443 peningkatan kinerja sistem multi agen dengan optimalisasi alokasi beban (studi kasus enkripsi data dengan algoritma aes) muhammad rizka1, waskitho wibisono2, tohari ahmad3 fakultas teknologi informasi, jurusan teknik informatika, institute teknologi sepuluh nopember e-mail: muhammad.rizka910@gmail.com abstrak sistem multi agen merupakan sekumpulan agen yang saling berinteraksi dan berkomunikasi untuk melaksanakan suatu tujuan tertentu. dalam mewujudkan sistem multi agen yang skalabel dan efisien maka agen-agen dalam sistem multi agen harus dapat bersifat autonomous, proactive dan flexible terhadap lingkungan dalam keadaan tertentu. dalam menangani job yang didistribusikan oleh sistem ke setiap agen dapat saja terjadi ketidakseimbangan workload diantara agen-agen. load balancing merupakan salah satu solusi ketika ketidakseimbangan workload terjadi dalam sistem multi agen. sistem multi agen yang penulis usulkan yaitu menerapkan load balancing dalam pengalokasikan workload ke setiap agen secara dinamis. sistem multi agen yang dibangun terdiri dari agent worker yang bertugas dalam melakukan eksekusi job dan agent monitor yang bertanggung jawab dalam mengawasi kondisi agent worker dan mengalokasikan job kesetiap agent worker. load balancing system dilakukan dengan pertimbangan tiga parameter yaitu kondisi load agent worker, antrian job dan resource komputasi komputer dimana agen-agen tersebut berada. studi kasus yang diterapkan pada penelitian ini adalah enkripsi data dengan algoritma aes (advanced encryption standard). hasil pengujian menunjukkan bahwa metode usulan dapat meningkatkan kinerja sistem multi agen dalam melakukan proses enkripsi job hingga mencapai 30,99 % dibandingkan dengan distribusi uniform (du). kata kunci: sistem multi agen, alokasi beban, komunikasi agen, enkripsi data, aes (advanced encryption standard) abstract multi-agent system is a set of agents that interact and communicate with each other to accomplish a particular purpose. in a multi-agent system mewujutkan scalable and efficient the agents in multi-agent systems must be able to be autonomous, proactive and flexible to the environment in certain circumstances. in dealing with jobs that are distributed by the system to each agent may be an imbalance of workload among agents. load balancing is one of the solutions when the workload imbalance occurs in multi-agent systems. multi-agent system that the authors propose that implement load balancing in the workload allocation to each agent dynamically. multi-agent system that is built consisting of worker agent in charge of doing the job execution and monitoring agent are responsible for monitoring the condition of workers and allocate job agent kesetiap worker agent. load balancing system is done with consideration of three parameters, namely the condition of load agent worker, job queuing and computer computing resource where agents are located. the case studies were applied in this research is the data encryption algorithm aes (advanced encryption standard). the results show that the proposed method can improve the performance of multi-agent system in the process of encryption jobs up to 30.99% compared with the uniform distribution (du). keywords: multi agent system, weight allocation, agent of communication, data encrypt, aes (advanced encryption standard) lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 444 1. pendahuluan perkembangan teknologi sistem komputasi ubiquitous yang terus meningkat pesat membutuhkan sebuah kolaborasi efisiensi yang adaptif terhadap suatu aplikasi yang berjalan pada jaringan homogenous maupun heterogenous. sebuah sistem efisiensi yang dapat menyediakan kostumisasi terhadap suatu perubahan lingkungan. sistem multi agen merupakan sebuah teknologi yang didesain untuk memenuhi kebutuhan tersebut. sistem multi agen merupakan sebuah paradigma dalam hal membangun suatu sistem dengan kompleksitas tinggiyang berbasis distributed, knowledge, computing dan adaptif. sistem multi agen terdiri dari sekumpulan intelligent agent dan resource yang saling berinteraksi untuk mencapai suatu tujuan tertentu. agen merupakan entitas autonomous yang dapat bertindak proactive dan flexible terhadap suatu lingkungan dalam keadaan tertentu [1]. dalam pendistribusian job dapat saja terjadi ketidakseimbangan workload diantara agen. dalam menangani masalah ketidak seimbangan sistem ada dua penelitian yang terkait yaitu yang dilakukan oleh shin [2]. metode load balancing yang diusulkan pada saat agen mengalami overload sehingga agen tersebut harus dipindahkan ke komputer lain untuk mengurangi workload. dengan hanya melakukan migrasi agen dari suatu komputer ke komputer lain masih memungkinkan terjadinya overload karena adanya penambahan agen dan task pada komputer tujuan sehingga dapat mengakibatkan terjadi proses reload balancing pada sistem yang pada akhirnya akan membuat sistem mengalami overload dan menjadi lambat. penelitian lain mengenai load balancing yaitu yang dilakukan oleh lee [3] yaitu mengalokasikan resource komputasi berdasarkan kebutuhan komputasi agen. metode load balancing yang diusulkan membutuhkan waktu presprocessing yang lama karena harus mengestimasi terlebih dahulu waktu penyelesaian job. metode yang penulis usulkan yaitu sebuah skema load balancing dimana sistem melakukan alokasi job keseluruh agent worker pada setiap komputer secara dinamis. sistem multi agen terdiri dari agent monitor dan agent worker. agent worker bertugas sebagai pekerja yang melakukan proses eksekusi job. agent monitor bertanggung jawab dalam mengawasi kondisi load agent worker. load balancing pengalokasian job ditentukan berdasarkan pertimbangan kondisi load agent worker, antrian job dan resource komputasi komputer dimana agent worker berada. dalam penelitian ini sistem multi agen diaplikasikan pada studi kasus enkripsi data dengan menggunakan algoritma aes (advanced encryption standard). 2. metodologi penelitian pada penelitian ini diusulkan sebuah mekanisme load balancing dengan mempertimbangkan kondisi load agen, antrian job dan daya komputasi komputer. dalam penerapannya ada dua jenis agen yang diimplementasikan yaitu agent monitor dan agent worker. agent worker yang bertugas dalam melakukan proses enkripsi data sedangkan agent monitor bertanggung jawab dalam memonitoring agent worker pada setiap komputer dan selanjutnya mengalokasikan sejumlah job ke agent worker. agent monitor akan melakukan pengecekan secara periodik mengenai kondisi agent worker yang sedang melakukan eksekusi job selanjutnya kondisi tersebut akan dipertimbankan pada proses load control untuk menentukan alokasi job untuk setiap agent worker. 2.1 kondisi agent worker dalam menperkirakan kondisi agent worker, agent monitor akan mengirimkan sebuah pesan acl secara periodik ke setiap agent worker yang berada pada setiap komputer. agent monitor akan segera mencatat waktu forwarding f(t) pesan dari agent monitor ke agent worker dan waktu receiving r(t) yaitu pesan balasan dari agent worker. agent monitor akan mengkalkulasi nilai round trip time (rtt) pesan berdasarkan persamaan 1 berikut ini: rtt=receiving time r(t) – forwarding time f(t) (1) lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 445 nilai round trip time (rtt) dari setiap agent worker digunakan untuk menentukan kondisi agent worker. nilai rtt yang didapatkan oleh agent monitor akan mendeskripsikan kondisi load agent worker yang juga merupakan kondisi penggunaaan daya komputasi oleh agent worker saat melakukan proses enkripsi job. proses deteksi kondisi load agent worker dapat dilihat pada gambar 1. gambar 1. proses deteksi kondisi load agent worker 2.2 antrian job dalam menperkirakan antrian job pada agent worker, agent monitor akan mengirimkan sebuah pesan acl (agent communication language) secara periodik ke setiap agent worker yang berada pada setiap komputer. pesan acl akan dikirimkan ke seluruh agent worker dalam rentang waktu lima detik. agent worker akan mencatat secara real time antrian job yang sedang terjadi. pada saat agent worker menerima pesan dari agent monitor maka jumlah antrian job yang sedang terjadi pada saat itu akan dimasukkan kedalam pesan acl dan selanjutnya pesan tersebut dikirimkan agent monitor. agent monitor akan menerima pesan acl dari setiap agent worker yang berisi jumlah antrian job yang sedang terjadi pada masing-masing agent worker. dalam penelitian ini antrian job yang terjadi pada agent worker diklasifikasikan kedalam tiga kelompok yaitu: rendah, sedang, dan padat. 2.3 daya komputasi komputer dalam sebuah sistem multi agen dapat terdiri dari beberapa agent worker yang melakukan proses eksekusi job. mekanisme alokasi jumlah job untuk setiap agent worker yaitu berdasarkan daya komputasi pada suatu komputer dimana agent worker berada. parameter pertimbangan pengalokasian job berdasarkan daya komputasi komputer dengan cara menentukan tingkat komputasi komputer berdasarkan nilai million instruction per second (mips). tingkat komputasi setiap komputer dimana agent worker berada dapat ditunjukkan pada tabel 1 berikut: komputer 2 komputer 1 komputer 3 lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 446 sangat cepat cepat sedang lamba t d e ra ja t k e a n g g o ta a n 1 0 13 160 0 5700 7700 waktu (millisecond) (ms) sedang cepat 0,5 lambat d e ra ja t k e a n g g o ta a n 1 0 569 685 2801 daya komputasi (mips) tabel 1. tingkat komputasi komputer dimana agent worker berada 2.4 metode fuzzy logic. metode fuzzy logic yang digunakan dalam penelitian ini adalah fuzzy logic model sugeno. dalam penelitian ini ada tiga parameter yang dijadikan inputan fuzzy logic, yaitu. a. nilai rtt memiliki empat kategori yaitu, sangat cepat, cepat, sedang dan lambat. gambar 2. grafik membership nilai rtt b. daya komputasi komputer memiliki tiga tingkatan yaitu cepat, sedang, lambat. gambar 3. grafik membership daya komputasi c. antrian job memiliki tiga kategori yaitu rendah, sedang dan padat. agent agent 3 (komputer 3) agent 2 (komputer 2) agent 1 (komputer 1) mips 569 685 2801 tingkat komputasi lambat sedang cepat lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 447 padat sedang 0,5 rendah d e ra ja t k e a n g g o ta a n 1 0 9 27 54 jumlah antrian (job) gambar 4. grafik membership antrian job 2.6 skema usulan dalam membangun sistem multi agen yang seimbang (balance) peneliti mengusulkan load balancing terhadap workload agent worker dalam sistem multi agen. skema usulan sistem multi agen dapat dilihat pada gambar 5 berikut ini. pemecah 1 file blok data store load control 5 scheduler 6 information checking 3 sebuah file 500 blok data acl message processing 4 agent monitor encryption job 7 encrypted job agent worker antrian blok data kirim acl message balas acl message nilai rtt hasil enkripsi job blok data alokasi job 2 cpu speed antrian job gambar 5. alur sistem lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 448 sistem load balancing yang diusulkan terdiri dari tujuh proses utama yaitu proses pemecahan sebuah file menjadi sekumpulan blok data, proses blok data store, proses information checking, proses acl message, proses load control, proses scheduler, dan proses enkripsi blok data. 3. sistem multi agen sistem multi agen merupakan teknologi yang telah banyak diterapkan diberbagai bidang diantaranya komputasi ubiquitous, distributed simulation, sistem komunikasi mobile, game dan masih banyak lagi. pada umumnya bidang tersebut memiliki karakteristik yang kompleks dan memiliki behaviour yang tidak dapat diprediksi sehingga agen-agen dalam sistem didesain untuk saling berinteraksi dan juga berkolaborasi dalam menyelesaikan suatu task yang diberikan. distributed simulation yang dibangun berdasarkan sistem multi agen dapat menghasilkan sebuah sistem yang sangat efektif karena sistem multi agen dapat memenuhi kebutuhan terkait skalabilitas dan otonom. sejumlah peneliti telah membuktikan bahwa sistem multi agen dapat menyediakan suatu model yang dinamis terhadap penelitian dibidang biologi, sosial, sistem ekonomi, logistik militer dan lain-lain. penelitian tersebut membutuhkan desain model yang spesifik dan sering kali tidak dapat ditangani dengan metode simulasi tradisional. 3.1 load balancing load balancing merupakan sebuah mekanisme untuk menyeimbangkan load diantara agen. load balancing diperlukan ketika hanya beberapa agen dalam suatu komputer mengalami overloaded sedangkan agen lainya dalam keadaan idle atau sekumpulan agen hanya terkonsentrasi dalam suatu komputer sehingga komputer tersebut mengalami overload. load balancing sangat penting dalam pendistribusian job diantara agen dalam sistem. dalam penerapannya load balancing dibedakan kedalam dua kelompok yaitu static load balancing dan dynamic load balancing. dalam static load balancing keputusan migrasi agen dibuat secara statis atau probabilistik dengan pertimbangan status sistem [4]. static load balancing sangat efektif dan sederhana ketika suatu load bersifat statis akan tetapi ketika load bersifat fluktuatif maka sistem akan mengalami ketidakefisienan dan under utilisasi. dynamic load balancing merupakan sebuah metode dalam menyeimbangkan load diantara agen sesegera mungkin ketika kondisi load berubah. 3.2 agent platform agent platform merupakan teknologi arsitektur yang menyediakan environment bagi agen dalam melaksanakan operasi untuk menyelesaikan suatu task tertentu. sistem multi agen diterapkan di atas agent platform untuk mewujudkan sistem yang aman, efisien dan autonomous [5]. dalam membangun sebuah sistem multi agen ada beberapa agent platform yang tersedia diantaranya adalah jade. jade merupakan suatu agent platform yang menyediakan fasilitas middleware untuk pengembangan sistem multi agen [6]. jade dibangun berdasarkan pemrograman java. jade memiliki tampilan grafis yang memudahkan dalam proses administrasi dan monitoring agenagen seperti yang terlihat pada gambar 6 berikut ini: lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 449 gambar 6. grafical user interface jade jade menyediakan fungsi yang siap untuk digunakan dan mudah untuk dikostumisasi. agent platform jade menyediakan beberapa desain dasar [7] dalam membangun sistem multi agen, yaitu. a. jade mendukung penuh jaringan tersebar. jade dapat dijalankan pada jaringan komputer. b. jade mendukung penuh standarisasi fipa-compliant dalam melakukan interaksi diantara agen. c. jade mendukung mobilitas agen d. mengimplementasikan white pages and yellow pages dalam menyediakan layanan agen. e. manajemen agen yang simple dan efektif serta tampilan berbasis grafis. 3.3 metode fuzzy logic metode fuzzy logic merupakan metode yang mempunyai kemampuan untuk memproses variabel yang bersifat kabur atau yang tidak dapat dideskripsikan secara eksak/pasti seperti misalnya tinggi, lambat, bising, dan lain-lain. dalam fuzzy logic variabel yang bersifat kabur tersebut direpresentasikan sebagai sebuah himpunan yang anggotanya adalah suatu nilai crisp dan derajat keanggotaannya (membership function) dalam himpunan tersebut [8]. model fuzzy logic yang digunakan dalam penelitian ini adalah fuzzy logic dengan model sugeno. fuzzy logic dengan model sugeno pertama kali dikemukakan michio sugeno pada tahun 1985. model sugeno termasuk kategori model linguistik karena menggunakan logika matematika dengan premis dan consequent [9]. michio sugeno mengusulkan penggunaan singleton sebagai fungsi keanggotaan dari konsekuen. singleton adalah sebuah himpunan fuzzy dengan fungsi keanggotaan yang pada titik tertentu mempunyai sebuah nilai dan 0 di luar titik tersebut. pada model sugeno hasil keluaran (consequent) yang didapatkan dari sistem berupa konstanta atau persamaan linear. 3.4 enkripsi blok data dengan aes algoritma aes adalah blok chipper text simetrik yang dapat mengenkripsi (encipher) dan dekripsi (decipher) informasi data. aes menggunakan sistem permutasi dan substitusi (p-box dan s-box). aes memiliki ukuran block data yang tetap yaitu 128 bit dan beberapa ukuran blok kunci yaitu mulai dari 128, 192, dan 256 bit [10]. penggunaan algoritma aes dikelompokkan kedalam tiga tingkatan yaitu berdasarkan panjang kunci yang digunakan untuk mengenkrip dan mendekrip data pada ukuran blok 128 bits. lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 450 enkripsi blok data dengan panjang key 128 bit memiliki sepuluh round untuk setiap proses enkripsi. setiap masukan 128 bit plaintext dimasukkan kedalam state yang berbentuk bujur sangkar berukuran 4×4 byte. state ini di-xor dengan key dan selanjutnya diolah sepuluh putaran dengan subtitusi-transformasi linear-addkey sehingga menghasilkan ciphertext. pada penelitian ini digunakan algoritma aes dengan mode operasi ecb (electronic code book). pada mode operasi ecb setiap blok plaintext dienkripsi secara individual dan independen untuk menjadi blok ciphertext [11]. dalam penerapan mode operasi ecb untuk memotong plaintext menjadi sejumlah blok dengan ukuran yang telah ditetapkan memungkinkan terjadinya panjang plaintext tidak habis dibagi dengan panjang ukuran blok. hal tersebut mengakibatkan blok terakhir berukuran lebih pendek daripada blok-blok lainnya. salah-satu cara untuk mengatasinya yaitu dengan padding. padding adalah menambahkan blok terakhir dengan pola bit yang teratur agar panjangnnya sama dengan ukuran blok yang ditetapkan [12]. 4. hasil dan pembahasan tujuan uji coba dalam penelitian ini adalah untuk membandingkan dan mengamati kinerja load balancing dengan pertimbangan tiga parameter yaitu kondisi workload agen, antrian job dan daya komputasi komputer dimana agen tersebut berada. seluruh hasil pengujian didapatkan dengan cara mengolah data yang di hasilkan dari proses percobaan yang dilakukan pada lingkungan sistem multi agen. data tersebut kemudian di olah menjadi bentuk tabel dan disajikan dalam bentuk grafik untuk memudahkan dalam proses analisis. 4.1 skenario pengujian tujuan dari pengujian sistem adalah untuk mengevaluasi kemampuan dari sistem yang dibangun. pengujian dilakukan untuk mengetahui kinerja load balancing system saat kondisi agen berubah. dalam pengujian ini dilakukan dua skenario pendistribusian job yaitu pendistribusian job secara statis dengan distribusi uniform (du) dan pendistribusian job secara dinamis dengan distribusi dinamis berbasis alokasi beban (ddbab). pendistribusian blok data secara dinamis (ddbab) dengan menggunakan pertimbangan round trip time (rtt), antrian job dan daya komputasi komputer sesuai dengan metode yang diusulkan. parameter yang diuji dari kedua skenario tersebut adalah waktu rata-rata (actual completion time) act. skenario yang dilakukan pada penelitian ini adalah setiap komputer pekerja hanya memiliki satu agent worker. setiap agent worker akan dialokasikan 500 job. pengujian dilakukan dengan lima tahapan yaitu: tahap pertama sistem diuji dengan 500 job dengan ukuran setiap job 100 kb, tahap kedua sistem diuji dengan 500 job dengan ukuran setiap job 250 kb, tahap ketiga sistem diuji dengan 500 job dengan ukuran setiap job 500 kb, pada tahap keempat sistem diuji dengan 500 job dengan ukuran setiap job 750 kb, pada tahap kelima sistem diuji dengan 500 job dengan ukuran setiap job 1000 kb. 4.2 analisis hasil pada hasil yang diamati adalah waktu rata-rata penyelesaian suatu job oleh setiap agent worker dari setiap komputer. pada bagian ini ditampilkan hasil pengujian pada skenario dengan jumlah job 500 dan job yang memiliki ukuran mulai dari 100 kb sampai 1000 kb lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 451 gambar 7. grafik waktu rata-rata act untuk skenario pertama pada gambar 7 dapat dilihat pada skenario dengan ukuran job 100 kb pada rentang job id 001-100 dan 101-200 terjadi perbedaan nilai act yang jelas diantara kedua metode pengujian. metode ddbab memiliki nilai rata-rata act lebih rendah dari metode du. gambar 8. grafik waktu rata-rata act untuk skenario kedua pada gambar 8 dapat dilihat bahwa skenario dengan ukuran job 250 kb pada semua rentang job id. metode distribusi dinamis berbasis alokai beban (ddbab) memiliki nilai rata-rata act lebih rendah dari metode du lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 452 gambar 9. grafik waktu rata-rata act untuk skenario ketiga pada gambar 9 dapat dilihat bahwa skenario dengan ukuran job 500 kb pada semua rentang job id. metode distribusi dinamis berbasis alokai beban (ddbab) memiliki nilai rata-rata act lebih rendah dari metode du. gambar 10. grafik waktu rata-rata act untuk skenario keempat pada gambar 10 dapat dilihat bahwa skenario dengan ukuran job 750 kb pada semua rentang job id. metode distribusi dinamis berbasis alokai beban (ddbab) memiliki nilai rata-rata act lebih rendah dari metode du. lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 453 gambar 11. grafik waktu rata-rata act untuk skenario kelima pada gambar 10 dapat dilihat bahwa skenario dengan ukuran job 1000 kb pada semua rentang job id. metode distribusi dinamis berbasis alokai beban (ddbab) memiliki nilai ratarata act lebih rendah dari metode du. 5. kesimpulan pendistribusian job secara dinamis dapat dilakukan dengan metode distribusi dinamis berbasis alokasi beban (ddbab). ddbab dapat meningkatkan kinerja sistem multi agen dalam melakukan proses enkripsi job hingga mencapai 30,99 % dibandingkan dengan distribusi uniform (du). berdasarkan hasil pengujian menunjukkan bahwa nilai actual completion time (act) untuk enkripsi job dengan panjang kunci 128 bit dipengaruhi oleh ukuran job dimana semakin besar ukuran suatu job maka akan semakin meningkat nilai act yang dihasilkan. penelitian ini menggunakan lima skenario pengujian yaitu 500 job untuk setiap skenario dengan ukuran job mulai dari 100 kb, 250 kb, 500 kb, 750 kb dan 1000 kb. daftar pustaka [1] drogoul, a., vanbergue, d. & meurisse, t., 2003. multi-agent based simulation: where are the agents ?. lecture notes in computer science, volume multi agent base simulation ii, pp. 43-49. [2] shin, s. y., lee, h. c., song, s. k., & youn, h. y. (2009). a load balancing scheme for multi-agent systems based on agent state and load condition. [3] lee, y. j., park, g. y., song, h. k., & youn, h. y. (2012). a load balancing scheme for distributed simulation based on multi-agent system. international conference on computer software and applications workshops (pp. 613-618). sungkyunkwan university. [4] s, w. & m, l., 1980. assignment of tasks and resources for distributed processing. s.l., ompcon. [5] leszczyna, r.,. evaluation of agent platforms. technical report, european commission, joint research centre, institute for the protection and security of the citizen, ispra, italy 30 june. 2004. [6] f. bellifemine, g. caire, and d. greenwood, "developing multiagent systems with jade," wiley & sons, sussex, 2007. [7] http://jade.tilab.com/, diakses tanggal 12 oktober 2013. [8] lotfi a. zadeh. fuzzy logic systems: origin, concepts, and trends. computer science. division department of eecs. uc berkeley. 10 november, 2004. lontar komputer vol. 5, no. 2, agustus 2014 issn: 2088-1541 454 [9] kusumadewi s., purnomo h., aplikasi logika fuzzy, untuk pendukung keputusan, graha ilmu, 2004. [10] daemen, joan; & rijmen, vincent. november 26 2001. advanced encryption standard (aes). federal information processing standards publication 197. [11] draft nist special publication 800-17, modes of operation validation system (movs): requirements and procedures, may 1996. [12] j. manger. a chosen ciphertext attack on rsa optimal asymmetric encryption padding (oaep) as standardized in pkcs#1 v2.0. in advances in cryptology crypto’01, santa barbara, california, u.s.a., lectures notes in computer sci-ence 2139, pp. 230–238, springer-verlag, 2001. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p04 e-issn 2541-5832 31 aplikasi penghitungan gross primary production dari data penginderaan jauh komang gede kurniadi1, i putu agung bayupati2, i dewa nyoman nurweda putra3 jurusan teknologi informasi, fakultas teknik, universitas udayana bukit jimbaran, bali, indonesia 1komanggedekurniadi@gmail.com 2bayuhelix@yahoo.com 3nurweda14@gmail.com abstrak penghitungan gross primary production yang memanfaatkan data penginderaan jauh dapat dilakukan dengan aplikasi penginderaan jauh komersil. penghitungan gross primary production pada aplikasi penginderaan jauh komersil dilakukan secara manual. penghitungan dengan cara manual ini dikarenakan aplikasi tersebut tidak menyediakan fungsi khusus untuk memungkinkan pengguna dapat menghitung gross primary production. penelitian ini bertujuan untuk merancang sebuah aplikasi penginderaan jauh yang khusus digunakan untuk melakukan penghitungan gross primary production untuk daerah denpasar. aplikasi yang dibuat adalah aplikasi yang dapat menerima input berupa data penginderaan jauh yaitu citra satelit landsat 8 oli and tirs dan file metadata. rumus-rumus dan data pendukung yang diperlukan untuk menghitung gross primary production diimplementasi pada aplikasi untuk dapat mengolah citra secara otomatis. fitur-fitur tambahan seperti parsing data dari file metadata, cropping, masking dan zoom juga disediakan pada aplikasi untuk mempermudah pengguna dalam melakukan penghitungan gross primary production. aplikasi dapat menghasilkan informasi berupa nilai gross primary production yang dituangkan dalam bentuk gambar dengan segmentasi warna, luas dari masing-masing segmen dan nilai gross primary production rata-rata, minimum dan maksimum. kata kunci: aplikasi, penginderaan jauh, gross primary production, landsat 8, denpasar. abstract calculation of gross primary production that utilize remote sensing data is can be done on commercial remote sensing software by manual method. the commercial remote sensing software does not provides a specific feature that allow the user to do the gross primary production calculation. this research is aimed to to build a remote sensing software that can be specifically used to do the gross primary production calculation for denpasar area. this software accepts remote sensing data as an input, such as satellite image from landsat 8 oli and tirs and metadata file. the formulas and supporting data that required on the gross primary production calculation are implemented on software in order to make an automatic image processing software. there also some additional feature on this software such as automatic data parsing from metadata file, cropping, masking and zoom that could help user to do the gross primary production calculation. the developed software is able to produce information such as gross primary production value that depicted by a figure with color segmentation, area of the segments and mean, minimum and maximum value of the gross primary production. keywords: software, remote sensing, gross primary production, landsat 8, denpasar. mailto:komanggedekurniadi@gmail.com mailto:bayuhelix@yahoo.com mailto:nurweda14@gmail.com lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p04 e-issn 2541-5832 32 1. pendahuluan perubahan iklim dan pemanasan global merupakan masalah yang sangat serius di mata dunia. salah satu penyebab masalah-masalah tersebut adalah meningkatnya emisi karbon pada atmosfir [1]. peningkatan emisi karbon ini salah satunya disebabkan oleh kurangnya vegetasi yang berperan untuk mengimbangi emisi karbon hasil dari aktifitas manusia seperti asap kendaraan, asap pabrik dan berbagai bentuk emisi karbon yang lainnya. penghitungan karbon pada atmosfir sangat diperlukan untuk dapat digunakan dalam pengambilan langkah yang tepat untuk mengatasi masalah tersebut. gross primary production merupakan salah satu metode untuk memperkirakan penyerapan karbon oleh vegetasi. metode ini memanfaatkan data penginderaan jauh yaitu citra satelit. citra satelit digunakan untuk mengetahui tutupan vegetasi dengan cara menghitung indeks vegetasi. penghitungan gross primary production dengan bantuan citra satelit dapat dilakukan dengan software penginderaan jauh komersil. software penginderaan jauh komersil tidak menyediakan fungsi khusus untuk memungkinkan pengguna dapat melakukan penghitungan gross primary production. pengguna harus menyusun rumus penghitungan gross primary production secara manual ke dalam software penginderaan jauh tersebut. aplikasi yang dibuat dalam penelitian ini adalah aplikasi penginderaan jauh yang dirancang khusus untuk menghitung gross primary production di daerah denpasar. rumus-rumus yang diperlukan seperti koreksi reflektan citra satelit, penghitungan ndvi, thresholding ndvi, penghitungan fraction absorbed photosynthetically active radiation (fapar), photosynthetically active radiation (par) dan gross primary production perlu dituangkan ke dalam aplikasi khusus agar dapat melakukan penghitungan secara otomatis, dengan data incoming solar radiation (isr) sebagai data pendukung. aplikasi yang dirancang juga dilengkapi dengan fitur cropping dan masking untuk dapat mengolah citra satelit yang belum diolah sama sekali. 2. metodologi penelitian berikut ini merupakan gambaran umum dari aplikasi yang dikembangkan. gambaran umum sistem menjelaskan mengenai alur aplikasi dari input sampai output. gambar 1. gambaran umum sistem gambar 1 merupakan gambaran umum aplikasi penghitungan gross primary production yang dibuat. aplikasi yang dibuat memiliki 2 jenis input yaitu input citra dan input angka variabel. input citra yang dimaksud adalah citra satelit yang berformat geotiff, sedangkan input angka variabel adalah variabel incoming solar radiation (isr) dan light use efficiency (lue). proses lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p04 e-issn 2541-5832 33 yang terdapat pada aplikasi adalah proses koreksi reflektan dari masing-masing citra yang di input-kan, proses penghitungan tutupan vegetasi dengan ndvi, proses masking citra ndvi, proses penghitungan fapar, proses penghitungan par, dan proses penghitungan gross primary production. sedangkan output yang dihasilkan aplikasi adalah peta gross primary production yang sudah tersegmentasi. 3. kajian pustaka 3.1. penginderaan jauh penginderaan jauh adalah cabang ilmu untuk memperoleh informasi tentang permukaan bumi tanpa bersentuhan langsung dengan objek tersebut [2]. karakteristik yang diukur oleh sensor adalah energi elektromagnetik yang dipantulkan atau dipancarkan oleh permukaan bumi. penginderaan jauh didasari oleh perbedaan dari permukaan bumi berdasarkan pantulan spektralnya. reflektansi spektral (seperti warna dan corak), analis akan menggunakan kriteria lain pada proses kognitif visual dalam menginterpretasi citra penginderaan jauh, seperti tekstur, pola, ukuran, bentuk, bayangan, dan konteks. metode yang paling banyak digunakan dalam klasifikasi yang dibantu oleh komputer dalam pengolahan data penginderaan jauh yang tidak melibatkan manusia sebagai pengamat adalah dengan memanfaatkan pendekatan “per piksel, data spektral tunggal” [3]. 3.2. indeks vegetasi penghitungan indeks vegetasi biasanya menggunakan perhitungan aljabar sederhana, indeks vegetasi didesain untuk memperkuat sinyal vegetasi pada data yang didapat dengan penginderaan jauh dan menyediakan ukuran perkiraan dari jumlah vegetasi yang hijau dan sehat[4]. normalized difference vegetation index (ndvi) merupakan alat yang popular untuk menilai berbagai aspek dari proses tanaman, ketika secara simultan menentukan variasi spasial pada tutupan vegetasi [4]. 𝑁𝐷𝑉𝐼 = 𝑁𝑒𝑎𝑟 𝐼𝑛𝑓𝑟𝑎𝑟𝑒𝑑 𝐵𝑎𝑛𝑑 − 𝑉𝑖𝑠𝑖𝑏𝑙𝑒 𝑅𝑒𝑑 𝐵𝑎𝑛𝑑 𝑁𝑒𝑎𝑟 𝐼𝑛𝑓𝑟𝑎𝑟𝑒𝑑 𝐵𝑎𝑛𝑑 + 𝑉𝑖𝑠𝑖𝑏𝑙𝑒 𝑅𝑒𝑑 𝐵𝑎𝑛𝑑 (1) pengukuran vegetasi menggunakan ndvi membutuhkan dua input yaitu band near infrared dan band visible red. penggunaan dua input tersebut didasari oleh teori bahwa tumbuhan sehat cenderung memberi banyak pantulan pada gelombang near infrared dan sedikit pantulan (lebih banyak menyerap) gelombang tampak atau visible [5]. ndvi tersebar antara 0 dan 1 untuk permukaan bervegetasi, gurun memiliki nilai mendekati nol dan hutan tropis mendekati 1 [ 6 ] . berikut ini merupakan tabel yang menunjukkan hubungan antara rentang nilai ndvi dengan objek pada permukaan bumi [7]. tabel 1. korelasi antara nilai ndvi terhadap objek pada permukaan bumi ndvi objek < 0,1 bebatuan, tanah tandus, pasir, salju 0,2 – 0,5 vegetasi jarang: semak-semak, padang rumput, tamanan menua 0,6 – 0,9 vegetasi padat: hutan beriklim sedang, hutan tropis, tumbuh-tumbuhan sehat nilai ndvi yang kurang dari 0,1 pada tabel 1 merupakan objek-objek non-vegetasi seperti bebatuan, tanah tandus, pasir dan salju. nilai ndvi pada rentang 0,2-0,5 mewakili tutupan vegetasi yang tidak begitu tebal seperti semak-semak, padang rumput dan tamanan menua. nilai ndvi pada rentang 0,6-0,9 merupakan tutupan vegetasi rapat seperti hutan beriklim sedang, hutan tropis dan tumbuh-tumbuhan sehat. 3.3. satelit landsat 8 satelit landsat yang terbaru adalah landsat 8 oli and tirs yang diluncurkan pada 11 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p04 e-issn 2541-5832 34 februari 2013 dari vandenberg air force base, california pada roket atlas-v 401 dengan extended payload fairing (epf) dari united launch alliance, llc. landsat 8 oli and tirs dilengkapi oleh 2 sensor yaitu operational land imager (oli) dan thermal infrared sensor (tirs) yang menyediakan cakupan musiman dari daratan global pada resolusi spasial 30 meter (visible, nir, sw ir), 100 meter (thermal) dan 15 meter (panchromatic) [8]. nilai piksel pada citra satelit komersil menunjukkan paparan dari permukaan bumi dalam bentuk digital number (dn) yang dikalibrasi ke suatu rentang nilai. konversi dn ke dalam paparan nyata perlu dilakukan untuk analisis komparatif dari beberapa citra yang diambil oleh sensor yang berbeda. persamaan koreksi reflektan untuk citra satelit landsat 8. persamaannya adalah sebagai berikut [9]. 𝜌𝜆 = 𝑀𝜌𝑄𝑐𝑎𝑙 + 𝐴𝜌 sin(𝜃𝑆𝐸 ) (2) keterangan: ρλ = toa planetary reflectance mρ = band-specific multiplicative rescaling factor dari metadata (reflectance_mult_band_x, di mana x adalah nomor band) aρ = band-specific additive rescaling factor dari metadata (reflectance_add_band_x, di mana x adalah nomor band) qcal = quantized and calibrated standard product pixel values (dn) θse = local sun elevation angle (sun_elevation) nilai mρ dan aρ berbeda di tiap-tiap band dari citra yang diakuisisi oleh masing-masing sensor. indeks vegetasi dicari menggunakan ndvi dengan input band visible red dan band near infrared, sehingga koreksi reflektan dilakukan pada masing-masing citra band tersebut. 3.4. gross primary production gross primary production atau produksi primer kotor didefinisikan sebagai fluks karbon dioksida (co2) yang diserap ke dalam tanaman melalui fotosintesis yang merupakan kuantitas fisik dasar untuk penghitungan keseimbangan karbon antara atmosfer dengan biosfer terestrial [10]. tumbuhan menggunakan energi matahari dalam reaksi kimia yang mengubah air dan karbon dioksida menjadi karbohidrat [4]. telah dikembangkan sebuah metode untuk memperkirakan produktivitas tanaman dari observasi absorbed photosynthetically active radiation (apar) dan perkiraan light-use efficiency (lue) [11]. persamaannya adalah sebagai berikut: 𝐺𝑃𝑃 = 𝐿𝑈𝐸 × 𝑓𝐴𝑃𝐴𝑅 × 𝑃𝐴𝑅 (3) gpp adalah gross primary productivity (gc m-2 waktu-1), fapar adalah fraction absorbed photosynthetically active radiation (mj m-2 waktu-1), par adalah photosynthetically active radiation (mj m-2 waktu-1) dan lue adalah light-use efficiency (gc mj -1). rekomendasi nilai light-use efficiency yaitu 1.5 gc mj-1 untuk beberapa negara asia [12]. 3.4.1. fraction absorbed photosynthetically active radiation (fapar) hubungan antara ndvi dan fapar dapat digunakan untuk menentukan total penyerapan co2 oleh vegetasi atau gross primary production menggunakan model dari light use efficiency (lue) [13]. berikut adalah rumus hubungan fapar dan ndvi di beberapa negara asia yang direkomendasikan [12]. 𝑓𝐴𝑃𝐴𝑅 = −0,08 + 1,075 𝑁𝐷𝑉𝐼 (4) ndvi merupakan data input berupa citra pada rumus di atas, sehingga operasi perkalian angka terhadap ndvi dilakukan pada seluruh piksel pada citra tersebut. operasi penjumlahan juga dilakukan terhadap seluruh piksel hasil dari perkalian ndvi dengan pengalinya. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p04 e-issn 2541-5832 35 3.4.2. photosynthetically active radiation (par) photosynthetically active radiation atau disingkat par merupakan salah satu bagian dari spektrum radiasi matahari yang termasuk dalam cahaya tampak [14]. proses asimilasi atau fotosintesis tumbuhan membutuhkan cahaya matahari [15] dan tanaman hanya menginterpretasi setengah dari radiasi cahaya matahari [16]. formula untuk menghitung par berdasarkan dasar teori di atas adalah sebagai berikut: 𝑃𝐴𝑅 = 0,5 × 𝐼𝑆𝑅 (5) tabel 2. data nilai isr perbulan di kota denpasar [17] bulan nilai (mj/m2/hari) nilai (mj/m2/bulan) januari 16.3 505.3 februari 18.4 515.2 maret 17.8 551.8 april 18.2 546.0 mei 16.2 502.2 juni 15.0 450.0 juli 15.0 465.0 agustus 18.6 576.6 september 19.7 591.0 oktober 20.1 623.1 november 19.5 585.0 desember 17.3 536.3 total (nilai (mj/m2/tahun) 6447.5 data pada tabel 2 di atas merupakan data isr perbulan yang merupakan hasil dari penghitungan rata-rata isr perbulan pada tahun 1969-1973 [17]. data diperoleh dari hasil penghitungan rata-rata karena pada interval tahun 1969-1973 terdapat data yang tidak didapat pada bulan-bulan tertentu. 4. hasil dan pembahasan aplikasi yang dirancang adalah aplikasi pengolah citra berbasis desktop. graphical user interface dari aplikasi disusun secara sederhana agar menjadi user friendly. berikut ini merupakan tampilan dari jendela utama aplikasi yang dirancang. gambar 2. jendela utama lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p04 e-issn 2541-5832 36 panel image input pada gambar 2 mengandung tiga tombol untuk melakukan input citra satelit & file metadata dan satu tombol untuk menjalankan perhitungan ndvi. bagian atas pada panel kiri terdapat tiga textbox panjang untuk menampilkan fullpath dari visible red band, near infrared band dan file metadata. bagian ini juga memiliki dua panel gambar untuk menampilkan visible red band dan near infrared band. lima textbox pendek berfungsi untuk menampilkan nilai ketinggian matahari, multiplicative rescaling factor untuk visible red band dan near infrared band, dan additive rescaling factor untuk visible red band dan near infrared band yang di-parsing dari file metadata. panel ndvi digunakan untuk menampilkan hasil penghitungan ndvi. dua panel gambar bertujuan untuk menampilkan hasil penghitungan ndvi dan menampilkan hasil threshold ndvi. proses masking ndvi dapat dilakukan pada panel gambar ndvi. dua textbox pada panel ini berfungsi untuk menampilkan nilai ndvi minimum dan maksimum. tombol "calculate gpp” berfungsi untuk menjalankan fungsi penghitungan gross primary production. panel tool box pada gambar 2 mengandung tiga tombol yaitu tombol zoom, crop dan masking. masing-masing tolbol tersebut memiliki fungsi yang berbeda beda. tombol zoom berfungsi untuk menampilkan gambar lebih dekat atau detil dari panel gambar yang di-zoom. tombol crop menjalankan fungsi memotong citra satelit input untuk mendapatkan daerah yang diteliti. tombol masking berfungsi untuk menjalankan fungsi masking untuk memotong daerah yang diteliti dengan menggunakan poligon yang dapat dibuat secara manual oleh user. hasil penghitungan gross primary production ditampilkan pada jendela terpisah. berikut merupakan tampilan dari jendela gpp. gambar 3. jendela gpp jendela gpp pada gambar 3 mengandung sebuah panel gambar untuk menampilkan hasil penghitugan gross primary production. tiga textbox pada bagian kiri bawah untuk menampilkan nilai minimum, maksmum dan rata-rata gross primary production. lima pasang textbox pada bagian kanan bawah untuk menampilkan jumlah piksel dan luas dari lima rentang nilai gross primary production. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p04 e-issn 2541-5832 37 gambar 4. proses pada panel input terdapat beberapa proses yang terjadi pada panel input diantaranya, proses input citra satelit, proses input file metadata, proses menampilkan citra satelit input, proses menampilkan filepath citra input dan file metadata, proses menampilkan nilai-nilai variabel untuk koreksi reflektan dan proses cropping citra input. gambar 4(a) merupakan tampilan dari filepath seluruh file input, tampilan citra satelit input yaitu visible red band (atas) dan near infrared band (bawah), tampilan nilai-nilai variabel untuk koreksi reflektan. proses cropping juga dapat dilakukan pada panel gambar visible red band. proses ini hanya dibutuhkan sekali untuk kedua citra satelit input. gambar 4(b) merupakan tampilan dari citra satelit visible red band (atas) dan near infrared band (bawah) setelah melewati proses cropping. proses penghitungan indeks vegetasi dapat dilakukan dengan meng-klik tombol “calculate ndvi”. gambar 5. proses pada panel ndvi (a) (b) (b) (a) (c) lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p04 e-issn 2541-5832 38 proses penghitungan indeks vegetasi menghasilkan keluaran berupa citra ndvi. gambar 5(a) merupakan citra ndvi yang ditampilkan pada panel gambar dengan corak warna keabuan. masing-masing gradasi mewakili interpretasi yang berbeda-beda terhadap tutupan vegetasi. semakin putih sebuah piksel maka piksel tersebut semakin dekat dengan nilai 1, sedangkan semakin gelap menunjukkan bahwa nilai intensitas tutupan vegetasi pada piksel tersebut semakin dekat dengan -1. area hitam pada bagian kanan dan kiri gambar merupakan lautan, tetapi titik-titik hitam yang tersebar di tengah-tengah gambar merupakan awan yang berada di atas daratan. nilai indeks vegetasi minimum dan maksimum juga ditampilkan pada aplikasi. gambar 5(b) merupakan proses masking yang dilakukan pada citra ndvi. proses ini bertujuan untuk memotong daerah yang hendak diteliti yaitu kota denpasar. poligon yang digambar di atas panel citra ndvi menandakan bahwa daerah tersebut merupakan daerah yang diteliti. gambar 5(c) merupakan hasil dari proses masking yaitu citra ndvi yang telah dipotong berdasarkan poligon yang dibuat secara manual oleh user. citra ndvi yang sudah dimasking diberi corak warna berdasarkan nilai indeks vegetasi dalam rentang tertentu. terdapat sebuah colorbar di sebelah kanan yang berfungsi sebagai indikator warna dari masing-masing rentang nilai dari indeks vegetasi. gambar 6. proses pada panel gpp gambar 6 merupakan tampilan hasil penghitungan gross primary production pada aplikasi. citra gross primary production disegmentasi ke dalam beberapa warna yaitu, merah muda, ungu, biru tua, biru sedang, biru muda, hijau, hijau muda, kuning, jingga dan merah. nilai gross primary production terendah digambarkan dengan warna merah sedangkan nilai tertinggi digambarkan dengan warna merah muda. nilai gross primary production rendah berarti penyerapan karbon pada daerah tersebut rendah. daerah berwarna merah diluar daerah lautan dan awan di peta gross primary production memiliki potensi rendah dalam penyerapan karbon. daerah ini memiliki nilai yang berbanding lurus dengan nilai ndvi yang rendah, karena nilai ndvi yang rendah baerarti memiliki tutupan vegetasi rendah. daerah merah ini merupakan daerah non-vegetasi seperti lahan kosong, bangunan perkotaan, air, dan objek-objek non vegetasi lainnya. daerah yang berwarna jingga dan kuning juga memiliki potensi rendah dalam penyerapan karbon, tetapi tidak serendah area merah. daerah berwarna merah muda menunjukkan nilai gross primary production yang tinggi, sehingga menunjukkan potensi penyerapan karbon pada daerah tersebut tinggi. daerah merah muda ini juga memiliki nilai yang berbanding lurus dengan tingginya nilai indeks vegetasi. berarti daerah ini memiliki tutupan vegetasi yang tinggi. area merah muda yang luas pada citra gross primary production adalah daerah yang memiliki potensi penyerapan karbon tinggi. daerah tersebut merupakan lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p04 e-issn 2541-5832 39 hutan mangrove di wilayah selatan dari kota denpasar. daerah ungu dan biru juga merupakan potensi karbon penyerapan yang tinggi, tetapi lebih rendah dari daerah berwarna merah muda. nilai maksimum, minimum dan rata-rata gross primary production juga ditampilan di bawah panel citra gross primary production. jumlah piksel dan luas dari rentang nilai tertentu juga ditampilkan pada textbox. 5. kesimpulan aplikasi perkiraan serapan karbon dengan metode gross primary production untuk kota denpasar dengan input data penginderaan jauh sudah berhasil dirancang. seluruh proses pengolahan citra dari membaca citra satelit, cropping, koreksi reflektan, penghitungan ndvi, masking, thresholding ndvi, penghitungan fapar, penghitungan par dan penghitungan gross primary production sudah berhasil diimplementasi pada aplikasi. aplikasi dapat menghasilkan informasi berupa nilai gross primary production yang dituangkan dalam bentuk gambar dengan segmentasi warna, luas dari masing-masing segmen dan nilai gross primary production rata rata, minimum dan maksimum. fitur-fitur tambahan pada aplikasi seperti parsing data dari file metadata, cropping, masking dan zoom sudah mampu mendukung pengolahan citra satelit menjadi data gross primary production untuk kota denpasar. daftar pustaka [1] “desertification and climate change.” [online]. available: http://www.unccd.int/lists/sitedocumentlibrary/publications/desertificationandclimatecha n ge.pdf. [2] fundamentals of remote sensing. canada: a canada centre for remote sensing remote sensing tutorial, 2007. [3] s. angel and s. sheppard, the dynamics of global urban expansion. 2005. [4] a. r. as-syakur, t. osawa, and i. w. s. adnyana, “medium spatial resolution satellite imagery to estimate gross primary production in an urban area.,” remote sens., 2010. [5] j. weier and d. herring, “measuring vegetation (ndvi & evi),” 2000. [online]. available: https://earthobservatory.nasa.gov/features/measuringvegetation/. [6] k. tu, “modeling plant-soil-atmosphere carbon dioxide exchange using optimality principles,” b.a. university of california at santa cruz, 2000. [7] “ndvi foundation,” 2015. [online]. available: http://phenology.cr.usgs.gov/ndvi_foundation.ph. [accessed: 04-apr-2015]. [8] “nasa,” 2014. [online]. available: http://landsat.gsfc.nasa.gov/?page_id=7195. [accessed: 15-dec-2014]. [9] “landsat8 using product,” 2014. [10] t. sakamoto, a. a. gitelson, b. d. wardlow, s. b. verma, and a. e. suyker, “estimating daily gross primary production of maize based only on modis wdrvi and shortwave radiation data,” remote sens. environ., 2011. [11] j. b. bradford, j. a. hicke, and w. k. lauenroth, “the relative importance of light-use efficiency modifications from environmental conditions and cultivation for estimation of large-scale net primary productivity,” remote sens. environ., 2005. [12] “ags99,” 2015. [online]. available: http://a-a-rs.org/aars/proceeding/acrs1999/papers/ags99-2.htm. [accessed: 17-mar-2015]. [13] s. w. running, r. nemani, j. m. glassy, and p. e. thornton, modis daily photosynthesis (psn) and annual net primary production (npp) product (mod17), 3.0. 1999. [14] zein and m. t. a. aziz, “korelasi antara pengukuran dan indeks vegetasi (studi kasus : taman nasional lore-lindu, sulawesi tengah),” institut pertanian bogor, 2009. [15] s. c. black, “estimation of grass photosynthesis rates in mixed-grass prairie using field and remote sensing approaches,” university of saskatchewan saskatoon, 2006. [16] l. s. s, “estimasi emisi co2 dari kebakaran hutan,” 2006. [17] g. l. morrison, “solar radiation data for indonesia,” sol. energy, 1992. lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 51 sistem informasi manajemen sebagai alat pengelolaan penelitian dosen i dewa made adi baskara joni a1, i kadek budi sandika a2 program studi teknik informatika, stmik stikom indonesia 1dewadi.414@gmail.com, 2ikbsandika@gmail.com abstrak dosen pada suatu perguruan tinggi maka memiliki kewajiban untuk melakukan tri dharma perguruan tinggi. salah satu dari tri dharma tersebut adalah penelitian. kegiatan penelitian dosen adalah suatu hal yang sangat penting untuk dapat dikelola dengan baik. pengelolaan yang baik dapat meningkatkan kualitas karir dosen yang bersangkutan yang akan berdampak pada kualitas stmik stikom indonesia (stiki) sebagai institusi pendidikan. penelitian ini telah melalui berbagai tahapan, mulai dari analisa proses bisnis, perancangan sampai pada implementasi sistem. berdasarkan analisa proses bisnis pada sistem yang sedang berjalan ditemukan berbagai permasalahan yang terjadi. permasalahan utama adalah proses rekapitulasi penelitian. sistem manual yang dijalankan memungkinkan terjadi human error dan mengakibatkan informasi yang dihasilkan tidak akurat dan tidak real time. sistem dirancang menggunakan model perancangan terstruktur dimulai dari document flow diagram, system flow diagram, data flow diagram sampai dengan entity relationship diagram. sistem yang dibangun telah memiliki fitur-fitur mulai dari manajemen data master, manajemen usulan penelitian sampai pada manajemen laporan penelitian. semua proses manajemen tersebut telah dirancang untuk berjalan secara sistematis sehingga tingkat kesalahan yang disebabkan human error menjadi berkurang. kata kunci: sistem, informasi, manajemen, perancangan, terstruktur. abstract a lecturer at a university has the obligation to perform tri dharma college. one of the tri dharma is research. research activities is a very important thing to be managed properly. good management can improve the quality of the lecturer career that will have an impact on the quality of stmik stikom indonesia (stiki) as an educational institution. this research has been through various stages, ranging from business process analysis, design until the implementation of the system. based on the analysis of business processes in the current system found various problems. the main problem is on the process of research recapitulation. the running of manual system could be caused human error and generated inaccurate information and not real time. the system is designed using a structured design models starting from document flow diagrams, system flow diagrams, data flow diagrams until the entity relationship diagram. the bulit system has ranging features from master data management, management of research proposals until the management of the research report. all of these management processes have been designed to run systematically that could be minimized the error rate due to human error. keywords: system, information, management, design, structured. 1. pendahuluan stmik stikom indonesia (stiki) adalah salah satu perguruan tinggi swasta yang ada di bali. stiki telah berdiri sejak tahun 2008. dalam perkembangannya, sampai saat ini terdapat dua (2) program studi (prodi) yaitu prodi teknik informatika dan sistem komputer. pada kedua prodi tersebut terdapat lima puluh delapan (58) dosen yang tercatat sebagai dosen tetap. sebagai dosen pada suatu perguruan tinggi maka memiliki kewajiban untuk melakukan tri dharma perguruan tinggi. salah satu dari tri dharma tersebut adalah penelitian. dosen akan melakukan kegiatan penelitian setiap semester untuk memenuhi kewajibannya yang dapat diukur kedalam mailto:dewadi.414@gmail.com mailto:ikbsandika@gmail.com lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 52 suatu angka kredit. angka kredit tersebut dapat diakumulasikan dengan angka kredit pada kegiatan pendidikan, pengabdian masyarakat dan penunjang untuk dapat dihitung kedalam suatu usulan jabatan fungsional akademik dosen. hal tersebut menyebabkan kegiatan penelitian dosen adalah suatu hal yang sangat penting untuk dapat dikelola dengan baik. pengelolaan yang baik dapat meningkatkan kualitas karir dosen yang bersangkutan yang akan berdampak pada kualitas stiki sebagai institusi pendidikan. dalam melakukan kegiatan penelitian dosen, pengelolaannya dilakukan oleh lembaga penelitian dan pengabdian masyarakat (lppm) stiki. saat ini penelitian yang dikelola dananya bersumber dari internal institusi dan eksternal (kementrian riset teknologi dan pendidikan tinggi). untuk penelitian yang dananya bersumber dari kementrian riset teknologi dan pendidikan tinggi (kemenristekdikti), dari proses proposal sampai pelaporan kegiatan penelitian dikelola dan dipantau melalui suatu sistem terkomputerisasi. sistem tersebut adalah sitem berbasis web yang disebut sistem informasi manajemen penelitian dan pengabdian masyarakat (simlitabmas). dengan menggunakan sistem tersebut para peneliti, operator perguruan tinggi maupun pihak kemenristekdikti dapat berkolaborasi dalam suatu sistem untuk mengelola kegiatan penelitian yang efektif dan efisien. untuk penelitian yang dananya bersumber dari internal institusi disebut dengan program hibah penelitian pengembangan dosen stiki (ppds). program hibah ppds dari proses pengumpulan proposal sampai pelaporan kegiatan penelitian dilakukan secara manual. kendala yang dihadapi cukup beragam, mulai dari kendala keakuratan data sampai pada penyimpanan data kegiatan penelitian yang kurang baik. permasalahan mulai muncul ketika dibutuhkan informasi mengenai status penelitian setiap dosen maupun keseluruhannya. lppm sebagai pengelola harus mengolah data manual yang ada dan membutuhkan waktu pemrosesan yang cukup lama. ketika informasi tersebut dibutuhkan untuk pengambilan keputusan strategis, keakuratan dan ketersediaan informasi adalah menjadi masalah yang kritis. agar data dapat dikelola secara terpusat dan terstruktur maka dibutuhkan suatu sistem. sistem terkomputerisasi dan berbasis web adalah menjadi suatu solusi dari permasalahan tersebut. berdasarkan permasalahan yang telah disampaikan, untuk dapat menyelesaikan permasalahan yang ada pada lppm stiki maka dilakukan penelitian. penelitian ini akan menghasilkan suatu sistem informasi manajemen yang dapat digunakan untuk mengelola penelitian dosen stiki. 2. metodologi penelitian penelitian dilakukan dengan menganalisis, merancang dan membangun sistem informasi manajemen penelitian dosen pada stmik stikom indonesia. penelitian ini terbagi atas beberapa langkah yang dapat dilihat pada gambar 1 berikut ini: gambar 1. metode penelitian 2.1. studi pustaka dalam penelitian ini digunakan beberapa referensi pendukung sebagai acuan dalam melakukan penelitian. referensi tersebut berupa buku teks maupun jurnal dan prosiding. buku teks digunakan sebagai dasar-dasar teori yang menjadi dasar dalam merancang dan membangun sistem yang dihasilkan dalam penelitian ini. referensi jurnal dan prosiding dipergunakan untuk mempelajari penelitian-penelitian terkait dan terkini. studi kepustakaan difokuskan pada referensi yang terkait dengan topik sistem informasi manajemen. lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 53 2.2. pengumpulan data pada tahap pengumpulan data, jenis dan sumber data yang dipergunakan adalah sebagai berikut: a. data primer adalah data yang diperoleh langsung dari lembaga penelitian dan pengabdian masyarakat (lppm) stmik stikom indonesia berupa data penelitian dosen. b. data sekunder adalah data yang diperoleh dari studi kepustakaan seperti data hasil penelitian terdahulu dan data lain yang didapat dari buku, jurnal ilmiah, prosiding seminar dan lain sebagainya. teknik pengumpulan data yang dipergunakan dalam penelitian ini adalah sebagai berikut: a wawancara: adalah teknik pengumpulan data dari hasil tanya jawab dengan penanggung jawab prosedur penelitian pada lppm stmik stikom indonesia maupun para dosen stmik stikom indonesia. wawancara dilakukan kepada ida bagus ary indra iswara, m.kom selaku bidang penelitian lppm stmik stikom indonesia. hasil wawancara menyatakan bahwa terdapat dua jenis penelitian berdasarkan sumber dananya. pengelolaan saat ini masih dilakukan dengan sistem manual yang mengakibatkan proses administrasi dan arsip masih belum berjalan dengan baik. berdasarkan hal tersebut dikatakan bahwa dibutuhkan suatu sistem informasi manajemen yang dapat membantu proses pengelolaan penelitian. w awancara dengan perwakilan dosen dilakukan kepada i nyoman jayanegara, m.sn. hasil wawancara menyatakan bahwa untuk saat ini belum ada sistem informasi yang digunakan oleh lppm untuk mengelola seluruh kegiatan penelitian yang ada. dikatakan juga bahwa dibutuhkan suatu sistem yang dapat mengelola data penelitian. diharapkan dengan adanya sistem tersebut data penelitian dapat dikelola dengan lebih baik lagi dan didapatkan informasi tentang seluruh kegiatan penelitian yang pernah dilakukan dosen. b studi dokumentasi: adalah teknik pengumpulan data dengan mencari data yang ada dalam dokumen terkait, buku, internet atau jurnal yang berhubungan dengan penelitian ini. dalam hal ini didapatkan dokumen-dokumen terkait seperti surat keputusan hibah penelitian, berita acara, proposal penelitian, laporan penggunaan anggaran maupun laporan penelitian. 2.3. analisa sistem analisa sistem dalam penelitian ini akan dilakukan dalam dua tahap. tahap pertama adalah analisa sistem yang sedang berlangsung saat ini (as-is) menggunakan document flow diagram. tahap kedua adalah analisa sistem baru yang dihasilkan dari penelitian ini (to-be) menggunakan system flow diagram. 2.3.1. analisa tahap pertama dalam analisa sistem tahap pertama akan digambarkan permasalahan yang terjadi, penyebab dan solusi yang dapat diterapkan untuk menyelesaikan permasalahan. sistem pengelolaan penelitian dosen yang selama ini ada pada lppm stmik stikom indonesia akan terlihat pada analisa tahap pertama ini. terdapat beberapa proses yang dianalisa sebagai berikut: a. proses pengumpulan proposal penelitian sebagai contoh yang ditunjukkan adalah pengelolaan program hibah penelitian pengembangan dosen stiki (ppds). proses dimulai dari lppm mengumumkan jadwal kegiatan penelitian kepada seluruh calon dosen peneliti. selanjutnya dosen peneliti akan mengumpulkan proposal kepada lppm. setelah dilakukan pengecekan dan administrasi oleh lppm, terdapat dua kemungkinan keputusan yang ada. pertama jika dinyatakan tidak sesuai akan diberikan catatan perbaikan dan mengembalikan proposal kepada dosen peneliti untuk selanjutnya diperbaiki. kedua jika sesuai, lppm akan merekapitulasi hasil seleksi dan mengumumkan hasil seleksi tahap awal. b. proses seminar proposal penelitian proses dimulai dari lppm menjelaskan aturan penyelenggaraan kegiatan seminar dan menyatakan kegiatan dimulai. selanjutnya dosen peneliti akan mempresentasikan proposal penelitian yang diajukan. berikutnya akan dilakukan penilaian oleh lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 54 perwakilan lppm dan pimpinan. setelah hasil penilaian didapatkan akan dilakukan rekapitulasi penilaian oleh lppm. c. proses keputusan pembiayaan penelitian proses dimulai dengan lppm memberikan hasil rekapitulasi penilaian seminar proposal kepada ketua stikom indonesia (stiki). kemudian ketua akan mengambil keputusan. jika diputuskan tidak dibiayai, lppm akan menginformasikan kepada dosen peneliti yang bersangkutan. jika diputuskan untuk dibiayai, akan ditentukan nilai pembiayaan yang akan dimuat dalam berita acara untuk selanjutnya direkapitulasi dan diterbitkan surat keputusan (sk) ketua. d. proses kontrak penelitian proses dimulai dari lppm menyusun surat perjanjian penugasan penelitian untuk selanjutnya ditandatangani. setelah itu akan diberikan bersama dengan dana penelitian 70%. e. proses pengumpulan laporan proses dimulai dari dosen peneliti mengumpulkan laporan penggunaan anggaran dan laporan akhir penelitian. selanjutnya akan divalidasi oleh lppm. jika tidak sesuai, akan dikembalikan untuk diperbaiki. jika dinyatakan sesuai, lppm akan mengarsipkan laporan dan memberikan berita acara berikut dana penelitian 30%. 2.3.2. analisa tahap kedua dalam analisa tahap kedua ini akan dijelaskan kelebihan dari sistem yang baru dan akan berisi penjelasan mengenai manfaat untuk setiap fungsi yang ada. secara umum dalam tahap analisa ini akan memberikan gambaran jelas mengenai sistem informasi manajemen yang dibangun dan diharapkan dapat menjadi solusi dari permasalahan yang terjadi pada lppm stmik stikom indonesia. a. proses pengumpulan proposal penelitian proses-proses yang ada pada sistem baru yang dirancang secara garis besar tidak banyak yang berubah. pada alur proses bisnis yang ada tidak mengalami perubahan signifikan. perubahan hanya pada proses yang sebelumnya dilakukan secara manual kemudian pada sistem yang dirancang dilakukan secara komputerisasi. namun, dari hasil analisa ditetapkan masih banyak proses yang tetap dilakukan secara manual. hal tersebut dikarenakan beberapa hal seperti misalnya prosedur yang mensyaratkan dokumen tetap harus diproses secara manual. proses yang dikomputerisasi adalah untuk pengumpulan proposal (unggah) softcopy yang dilakukan melalui sistem. proses validasi proposal yang diunggah dilakukan oleh lppm melalui sistem terkomputerisasi. b. proses seminar proposal penelitian secara garis besar proses-proses yang ada masih tetap dilakukan secara manual dan tidak banyak yang berubah. perubahan terjadi hanya pada proses rekapitulasi hasil penilaian yang selama ini dilakukan manual oleh lppm. efisiensi penggunaan dokumen hanya pada hasil rekapitulasi penilaian seminar proposal. untuk sistem yang dirancang hasil seminar disimpan kedalam database dan hasil rekapitulasi dapat dicetak kapanpun dibutuhkan. pada sistem terkomputerisasi yang dirancang, proses rekapitulasi secara otomatis dilakukan sistem ketika lppm memasukkan hasil penilaian seminar proposal ke sistem. c. proses keputusan pembiayaan penelitian pada sistem yang dirancang, hasil rekapitulasi dapat dicetak melalui sistem yang datanya diambil dari database. proses rekapitulasi berita acara penilaian yang diputuskan oleh ketua stiki dan proses penyusunan surat keputusan hibah dirancang menjadi terkomputerisasi. hal tersebut diharapkan memudahkan kerja dari lppm dan mengurangi kemungkinan kesalahan (human error). d. proses kontrak penelitian proses yang dikomputerisasi hanya pada proses penyusunan surat perjanjian penugasan penelitian. lppm langsung dapat mencetak surat perjanjian tersebut yang akan diproses oleh sistem dengan mengambil data pada database. dengan proses komputerisasi tersebut diharapkan mengurangi kemungkinan kesalahan (human error). e. proses pengumpulan laporan lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 55 pada sistem yang dirancang, terdapat perubahan alur proses. pada sistem manual yang ada sebelumnya, ketika laporan telah divalidasi dan dinyatakan sesuai akan langsung dibuatkan berita acara penerimaan dana 30% oleh lppm. perubahan alur terjadi ketika laporan telah diarsipkan, lppm akan meminta peneliti untuk mengunggah laporan penelitian. selanjutnya akan divalidasi oleh lppm dan jika dinyatakan sesuai, berita acara penerimaan dana 30% akan diproses. 2.4. perancangan sistem proses-proses yang terkomputerisasi dan aliran data dari sistem yang dibangun akan di gambarkan menggunakan data flow diagram. untuk rancangan database yang akan digunakan pada aplikasi digambarkan menggunakan entity relationship diagram. 2.4.1. data flow diagram – level konteks dfd level konteks menggambarkan sistem secara kontekstual. pada level ini hanya terdapat satu proses dan external entities yang berinteraksi dengan sistem. untuk lebih jelasnya, berikut dibawah ini pada gambar 2 adalah data flow diagram level konteks. d os en i nfo_l ogin_dos en i nfo_l aporan_anggar an i nfo_l aporan_akhi r i nfo_pr opos al i nfo_us ul an data_lapor an_anggaran data_lapor an_akhir data_propos al data_us ulan data_logi n_dos en l aporan_hi bah l aporan_s em i nar laporan propos al data_logi n_kalppm 0 sis tem infor m as i manaj em en penel i ti an d os en stikom indones i a + data_cetak_s ur at_perj anji an_penugas an data_logi n_adm lppm data_peri ode_anggaran val idas i _propos al data_nil ai_s em inar _propos al data_nil ai_pem biayaan data_cetak_sk val idas i _l aporan_anggar an kepala lppm i nfo_l ogin_kalppm sk_hibah_ppd s s urat_perj anj ian_penugas an data_peri ode_lapor an val idas i _l aporan_akhi r daftar _nil ai_pem biayaan daftar _nil ai_s em inar _propos al i nfo_l ogin_adm lppm adm i n lppm gambar 2. data flow diagram – level konteks pada gambar 2 diatas dapat dilihat terdapat tiga external entity. external entity dosen berinteraksi dengan sistem untuk mengelola data berupa data login, data usulan, data proposal maupun data laporan. external entity admin lppm berinteraksi dengan sistem untuk mengelola data berupa data login, data periode anggaran, data periode laporan, validasi proposal, validasi laporan, data cetak sk, data nilai seminar proposal, data nilai pembiayaan maupun data surat perjanjian penugasan. external entity kepala lppm berinteraksi dengan sistem untuk mengelola data berupa data login maupun laporan-laporan yang dapat dihasilkan sistem. lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 56 2.4.2. entity relationship diagram entity relationship diagram (erd), merupakan hasil dari rancangan data store yang terdapat pada data flow diagram (dfd). dalam karya ilmiah ini akan disajikan erd pada level conceptual data model (cdm). berikut dibawah ini adalah erd-cdm dari sistem informasi manajemen penelitian dosen stikom indonesia gambar 3. entity relationship diagram – conceptual data model pada gambar 3 diatas dapat dilihat adalah erd-cdm dari sistem informasi manajemen penelitian dosen stikom indonesia. terdapat 7 tabel pada diagram ini yang saling berelasi. relasi yang terbentuk ada dua yaitu one-to-one dan one-to-many. 3. kajian pustaka 3.1. pengertian sistem dalam fatta, menurut murdick dan ross mendefinisikan sistem sebagai seperangkat elemen yang digabungkan satu dengan lainnya untuk suatu tujuan bersama. menurut fatta, sistem adalah elemen-elemen yang saling berhubungan dan membentuk satu kesatuan atau organisasi [1]. menurut kusrini, sistem merupakan kumpulan elemen yang saling berkaitan yang bertanggung jawab memproses masukan (input) sehingga menghasilkan keluaran (output). dalam kusrini, menurut mc. leod mendefinisikan sistem sebagai sekelompok elemen-elemen yang teritegrasi dengan maksud yang sama untuk mencapai suatu tujuan [2]. menurut fitzgerald dkk dalam jogiyanto, sistem adalah suatu jaringan kerja dari prosedur-prosedur yang saling berhubungan, berkumpul bersama-sama untuk melakukan suatu kegiatan atau untuk menyelesaikan suatu sasaran tertentu [3]. pengertian sistem telah dikenal dan didefinisikan oleh banyak ahli. mengacu pada beberapa definisi sistem di atas, maka dapat disimpulkan bahwa sistem merupakan kumpulan elemen-elemen yang saling terkait dan membentuk kesatuan yang bertanggung jawab memproses masukan (input) sehingga menghasilkan keluaran (output) yang memiliki maksud yang sama untuk mencapai suatu tujuan. 3.2. konsep dasar sistem informasi menurut kristanto [4] suatu sistem mempunyai tujuan atau sasaran. tujuan biasanya dihubungkan dengan ruang lingkup yang lebih luas dan sasaran dalam ruang lingkup yang lebih sempit. sasaran dari sistem sangat menentukan masukan yang dibutuhkan sistem dan keluaran yang dihasilkan oleh sistem. sistem dapat dikatakan berhasil apabila dapat mencapai lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 57 tujuan atau sasaran. suatu informasi dikatakan bernilai apabila memiliki manfaat yang lebih efektif dan efisien jika dibandingkan dengan biaya untuk mendapatkannya. informasi dapat dihasilkan dari sistem informasi yang disebut juga pocessing system atau information processing system atau juga information generation system. sistem informasi adalah ”suatu kombinasi dari orang-orang, fasilitas, teknologi, media, prosedur-prosedur dan pengendalian yang ditujukan untuk mendapatkan jalur komunikasi penting, memproses tipe rutin tertentu, memberi sinyal kepada manajemen dan lainnya terhadap kejadian-kejadian internal dan eksternal yang penting menyediakan suatu dasar untuk pengambilan keputusan yang cerdik” [4]. menurut sutabri [5] sistem informasi adalah suatu sistem di dalam suatu organisasi yang mempertemukan kebutuhan pengolahan transaksi harian yang mendukung fungsi operasi organisasi yang bersifat manajerial dengan kegiatan strategi dari suatu organisasi. sistem informasi diharapkan dapat menyediakan kepada pihak luar tertentu dengan laporan yang diperlukan. 3.3. sistem informasi manajemen menurut o’brien, sistem informasi manajemen memberikan informasi dalam bentuk laporan dan tampilan kepada manajer dan banyak pelaku bisnis [6]. menurut jogiyanto, sistem informasi manajemen merupakan suatu penerapan sistem informasi di dalam organisasi untuk mendukung informasi-informasi yang dibutuhkan oleh semua tingkatan manajemen [3]. sistem informasi manajemen tergantung dari besar kecilnya organisasi dan dapat terdiri dari sistem sistem informasi sebagai berikut: 1.sistem informasi akuntansi (accounting information system); 2.sistem informasi pemasaran (marketing information system); 3.sistem informasi manajemen persediaan (inventory management information system); 4.sistem informasi personalia (personel information system); 5.sistem informasi distribusi (distribution information system);6.sistem informasi pembelian (purchasing information system); 7.sistem informasi kekayaan (treasury information system); 8.sistem informasi analis kredit (credit analysis information system); 8.sistem informasi penelitian dan pengembangan (research and development information system) 4. hasil dan pembahasan 4.1. menu master terdapat empat sub-menu pada menu master ini. sub-menu tersebut diantaranya master dosen, master admin, master rumpun ilmu dan master jenis nilai. pada dasarnya struktur pada empat sub-menu itu adalah sama, yang membedakan adalah data yang dimanipulasi. sebagai contoh akan ditampilkan sub-menu master dosen. untuk menampilkan data dosen yang sudah tersimpan pada database dapat diakses menu data dosen. pada menu tersebut terdapat pilihan untuk manipulasi data yaitu dapat menambah, mengubah dan menghapus data. untuk lebih jelasnya dapat dilihat pada gambar 4 berikut. gambar 4. menu data dosen jika ingin menghapus data, cukup memilih data yang ingin dihapus kemudian menekan tombol hapus. proses hapus ini tidak akan menghilangkan data dosen yang bersangkutan dari database, namun proses yang dilakukan adalah meng-update status dosen yang bersangkutan menjadi non-aktif. hal tersebut akan mengakibatkan dosen yang bersangkutan tidak akan lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 58 ditampilkan lagi pada menu data dosen. jika ingin mengubah data dosen, dapat dilakukan dengan memilih data yang akan diubah kemudian menekan tombol ubah. hal tersebut akan menampilkan form yang berisi data dosen yang ingin dirubah seperti pada gambar 5. selanjutnya dapat dirubah dan disimpan kembali perubahan yang dilakukan. jika ingin menambah data dosen, dapat menekan tombol tambah dan akan ditampilkan form seperti pada gambar 5 namun dalam keadaan kosong. untuk lebih jelasnya dapat dilihat pada gambar 5 berikut. gambar 5. menu ubah data dosen 4.2. usulan pada sistem informasi manajemen ini para peneliti (dosen) dapat mengajukan usulan penelitan melalui 5 tahap pengisian data usulan. untuk lebih jelasnya dapat dilihat pada gambar 6 sampai 10 berikut. gambar 6. usulan tahap 1 pada gambar 6 diatas adalah tahap pertama, pengusul akan mengisikan data berupa judul, abstrak, keyword, e-mail dan alamat. jika sudah selesai maka dapat menekan tombol selanjutnya untuk dapat masuk pada tahap 2 yang dapat dilihat pada gambar 7 berikut. gambar 7. usulan tahap 2 lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 59 pada gambar 7 diatas pengusul akan memilih rumpun ilmu yang sesuai dengan bidang penelitiannya dan memilih file proposal yang akan diunggah. utnuk tahun usulan dan tahun pelaksanaan akan terisi otomatis sesuai dengan periode usulan yang dibuka. gambar 8. usulan tahap 3 pada gambar 8 diatas, pengusul akan mengisi anggota penelitinya. untuk jumlah anggota peneliti disesuaikan dengan program penelitian atau hibah yang diikuti oleh yang bersangkutan. pengusul dapat langsung memilih data dosen yang akan menjadi anggota peneliti dan perannya. data dosen yang dapat dipilih adalah yang ada pada master data dosen. gambar 9. usulan tahap 4 pada gambar 9 diatas, pengusul akan memasukkan usulan dana penelitian yang diajukan. jika dalam penelitiannya juga terdapat sumber dana lain, dapat dimasukkan pada textbox yang ada. gambar 10. usulan tahap 5 lontar komputer vol. 7, no. 1, april 2016 p-issn 2088-1541 doi : 10.24843/lkjiti.2016.v07.i01.p06 e-issn 2541-5832 60 pada gambar 10 diatas adalah tahap akhir dari pengajuan usulan. pada tahap ke-5 ini, pengusul hanya perlu memilih program studi yang bersangkutan. secara otomatis data terkait dengan lembar halaman pengesahan akan terisi. 4.3. monitoring pada sistem ini setiap usulan yang diajukan akan dimonitoring oleh admin lppm. proses monitoring akan mengecek berkas yang diunggah ke dalam sistem. monitoring dilakukan mulai dari berkas usulan proposal, laporan penelitian, laporan penggunaan anggaran sampai pada publikasi yang dilakukan. untuk lebih jelasnya dapat dilihat pada gambar 11 berikut. gambar 11. monitoring usulan pada gambar diatas dapat dilihat kolom “progress” yang menandakan status dari berkas yang diunggah. admin dapat melihat data tim peneliti, judul, tahun usulan serta tahun pelaksanaan. aksi yang dapat dilakukan admin adalah mengecek berkas yang diunggah, mengecek detil usulan dan melakukan validasi jika berkas yang diunggah sudah dianggap valid. 5. kesimpulan berdasarkan hasil penelitian yang telah dilakukan melalui perancangan, implementasi dan analisis dapat disimpulkan beberapa hal sebagai berikut: ditemukan bahwa proses bisnis pengelolaan penelitian secara manual mengakibatkan berbagai permasalahan. permasalahan utama adalah pada rekapitulasi penelitian yang mengakibatkan informasi yang dihasilkan tidak akurat dan real time. sistem yang dibangun telah memiliki fitur-fitur mulai dari manajemen data master, manajemen usulan penelitian sampai pada manajemen laporan penelitian. semua proses manajemen tersebut telah dirancang untuk berjalan secara sistematis sehingga tingkat kesalahan yang disebabkan human error menjadi kecil. saran yang dapat diberikan untuk pengembangan penelitian ini selanjutnya adalah sebagai berikut: sistem dapat ditambahkan fitur-fitur seperti chating maupun mail untuk memudahkan komunikasi antara peneliti maupun admin. pada sistem terdapat halaman dashboard yang dapat melihat kinerja penelitian dosen pada stmik stikom indonesia. daftar pustaka [1] a. h. fatta, analisis dan perancangan sistem informasi untuk keunggulan bersaing perusahaan dan organisasi moderen. yogyakarta: andi, 2007. [2] kusrini, konsep dan aplikasi sistem pendukung keputusan. yogyakarta: andi, 2007. [3] h. m. jogiyanto, analisis dan desain sistem informasi: pendekatan terstruktur teori dan praktek aplikasi bisnis. yogyakarta: andi, 2006. [4] a. kristanto, perancangan sistem informasi dan aplikasinya. yogyakarta: gaya media, 2008. [5] t. sutabri, analisa sistem informasi. yogyakarta: andi, 2004. [6] j. a. o’brien and g. m. marakas, management information system, 9th ed. jakarta: salemba empat dan mcgraw-hill education, 2014. lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 382 rancang bangun aplikasi pengenalan aksara bali dengan metode kurva i gst. ag. bgs ananta putra1,i ketut gede darma putra2, ni kadek ayu wirdiani3 1, 2, 3jurusan teknologi informasi, fakultas teknik, universitas udayana bukit jimbaran, bali, indonesia, telp. +62361703315 email: gungnanta91@gmail.com1, darma.putra@ee.unud.ac.id2, ayu_wirdi@yahoo.com3 abstrak pengenalan aksara bali dahulunya dilakukan secara manual (dengan tenaga manusia) kini dilakukan secara otomatis (dengan mesin), yang dimana dahulunya mengalami kesulitan untuk mengenali tulisan atau aksara bali secara cepat dan akurat.aplikasi pengenalan aksara bali dibuat dengan menggunakan metode perhitungan kurva dan histogram proyeksi, yang termasuk didalam suatu teknik-teknik pengolahan citra digital.kedua metode tersebut dipilih dikarenakan dapat mengetahui pola-pola aksara bali yang mudah untuk dikenali dan dibandingkan. hasil dari perhitungan metode kurva berupa total nilai, sedangkan histogram proyeksi menghasilkan deret angka yang dihasilkan dari citra masukkan. aplikasi pengenalan aksara bali bertujuan untuk dapat membaca dan mengenali suatu citra aksara bali menjadi sebuah kata ataupun kalimat yang sesuai dengan pasang pageh bahasa bali. kata kunci: pengenalan tulisan, aksara bali, metode kurva, histogram proyeksi. abstract introduction to balinese writings were once done manually (by human power) is now done automatically (with the engine), which where formerly it difficult to recognize posts or balinese quickly and accurately. introduction to balinese applications made using the method of calculation of curves and histogram projection, which is included in the techniques of digital image processing. both methods were selected because patterns can know writing bali is easy to recognize and compared. the results of the calculation method of the curve in the form of the total value, while the projection histogram generate sequence of numbers that is processed from the image insert. bali handwriting recognition application aims to be able to read and recognize a balinese image into a word or phrase that is in accordance with the rules of balinese language. keywords: introduction to writing, balinese, methods curves, histogram projection. 1. pendahuluan perkembangan ilmu pengetahuan dan teknologi semakin pesat dan semakin canggih, dari perkembangan teknologi tersebut menyebabkan perubahan yang sangat besar dalam kehidupan.segala sesuatu yang dahulunya dilakukan secara manual (dengan tenaga manusia) kini dilakukan secara otomatis (dengan mesin). termasuk juga proses pengenalan aksara bali, yang dahulunya mengalami kesulitan untuk mengenali tulisan atau aksara bali. masalah tersebut membuat terciptanya aplikasi yang dapat membaca secara otomatis tulisan atau aksara bali, aplikasi tersebut disebut dengan aplikasi pengenalan aksara bali dengan metode kurva. aksara bali harus dilestarikan karena merupakan warisan nenek moyang dan sebagai identitas daerah.melihat kondisi dengan perkembangan teknologi dimana aksara bali mulai dilupakan, mailto:gungnanta91@gmail.com mailto:ayu_wirdi@yahoo.com lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 383 maka perlu dilakukan pembelajaran tentang aksara bali agar bahasa bali ataupun aksara bali tidak punah.banyak upaya yang dapat dilakukan dengan memanfaatkan kemajuan teknologi untuk membantu pembelajaran aksara bali.salah satu upaya yang dapat dilakukan adalah dengan membuat suatu aplikasi yang dapat mengenali aksara bali atau dapat dikatakan bisa membaca aksara bali secara otomatis. penelitian mengenai pengenalan aksara bali dapat dilakukan dengan memanfaatkan teori pengolahan citra digital.beberapa karakteristik atau ciri dari bentuk, lengkung, dan jenis aksara dapat dikenali menggunakan teori-teori pengolahan citra digital. aplikasi pengenalan aksara bali yang dibuat menggunakan 2 (dua) jenis metode perhitungan yaitu menggunakan histogram proyeksi dan metode kurva yang memiliki proses perhitungan yang hampir sama. histogram proyeksi dan metode kurva sama-sama digunakan untuk dapat mengekstraksi ciri dari citra aksara bali yang dimasukkan agar dapat dikenali. aplikasi pengenalan aksara bali dibuat dengan berbasiskan desktop (computer atau pc) dengan menggunakan aplikasi pemrograman java, sehingga diperlukan instalasi java virtual mecine ke komputer agar aplikasi yang dibuat dan digunakan. berdasarkan latar belakang yang dijelaskan diatas dapat dirumuskan masalah seperti, bagaimana cara mengenali tulisan atau aksara bali berdasarkan ektraksi fitur dengan menggunakan histogram proyeksi dan metode kurva sehingga dapat dikenali dan mempunyai ciri khusus dari setiap aksara, dan bagaimana aplikasi pengenalan tulisan atau aksara bali dapat mengolah inputberupa citra aksara bali sehingga menghasilkan output berupa kata yang sesuai dengan aksara bali yang dimasukkan tujuan yang diharapkan dari penelitian ini antara lainmembuat pengenalan citra aksara bali berdasakan pola aksaranya dapat diaplikasikan pada media komputer atau pc (personal computer), dan menerapkan metode kurva dan metode histogram proyeksi untuk mengenali pola dari aksara bali. batasan permasalahan dari penelitian ini antara lain aplikasi ini input data berupa citra aksara bali dengan latar belakang citra berwarna putih, hal ini dilakukan untuk memudahkan dalam pemisahan citra aksara bali dengan latar belakangnya dan dapat memperjelas pola dari aksara bali itu sendiri.aplikasi yang dirancang dari pengenalan masing-masing aksara bali, dan dapat dirangkai hingga membentuk kata dalam bahasa bali sesuai dengan pasang pageh bahasa bali.metode yang digunakan untuk penyelesaian pengenalan tulisan atau aksara bali adalah metode ekstraksi ciri atau pola dengan histogram proyeksi dan metode kurva. 2. metodologi penelitian metodologi penelitian ini menggunakan perhitungan dengan metode kurva dan menggunakan perhitungan histogram proyeksi untuk mengetahui suatu pola yang dimiliki oleh aksara bali.aksara bali memiliki pola dan lekukan-lekukan yang unik dan jarang dapat ditemui di aksara lainnya.alur analisis dideskripsikan dalam penjelasan yang memperlihatkan dan menjelaskan proses dalam perancangan dan pembuatan aplikasi. tahap-tahap analisis yang dilakukan didalam penelitian mengenai pengenalan aksara bali adalah mencari permasalahan terkait aplikasi pengenalan aksara bali didefinisikan terlebih dahulu dengan menganalisa kebutuhan sistem dan kebutuhan bagi pengguna.apabila data terkait perancangan dan pembuatan sistem sudah berhasil dikumpulkan melalui studi literatur dan observasi, dan jika dirasa kurang cukup, maka studi literatur dan observasi terus dilakukan sampai data dan penjelasan dari data tersebut diarasa cukup.apabila data yang dikumpulkan dari literature sudah cukup, maka dilakukan permodelan sistem untuk menganalisis alur kerja sistem. apabila belum benar, maka akan dilakukan koreksi, dan apabila sudah, akan dilanjutkan ke proses selanjutnya yaitu proses perancangan basisdata dan pemrograman aplikasi. terakhir yang perlu dilakukan didalam pembuatan suatu aplikasi adalah pengujian terhadap aplikasi yang dibuat, dimana jika terjadi kegagalan, maka akan dilakukan kembali lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 384 perbaikan terhadap aplikasi yang dibuat, dan apabila pengujian berhasil dilakukan maka akan dilanjutkan ke tahap akhir. metode yang digunakan dalam penelitian ini adalah metode kurva dan metode hisogram proyeksi. kedua metode tersebut memiliki proses perhitungan yang berbeda dan memiliki keunikan didalam proses perhitungannya, berikut ini penjelasan dari metode yang digunakan didalam penelitian: a. metode histogram proyeksi perhitungan histogram proyeksi merupakan perhitungan yang dilakukan untuk mengetahui berapa banyak kolom ataupun baris yang berisikan warna hitam.didalam kasus ini dilakukan perhitungan terhadap huruf (pa) dalam aksara bali. berikut ini adalah contoh perhitungannya : gambar 1. perhitungan histogram proyeksi gambar 1.didapatkan kode berupa angka sebagai ciri khas dari citra aksara bali (pa), yang dihitung mulai dari garis horizontal baru dilanjutkan dengan garis vertikal. citra aksara bali (pa) menghasilkan kode 241144044350, kode tersebut disimpan didalam basisdata, dan digunakan kode acuan sebagai kode pengenalan aksara bali[1]. b. metode kurva kurva dapat dipresentasikan sebagai kumpulan titik-titik persamaan berbentuk non-parametrik ataupun parametrik.persamaan yang terbentuk didalam kurva menggunakan dua koordinat yaitu x dan y untuk bidang 2 dimensi (2d), adapun kurva yang memiliki 3 buah koordinat x,y,z, merupakan kurva ruang yang sering disebut 3 dimensi (3d). kurva polinomial pada umumnya menggunakan representasi parametrik.adanya suatu fungsi yang perhitungannya sederhana namun dapat menggambarkan berbagai variasi kurva.fungsi polinomial dikatakan cukup memenuhi kriteria untuk menghitung variasi kurva, dikarenakan hal tersebut fungsi polinomial banyak digunakan sampai saat ini. bentuk umum dari fungsi polinomial adalah sebagai berikut: 0 0 0 0 0 0 1 1 0 0 1 1 1 1 0 0 1 1 0 1 0 0 1 1 0 1 1 1 1 1 0 0 0 0 0 0 2 4 1 1 4 4 0 4 4 3 5 0 lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 385 (1) rumus perhitungan kurva polinom tersebut menghitung keseluruhan titik-titik koordinat yang memiliki variasi tersendiri.dimana n adalah derajat polinomial tersebut.berbagai variasi kurva dapat disajikan tergantung pada derajat yang digunakan.misalnya, polinomial derajat satu (linear) hanya dapat menggambarkan garis lurus, polinomial derajat dua (kuadratik) dapat menggambarkan parabola.fungsi ini belum memiliki titik belok (point of inflection), suatu titik dimana kurva berubah dari cembung ke cekung atau sebaliknya. namun titik ini dapat diperoleh dengan menggabungkan beberapa polinomial derajat dua menjadi satu kurva utuh.kurva yang dibahas adalah kurva yang merupakan hasil gabungan polinomial-polinomial berderajar n. kurva ini dikenal dengan kurva spline.kurva spline dapat didefinisikan sebagai gabungan potongan-potongan polinomial (piecewise polynomial fuction) yang didefinisikan sepanjang interval tertentu. berikut ini contoh persamaan kurva spline : x(t) = 2t + 7, y(t) = 4t + 11 0 ≤ t ≤ 1 (2) x(t) = t2 +7t +1, y(t) = t2 + 5t + 9 1 ≤ t ≤ 2 (3) polinomial derajat tiga (kubik) adalah polinomial yang dapat dikatakan sebagai standar dalam penyajian kurva, dikarenakan polinomial ini cukup fleksibel dan mampu merepresentasikan bermacam-macam bentuk kurva.semakin tinggi suatu derajat polinomial, memang semakin baik hasil gambar yang direpresentasikan, namun perhitungan yang dilakukan juga semakin besar dan rumit.karena hal tersebut, umumnya polinomial kubik yang digunakan dalam penyajian kurva.gambar 2.12 berikut ini merupakan contoh gambar kurva spline yang menggambarkan 26 titik polinomial kubik. gambar 2. contoh aksara bali “pa”setelah ditentukan titing perpotongan polinomial kubik gambar 2.merupakan salah satu gambar kurva spline yang dipisahkan berdasarkan titik-titik potong yang ada pada gambar. masing-masing titik potongnya dihitung dengan persamaan (f(kurva)=(x+y)+(x2+y2)….(xn+yn)) yang dimana perhitungan tersebut merupakan suatu perhitungan kurva yang kontinu. kedua metode tersebut diambil dikarenakan aksara bali memiliki keunikan dari bentuk, ciri, dan lengkungan yang hanya aksara bali yang memiliki keunikan tersebut sehingga cocok untuk dihitung berdasarkan metode kurva dan histogram proyeksi. aksara merupakan salah satu 2 0 1 3 4 5 6 1 2 3 4 5 6 7 8 9 10 11 x y lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 386 jenis simbul visual dari suatu bahasa.bahasa bali dapat ditulis dengan dua jenis simbul yaitu dengan tulisan bali dan tulisan bali latin.tulisan bali erat hubungannya dengan pasang aksara bali, karena kalau salah menulis bisa menimbulkan arti lain lebih-lebih kata-kata yang homonim. menurut keputusan pasamuhan agung tersebut ejaan bahasa bali dengan huruf latin itu disesuaikan dengan ejaan bahasa indonesia, maksud dari hal tersebut ejaannya dibuat sesederhana-sesederhananya dan ejaan itu harus fonetik, artinya tepat atau mendekati ucapan yang sebenarnya berdasarkan penjelasan mengenai aksara bali maka ditetapkan hurufhuruf yang dipakai untuk menuliskan bahasa bali dengan huruf latin sebagai berikut [2] : a. aksara suara (vokal) : a, e, i, u, e, o (enam buah, telah diubah pepet dan taling sama) b. aksara wianjana (konsonan): h, n, c, r, k, g, t, m, ng, b, s, w, l, p, d, j, y, ny, (18 buah) data aksara tersebut digunakan sebagai pedoman didalam penelitian untuk dijadikan sebagai bahan acuan dari berhasil atau tidaknya pengenalan aksara bali di dalam aplikasi yang dibuat.data aksara yang berupa image atau gambar tersebut diolah menggunakan teknik pengolahan citra digital.pengolahan citra digital merupakanpemrosesan gambar 2 dimensi menggunakan computer.pengolahan citra apabila berada dialam konteks yang lebih luas, pengolahan citra digital mengacu pada pemrosesan setiap data 2 dimensi. citra digital merupakan sebuah larik (array) yang berisi nila-nilai real maupun kompleks yang direpresensatikan dengan deretan bit tertentu. suatu citra dapat didefinisikan sebagai fungsi(x,y) berukuran m baris dan n kolom, dengan x dan y adalah koordinat spasial, dan amplitude f di titik koordinat (x,y) dinamakan intensitas atau tingkat keabuan dari citra pada titik tersebut. apabila nilai x,y dan amplitude f secara keseluruhan berhingga (finite) dan bernilai diskrit maka dapat dikatakan bahwa citra tersebut adalah citra digital.[3] pengolahan citra adalah pemrosesan citra, khususnya dengan menggunakan komputer, menjadi citra yang kualitasnya lebih baik.pengolahan citrabertujuan memperbaiki kualitas citra agar mudah diinterpretasi oleh manusia atau mesin (dalam hal ini komputer). teknik-teknik pengolahan citra mentransformasikan citra menjadi citra lain. jadi, masukannya adalah citra dan keluarannya juga citra dapat dilihat pada penjelasan melalui gambar 5. gambar 3. operasi pengolahan citra pengolahan citra terbagi menjadi beberapa bagian, yang masing-masing mempunyai fungsi untuk memperbaiki citra ataupun memperjelas citra tersebut, berikut ini adalah bagianbagiannya antara lain dari, peningkatan kualitas citra (image enhancement), pemulihan citra (image restoration), pemampatan citra, analisis citra, segmentasi citra, rekonstruksi citra, dan lain-lain[4]. umumnya, operasi-operasi pengolahan citra diterapkan pada citra apabila citra memerlukan perbaikan atau memodifikasi citra perlu dilakukan untuk meningkatkan kualitas penampakan atau untuk menonjolkan beberapa aspek informasi yang terkandung di dalam citra, dan elemen di dalam citra perlu dikelompokkan, dicocokkan atau diukur sebagian citra perlu digabung dengan bagian citra yang lain[5]. 3. gambaran umum sistem gambaran umum sistem pengenalan aksara bali ada 2 jenis, yaitu proses pendaftaran aksara dan gambaran umum proses pengenalan aksara bali, dapat dijelaskan pada penjelasan berikut ini: lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 387 1. gambaran umum pendaftaran aksara bali proses pedaftaran aksara bali memiliki 3 proses utama yaitu, akuisisi citra, preprocessing, dan ektraksi fitur. pendaftaran aksara bali akuisisi citra preprocessing ektraksi fitur basisdata aksara segmentasi gambar 4. gambaran umum pendaftaran aksara bali gambar 4, menjelaskan tentang tahapan pendaftaran aksara bali kedalam aplikasi pengenalan tulisan atau aksara bali, dapat dijelaskan tahapan pertama adalah tahapan akuisisi citra yang merupakan tahapan untuk mengumpulkan data berupa citra digital dari aksara bali melalui kamera digital. apabila tahap akuisisi citra sudah berhasil maka masuk kedalam tahapan preprocessing, yang merupakan tahapan mengubah citra yang telah dikumpulkan menjadi ukuran yang lebih kecil (resize) sesuai dengan kebutuhan sistem.selanjutnya citra dikonversi menjadi citra keabuan (grayscale). citra tersebut kemudian dikonversi menjadi biner atau dilakukan tahap thresholding, apabila telah mendapatkan hasil citra di threshold maka selanjutnya dilakukan proses thinning. thinning dilakukan agar citra hanya berukuran satu pixel, hal tersebut bertujuan mempermudah proses perhitungan histogram proyeksi dan perhitungan metode kurva. tahap segmentasi merupakan tahapan untuk mengenali panjang ukuran dari suatu citra input. segmentasi dapat mengetahui berapa lebar citra input, berapa panjang dari citra input. aplikasi pengenalan aksara bali menggunakan teknik segmentasi secara manual tanpa metode, dengan hitungan dimulai apabila program menemukan pixel hitam pertama dari sebelah kiri citra input dan berakhir ketika program menemukan pixel yang berisikan warna putih.tahap ekstraksi fitur merupakan tahapan dalam mengubah citra kedalam bentuk angka yang digunakan sebagai ciri dari citra tersebut.ekstraksi fitur adalah histogram proyeksi dan metode kurva.nilai fitur tersebut kemudian disimpan pada basisdata. 2. gambaran umum pengenalan aksara bali proses pengenalan aksara bali ini memiliki 6 proses yang berjalan, yaitu akuisisi citra, preprocessing, segmentasi citra, ektraksi fitur, pengenalan, dan hasil. pengenalan aksara bali akuisisi citra preprocessing ektraksi fitur basisdata aksara pengenalan hasil pengenalansegmetasi gambar 4. gambaran umum proses pengenalan aksara bali keterangan dari gambar 4 yang merupakan tahapan-tahapan yang terjadi pada saat proses pengenalan aksara bali, tahapan pertama dimulai dari tahapan akuisisi citra merupakan lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 388 tahapan untuk mengumpulkan data berupa citra digital dari aksara bali melalui kamera digital. dilanjutkan dengan tahapan preprocessing, tahapan ini merupakan tahapan mengubah citra yang telah dikumpulakan menjadi ukuran yang lebih kecil (resize) yaitu 50 x 50 pixel.selanjutnya citra dikonversi menjadi citra keabuan (grayscale). citra tersebut kemudian dikonversi menjadi biner atau dilakukan tahap thresholding, setelah citra berhasil di threshold maka selanjutnya dilakukan proses thinning agar citra hanya berukuran satu pixel dan mudah dilakukan proses perhitungan histogram proyeksinya, selanjutnya dilakukan proses segmentasi dan scaling pada citra agar histogram proyeksinya dapat melakukan proses perhitungan. apabila citra sudah baik dan dianggap layak untuk dilakukan proses perhitungan, maka dilanjutkan dengan tahap segmentasi. tahap segmentasi merupakan tahapan untuk mengenali panjang ukuran dari suatu citra input. segmentasi dapat mengetahui berapa lebar citra input, berapa panjang dari citra input. aplikasi pengenalan aksara bali menggunakan teknik segmentasi secara manual tanpa metode, dengan hitungan dimulai apabila program menemukan pixel hitam pertama dari sebelah kiri citra input dan berakhir ketika program menemukan pixel yang berisikan warna putih. citra yang sudah disegmentasi dilanjutkan dengan proses pencarian ciri khusus dari masing-masing citra aksara bali yang dimasukkan, tahap ini disebut dengan tahap ekstraksi fitur. tahap ekstraksi fitur merupakan tahapan dalam mengubah citra kedalam bentuk angka yang digunakan sebagai ciri dari citra tersebut.ekstraksi fitur adalah histogram proyeksi dan metode kurva.nilai fitur tersebut kemudian disimpan pada basisdata. citra aksara bali yang telah menghasilkan ciri khusus dan disimpan didalam basis data, maka dilanjutkan dengan tahap pengenalan. tahapan pengenalan dilakukan dengan pencocokan hasil dari histogram proyeksi dari masing-masing citra aksara, misalnya citra ha menghasilkan histogram proyeksi 333222999000, angka tersebut akan dicocokan dengan data di dalam basisdata aksara bali.tahapan terakhir dari pengenalan aksara bali yaitu proses menampilkan hasil dari pengenalan aksara bali yang sudah menjadi huruf latin yang berbahasa bali namun tidak menggunakan spasi karena karakter aksara bali pada penulisannya tidak mengenal spasi atau dapat dikatakan aksara jalan. 4. hasil dan pembahasan 4.1 hasil pengujian yang dilakukan pada aplikasi pengenalan aksara bali ini antara lain pengujian user interface dan ketepatan mengenali aksara bali yang diinputkan kedalam aplikasi, berikut ini adalah penjelasan dari 2 pengujian hasil dari aplikasi, yang pertama adalah tahapan pengujian interface dari aplikasi yang dibuat dan dilanjutkan dengan tahapan pengenalan aksara bali yang diinputkan. tahapan pengujian ini bertujuan untuk mengecek apakah user interface yang telah dibuat sudah dimengerti oleh pengguna. pengujian ini sangat penting untuk dilakukan karena, apabila user tidak dapat menggunakan aplikasi ini karena user interface-nya susah dimengerti, maka aplikasi ini tidak akan menggunakan aplikasi ini. pertama yaitu pengujian splash screen dan tampilan menu dari aplikasi, pada gambar 6 dan gambar 7 akan memperlihatkan tampilan user inte rfac e : lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 389 gambar 6.tampilan splash screen gambar 7. tampilan menu aplikasi apabila tampilan splash screendan tampilan menu utama aplikasi berhasil berjalan dengan baik, maka userakan dihadapkan dengan pilihan memulai pengenalan aksara bali, proses pengenalan aksara bali memiliki tampilan utama, gambar 8 akan memperlihatkan tampilan utama pengenalan aksara bali : gambar 8. tampilan pengenalan aksara bali gambar 8.diatas dapat dijelaskan sebagai tampilan yang berfungsi untuk menampilkan proses pengenalan aksara bali dari mulai gambar aksara diinputkan sampai dengan dikenali dan menampilkan hasilnya berupa huruf latin dari aksara tersebut. pengujian pengenalan aksara bali adalah bagian utama dari aplikasi pengenalan tulisan atau aksara bali ini.pengujian ini bertujuan untuk mengetahui keberhasilan aplikasi untuk mengenali aksara bali yang telah tersimpan didalam basisdata.pengujian ini juga digunakan untuk mendapatkan data analisis unjuk kerja dari aplikasi. tahap pertama dari pengujian ini adalah menginputkan citra aksara bali dengan menekan button inputcitra. selanjutnya muncul tempat penyimpanan citra yang bisa dipilih tempat dimana citra yang ingin dikenalin disimpan. gambar 9 ini merupakan proses penginputan citra aksara bali. gambar 9. proses input citra aksara baligambar 10. citra aksara bali yang dimasukkan setelah melakukan proses penginputan dari aksara bali, maka dilanjutkan dengan preprocessing,segementasi, dan pengenalan, dimana masing-masing proses tersebut memiliki tujuannya masing-masing, seperti preprocessingbertujuan untuk memperbaiki citra yang diinputkan agar bersih dan dapat diperjelas agar mudah untuk dikenali, sedang proses segmentasi citra bertujuan untuk melakukan blok-blok untuk mengenali satu citra (dapat dilihat pada gambar 12), dan terakhir yaitu proses pengenalan aksara bali yang diinputkan menjadi lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 390 huruf latin (dapat dilihat pada gambar 13), berikut ini masing-masing tampilan proses pengenalan aksara bali : gambar 11. pre processing gambar 12. segmentasi gambar 12. segmentasi gambar 10, gambar 11, dan gambar 12, merupakan tampilan program yang berada pada proses pengenalan citra aksara bali yang dimasukkan, gambar 10 menjelaskan bagaimana citra masukan diproses menjadi sebuah citra yang baik dan siap untuk diolah datanya. gambar 11 merupakan proses segmentasi citra yang berfungsi untuk mengenali bagian-bagian dari citra masukkan, atau dapat dikatakan proses pemilahan citra aksara bali. gambar 12 merupakan proses pengenalan citra aksara bali yang dimasukkan sehingga menghasilkan kata didalam bahasa bali yang sesuai dengan pasang pageh bahasa bali dan sesuai dengan citra masukkan. 4.2 pembahasan analisis terhadap sistem aplikasi pengenalan aksara bali dilakukan terhadap tingkat kebenaran dari pengenalan aksara bali yang dimasukkan dan dapat dikenali dengan benar.analisis sistem juga dilakukan untuk mengetahui kelayakan sistem serta kelebihan dan kekurangan aplikasi. tingkat keberhasilan aplikasi dihitung berdasarkan jumlah keberhasilan pengenalan dibagi jumlah proses pengenalan dikalikan seratus 100%. %𝐾𝑒𝑏𝑒𝑟ℎ𝑎𝑠𝑖𝑙𝑎𝑛 = ( 𝑗𝑢𝑚𝑙𝑎ℎ 𝑘𝑒𝑏𝑒𝑟ℎ𝑎𝑠𝑖𝑙𝑎𝑛 𝑝𝑒𝑛𝑔𝑒𝑛𝑎𝑙𝑎𝑛 𝑗𝑢𝑚𝑙𝑎ℎ 𝑝𝑟𝑜𝑠𝑒𝑠 𝑝𝑒𝑛𝑔𝑒𝑛𝑎𝑙𝑎𝑛 ) 𝑥 100% (4) sebelum mencari tingkat keberhasilan dari aplikasi, aplikasi diuji terlebih dahulu dengan cara memasukkan aksara bali dari buku lks widya gunahal. 52, dan diperoleh data seperti pada tabel 4.1 berikut ini : tabel 1. data uji coba aksara no nama citra karakter sebenarnya karakter terdeteksi karakter dikenali dengan benar karakter dikenali dengan salah karakter tidak dikenali persentase kebenaran 1 baris 1 – bag 1 11 11 9 2 81% 2 baris 1 – bag 2 13 13 13 100% 3 baris 1 – bag 3 8 8 8 100% 4 baris 1 – bag 4 5 5 4 1 80% 5 baris 2 – bag 1 9 9 7 1 1 77,77% 6 baris 2 – bag 2 9 9 9 100% 7 baris 2 – bag 3 6 6 6 100% 8 baris 2 – bag 4 14 14 14 100% 9 baris 3 – bag 1 7 7 7 100% 10 baris 3 – bag 2 10 10 9 1 90% 11 baris 3 – bag 3 8 8 7 1 87,50% 12 baris 3 – bag 4 10 10 10 100% 13 baris 4 – bag 1 4 4 4 100% 14 baris 4 – bag 2 12 12 11 1 91,67% 15 baris 4 – bag 3 13 13 12 1 92,31% 16 baris 4 – bag 4 13 13 11 2 84,61% lontar komputer vol. 5, no. 1,april 2014 issn: 2088-1541 391 17 baris 5 – bag 1 4 4 4 100% total 156 156 144 6 5 92,31% berdasarkan tabel 1. dapat dijelaskan bahwa total karakter sebenarnya dari citra yang di-inputkan adalah 156 karakter. karakter aksara bali yang dikenali dengan benar adalah 144 karakter, dan karakter yang dikenali dengan salah sebanyak 6 karakter, dengan presentase keberhasilan 92,31% yang dicari dengan cara aksara bali yang dikenal dan benar dibagi oleh total sebenarnya aksara bali yang dimasukkan. perbandingan jumlah karakter sebenarnya dengan karakter terdeteksi dipengaruhi oleh jarak antara karakter aksara bali. 5. kesimpulan berdasarkan pada rumusan masalah serta pengujian dan analisis yang telah dilakukan, maka didapatkan 2 buah simpulan dari aplikasi pengenalan aksara bali, pertama pengenalan pola aksara bali dilakukan dengan mengubah citra aksara bali menjadi lebih tipis atau dapat disebut thinning(pengurusan), selanjutnya dilakukan proses segmentasi citra untuk mengetahui panjang dan lebar dari aksara bali yang dimasukkan, apabila proses preprocessing telah selesai, maka dilanjutkan dengan ektraksi ciri menggunakan metode kurva dan histogram proyeksi untuk mendapatkan pola-pola unik dari masing-masing aksara bali, dan data dari hasil perhitungan tersebut yang akan digunakan untuk melakukan proses pengenalan aksara.metode kurva dan histogram proyeksi berdasarkan hasil analisa aplikasi mendapatkan tingkat keberhasilan mengenali aksara bali di dalam buku widya sari bahasa bali dengan persentase 92,31%. akurasi pada proses pengenalan dipengaruhi saat akuisisi citra, dimana terdapat jarak dari satu aksara ke aksara lainnya. daftar pustaka [1] pratiwi, a., made, n.,“pengenalan aksara bali dengan pendekatan metode direction feature dan area binary object feature”, surabaya, 2013. [2] tinggen, i. n.,“ejaan bahasa bali dengan huruf latin dan huruf bali”, singaraja: rhika dewata, 1996. [3] darma putra,“pengolahan citra digital”, yogyakarta,penerbit : andi.hal.19, 2010. [4] ayu wirdiani, n. k.,“pembentukan pola khusus untuk ekstraksi ciri pada sistem pengenalan aksara bali cetak”, denpasar: (tesis s2 teknik elektro, universitas udayana), 2011. [5] merlindriati.staff.gunadarma.ac.id/download/artikel1.pdf [diakses tanggal (5 maret 2014) lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 312 content-based image retrieval menggunakan walshlet pyramid dan gabor wavelet ni nyoman budiasih akademi manajemen informatika dan komputer new media bali email : komang.budiasih@gmail.com abstrak content-based image retrieval (cbir) merupakan salah satu media pencarian informasi berupa gambar yang banyak digunakan. cbir dikembangkan dengan menerapkan tiga metode, walshlet pyramid, gabor wavelet dan penggabungan walshlet pyramid dengan gabor wavelet. cbir dimulai dengan subsistem indexing dilanjutkan dengan subsistem searching. pengujian menunjukan aplikasi dengan metode penggabungan memberikan hasil yang lebih baik, rata-rata 81% citra dapat ditemukan kembali pada metode penggabungan. metode walshlet pyramid menunjukan rata-rata 73% citra dapat ditemukan kembali, sedangkan rata-rata 68% citra dapat ditemukan kembali dengan menggunakan metode gabor wavelet. sistem content-based image retrieval yang mengutamakan singkatnya waktu dalam pencarian citra lebih baik menggunakan metode walshlet pyramid akan tetapi untuk sistem yang mengutamakan kesesuaian citra dapat menggunakan metode penggabungan. kata kunci: content-based image retrieval, walshlet pyramid, gabor wavelet, indexing, searching. abstract information is a high need in the community need for information not only on the information in the form of text, but also images. content-based image retrieval is one of the media information retrieval is an image that is widely used. the author developed the image retrieval by applying the three methods, walshlet pyramid, gabor wavelet and merging walshlet with gabor wavelet pyramid. applications were made starting with the indexing subsystem by subsystem continued searching. tests show that the use by the incorporation method gives better results, on average 81% image can be recovered on the method of incorporation. pyramid walshlet method showed an average of 73% of the image can be recovered, while the average 68% of the image can be recovered by using the gabor wavelet.content-based image retrieval system that prioritizes the shortness of time in search of a better image walshlet pyramid method but for a system that promotes conformity to the image using the method of incorporation. keywords: content-based image retrieval, walshlet pyramid, gabor wavelet, indexing, searching. 1. pendahuluan image retrieval adalah suatu sistem penemuan kembali informasi dalam bentuk citra dengan mengukur kemiripan antara citra yang tersimpan dalam basis data dengan citra query yang dimasukkan oleh pengguna. image retrieval adalah suatu sistem penemuan kembali informasi dalam bentuk citra (gambar) dengan mengukur kemiripan (similarity) antara citra yang tersimpan dalam basis data dengan citra query yang dimasukkan oleh pengguna[1]. image retrieval dengan pencarian berdasarkan teks memiliki ketergantungan yang sangat tinggi terhadap pengguna karena pendeskripsian citra yang akan dicari sesuai dengan pemahaman pengguna terhadap citra tersebut sehingga bersifat subjektif. untuk mengatasi hal tersebut dilakukan pencarian yang bersifat objektif yaitu berdasarkan content atau isi dari citra. pencarian citra berdasarkan content citra disebut dengan content-based image retrieval (cbir). lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 313 peneltian pada cbir banyak dilakukan, penelitian untuk proses cbir dengan menggunakan metode walshlet pyramid telah dilakukan oleh h.b.kekre dan sudeep d. thepadepada tahun 2010, penelitian ini membandingkan metode walshlet pyramid dengan metode walsh. hasil penelitian menunjukan metode walslet pyramid memiliki performansi yang lebih baik dari walsh. penelitian dengan menggunakan metode gabor wavelet dilakukan olehantonio v. netto, dkk pada tahun 2003 dimana pada penelitian citra yang digunakan merupakan citra yang berhubungan dengan mata. pada penelitian ini dilakukan perbandingan sistem cbir yang menggunakan metode walshlet pyramid,gabor wavelet dan penggabungan kedua metode tersebutberdasarkanperformansi sistem dalam menampilkan citra yang relevan dan waktu pencarian citra. 2. metodologi penelitian data yang digunakan pada sistem terdiri dari data latih dan data uji. data latih yang digunakan dalam penelitian iniadalah citra digital yang diambil dari kelompok penelitian james z. wang yang penelitiannya meliputi penandaan gambar otomatis, informatika biomedis, dan sebagainya dengan link http://wang.ist.psu.edu/~jwang/test1.tar, di dalam file test1.tar terdapatdatabasecitra yang berisikan 1000 gambar digital yang secara umum dibagimenjadi 10 kelompok, yaitu orang afrika, gajah, pantai, bunga, bangunan, kuda, bus, pemandangan, dinosaurus dan makanan. secara umum penelitian yang dilakukan sesuai dengan gambar 1. gambar 1. gambar sistem secara umum sesuai dengan gambaran umum dari sistem yang akan dibuat dalam penelitian ini, tahapannya dapat dirinci sebagai berikut: subsistem penyimpanan dan pencarian citra dijelaskan sebagai berikut : 1. subsistem penyimpanan citra a. membaca citra yang akan disimpan pada database. format citra adalah *.jpg, ukuran citra yang dibaca adalah 256x256. b. praproses yang dilakukan adalah mengekstrak citra untuk mendapatkan color planedan gray plane dari citra. color plane didapatkan dengan mengambil nilai masing-masing komponen red, green dan blue. sedangkan gray plane merupakan fitur keabu-abuan citra. c. mengekstrak fitur citra menggunakan metode walshlet pyramid dan gabor wavelet. ekstraksi citra dengan walshlet pyramidsampai dengan penentuan level transformasi yang dilakukan.mengekstrak fitur citra menggunakan metode gabor wavelet, dimulai dari ekstraksi citra sampai mendapatkan fitur real dan imaginercitra hasil transformasi. d. menyimpan informasi citra beserta hasil ekstraksi walshlet pyramid, gabor wavelet yang diperoleh ke dalam database. 2. subsistem pencarian citra database similarity warna tekstur ranking ekstraksi ciri ekstraksi ciri walshlet pyramid gabor wavalet walshlet pyramid gabor wavalet penggabungan walshlet pyramid dan gabor wavalet sub sistem penyimpanan sub sistem pencarian http://wang.ist.psu.edu/~jwang/test1.tar lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 314 a. membaca citra query. format citra query adalah *.jpg. b. praproses yang dilakukan adalah mendapatkan color planedan gray planedari citra. c. mengekstrak fitur citra menggunakan metode walshlet pyramid dangabor wavelet. d. membandingkan fitur citra query dengan fitur citra dalam database. e. menghitung nilai similarity antara citra query dengan citra pada database berdasarkan metode yang dipilih untuk digunakan. f. mengurutkan citra berdasarkan nilai similarity secara descending (menurun). 3. kajian pustaka sistem ini terdiri dari dua subsistem yaitu penyimpanan dan pencarian citra. pada subsistem penyimpanan, dilakukan proses ekstraksi fitur citra dengan menggunakan metode walshlet pyramid, gabor wavelet dan penggabungan kedua metode tersebut. 3.1. metode walshlet pyramid sistem ini terdiri dari dua subsistem yaitu penyimpanan dan pencarian citra. proses pada subsistem penyimpanan merupakan proses pembacaan, praproses, ekstraksi citra dengan metode walshlet pyramid, kemudian menyimpan fitur-fitur visual citra ke dalam database. proses ini dilakukan oleh admin sebelum user melakukan proses pencarian citra. kemudian dilakukan proses ekstraksi fitur seperti warna dan tekstur. hasil dari ekstraksi fitur ini disimpan ke dalam database beserta informasi-informasi lain yang diperlukan mengenai citra. gambar 2. gambar cibr dengan metode walshlet pyramid subsistem yang kedua adalah proses pencarian citra. proses ini diawali dengan user menginputkan sebuah citra sebagai query. kemudian citra query mengalami praproses dan ekstraksi menggunakan metode walshlet pyramid sama seperti pada subsistem penyimpanan citra, sehingga diperoleh fitur citra yang sama yaitu warna dan tekstur. fitur-fitur query inilah yang dibandingkan dengan fitur setiap citra yang ada di dalam database melalui proses similarity. hasil dari proses similarity adalah sejumlah citra dengan nilai similarity masing-masing. nilai inilah yang diurutkan pada proses perangkingan yaitu dari nilai similarity terbesar hingga terkecil. sehingga citra hasil yang ditampilkan terurut berdasarkan tingkat kemiripannya. semakin besar nilai similarity maka citra yang dihasilkan semakin mirip dengan citra query. proses pada transformasi walshlet, secara lebih jelas dideskripsikan sesuai dengan gambar 2 dan penjelasan tahap metodenya sesuai dengan gambar 3. dimana tahapan metode walshlet yaitu [2] : 1. terapkan transformasi walsh ukurannxn terhadap citra ukuran nxn untuk mendapatkan citra hasil transformasi walshdigunakan pendekatan komponen (wia), horisontal (wih), vertikal (wiv) dan diagonal (wid). winxn = [wia, wih, wiv, wid] = [wnxn] [inxn] [w’nxn]………...(1) 2. ganti horisontal (wih), vertikal (wiv) dan diagonal (wid) komponen dengan nol untuk mendapatkan citra walsh 'mwi' yang dimodifikasi. mwinxn=[wia, zero, zero, zero]………………………………(2) 3. terapkan walsh invers transformasi pada gambar walsh dimodifikasi databasecitra sub sistem penyimpanan sub sistem pencarian citra query ekstraksi fitur praproses walshlet pyramid ekstraksi fitur praproses walshlet pyramid ranking citra hasil similarity warna tekstur lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 315 m’winxn=[w’nxn] [mwinxn] [wnxn]……………….....................(3) 4. untuk mendapatkan down-sample hasil tahap 3 (m'wi) dengan mengambil alternatif baris dan kolom untuk mendapatkan gambar dengan ukuran n/2xn/2. dwin/2xn/2= downsample( m’winxn)………………………….(4) 5. terapkan transformasi walsh n/2xn/2 ukuran pada gambar down-sample (dwin/2xn/2) untuk mendapatkan walshlet tingkat-1. walshlet level i = [wn/2xn/2] [dwin/2xn/2] [w’n/2xn/2]…….(5) ulangi langkah 2 sampai 5 pada walshlet tingkat 1 untuk mendapatkan walshlet level 'p'. 3.2. metode gabor wavelet metode gabor wavelet yang telah diimplementasikan dan menghasilkansuatusistem cbir dengan ilustrasi sistem sesuai dengan gambar 4. sistem ini terdiri dari dua subsistem yaitu penyimpanan dan pencarian citra. secara umum proses yang dilakukan pada subsistem penyimpanan dan pencarian pada metode gabor wavelet sama dengan metode walshlet pyramid, perbedaannya hanya pada tahap ekstraksi fitur. proses ekstraksi fitur menggunakan metode gabor wavelet untuk mendapatkan fitur tekstur dimana tahapan sistem sesuai dengan gambar 4 dan tahapan metode gabor wavelet sesuai dengan gambar 5. gabor wavelet merupakan salah satu algoritma yang digunakan dalam pemisahan ciri. algoritma gabor ditemukan oleh gabor pada tahun 1946 [3]. fungsi gabor didefinisikan sebagai berikut. 1. gabor satu dimensi (gabor 1-d) fungsi gabor pada awalnya didefinisikan pada satu dimensi sesuai dengan persamaan 6. …………………..(6) keterangan : : waktu : standar deviasi dari gaussian envlope 2. gabor dua dimensi (gabor 2-d) gabor dua dimensi dikembangkan oleh daugman pada tahun 1980 yang dirumuskan pada persamaan 7. ....(7) keterangan : i = u : frekuensi gelombang sinusoida :control terhadap orientasi dari fungsi gabor : standar deviasi dari gaussian envlope x,y : koordinat dari tapis gabor persamaan 6 dibentuk dari dua komponen, yaitu gaussian envelope dan gelombang sinusoidal dalam bentuk kompleks. fungsi gaussian dari persamaan 8 ditunjukkan oleh persamaan 9. ………………………………………(8) sedangkan, gelombang sinusoidal pada persamaan 2 ditunjukkan oleh persamaan 4. ……………………(9) dari fungsi gelombang sinusoidal ini didapat dua fungsi terpisah yang dinyatakan dalam bagian real dan imajiner dari fungsi kompleks persamaan 9. )...2.exp( .2 exp . 1 ),,( 2 2 4 2 ti t tw g              t    )}sin..cos..(..2exp{ .2 exp ..2 1 .,,, 2 22 2    yuxui yx uyxg          1           2 22 2 ^ .2 exp ..2 1 ),(  yx yxg ))}sin..cos..(.2(exp{),(  yuxuiyxs  lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 316 ……………………….(10) pada kenyataannya, fungsigabor ) dengan beberapa parameter khusus ditransformasikan menjadi tapis gabordiskrit . untuk membuat tapis gabor tersebut lebih peka terhadap berbagai tingkat kecerahan gambar, maka tapis gabor dijadikan zero dc (direct current) dengan menormalisasinya menggunakan persamaan 11. …………………(11) (2n+1)2 adalah ukuran dari tapis gabor. pada kenyataannya, bagian imajiner dari tapis gabor secara otomatis memiliki zero dc karena ukuran tapis yang ganjil. perlu diperhatikan bahwa kesuksesan tapis gabor tergantung dari pemilihan dari parameter untuk tapis tersebut. 3.3. metode penggabungan sistem ini terdiri dari dua subsistem yaitu penyimpanan dan pencarian citra. proses pada subsistem penyimpanan merupakan proses pembacaan, praproses, ekstraksi citra dengan metode walshlet pyramid dan gabor wavalet, kemudian menyimpan fitur-fitur citra ke dalam database. proses ini dilakukan oleh admin sebelum user melakukan proses pencarian citra. kemudian dilakukan proses ekstraksi fitur tekstur. hasil dari ekstraksi fitur ini disimpan ke dalam database beserta informasi-informasi lain yang diperlukan mengenai citra. subsistem yang kedua adalah proses pencarian citra. proses ini diawali dengan user menginputkan sebuah citra sebagai query. kemudian citra query mengalami praproses dan ekstraksi menggunakan walshlet pyramid dangabor wavelet sama seperti pada subsistem penyimpanan citra, sehingga diperoleh fitur citra yang sama yaitu fitur warna dan tekstur. fiturfitur query inilah yang dibandingkan dengan fitur-fitur setiap citra yang ada di dalam database melalui proses similarity. hasil dari proses similarity adalah dua buah nilai distance yaitu distance dengan metode walshlet pyramid dan distance denganmetode gabor wavelet. distance tersebut akan diproses dengan menggunakan persamaan12. nilai inilah yang diurutkan pada proses perangkingan yaitu dari nilai similarity terbesar hingga terkecil. sehingga citrahasil yang ditampilkan terurut berdasarkan tingkat kemiripannya. semakin besar nilai similarity maka citra yang dihasilkan semakin mirip dengan citra query. ………………………….... (12) dimana : : distance dari citra : distance citra dengan metode walshlet pyramid : distance citra dengan metode gabor wavelet α = 0,5 β = 0,5 3.4. corralation distance korelasi digunakan untuk mengukur kecepatan perubahan diantara piksel dari dua citra. korelasi menghasilkan nilai berkisar antara -1 ke 1, dimana nilai -1 mengindikasikan citra saling berlawanan satu sama lain dan nilai 1 mengindikasikan citra-citra yang sama [5]. korelasi antara citra x dan ysesuai dengan persamaan 13. )}sin..cos..(.2sin{)),(( )}sin..cos..(.2cos{)),(re(   yuxuyxslm yuxuyxs   ),,,,(  uyxg   ,,,, uyxg   2 ~ )12( ],,,,[ ],,,,[,,,       n uji uyxguyxg n ni n nj    ,, u disgabortdiswalshledis **   dis tdiswalshle disgabor lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 317 ……………..(13) gambar 3. gambar cibr dengan metode gabor wavelet gambar 4. gambar metode gabor wavelet gambar 5. tahapan metode walshlet pyramid                 n i n i n i n i iiii n i n i i n i iii yynxxn yxyxn yxryxd yxr 1 1 2 1 1 222 1 11 ))()()(( ),(),( ),( databasecitra penyimpanan citra pencarian citra citra query ekstraksi fitur praproses gabor wavelet ekstraksi fitur praproses gabor wavelet rangking citra hasil similarity tekstur load citra resize grayscale pembentukan tapis gabor konvolusi tapis gabor matriks (real dan imaginer) database praproses ekstraksi ciri penyimpanan ciri baca citra dengan ukuran nxn dan walshlet level ‘p’ lakukan transformasi walsh pada citra dengan ukuran nxn dengan approximasi herizontal, vertical, diagonal komponen berikan nilai nol pada komponen horizontal, vertical, diagonal untuk mendapatkan citra transformasi walsh yang dimodifikasi lakukan transformasi walsh invers pada citra transformasi walsh yang dimodifikasi untuk mendapatkan m’wl lakukan down-sample pada m’wl dengan mengambil dengan mengambil alternatif baris dan kolom untuk mendapatkan citra dengan ukuran n/2xn/2 lakukan trasnformasi walsh yang berukuran n/2xn/2 pada citra down-sample untuk mendapatkan walhslet level 1 p=p-1 apakah p=1 berhenti, untuk mendapatkan walhslet level ‘p’ lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 318 3.5. similarity pengukuran kecocokan citra didapat dari kemiripan (similarity) fitur color plane pada citra berdasarkan parameter warna dan tekstur[4]. similarity dari dua citra didefinisikan dengan corallation distance. 4. hasil dan pembahasan sistem cbir yang dihasilkan terdiri dari dua buah subsistem, yaitu subsistem penyimpanan atau indexing dan subsistem pencarian atau searching. tampilan kedua subsistem tersebut sesuai pada gambar 7 dan gambar 8. penelitian dilakukan dengan melakukan penyimpanan datanya secara bertahap, mulai dari 200, 500, 700 sampai dengan 1000 citra pada database. dimana pada setiap tahap digunakan citra query bunga yang bukan merupakan citra latih dan citra query bunga yang telah dilakukan preprocessingblur, rotasi 150 dan memperbesar ukuran citra. 4.1. metode walshlet pyramid pada pengujian dengan jumlah citra latih yang berbeda-beda, pengaruh jumlah data pada database dapat digambarkan pada tabel 1 dan penggambaran grafik pengujian sesuai dengan gambar 9. tabel 1. hasil pengujian dengan perbedaan jumlah citra latih jumlah citra latih recall (%) waktu (detik) 200 100 7,88 500 63 15,76 700 67 21,31 1000 60 28,91 berdasarkan pengujian dapat diketahui bahwa dengan meningkatnya jumlah citra yang tersimpan pada database menyebabkan meningkatnya waktu pencarian citra oleh sistem. akan tetapi peningkatan ini tidak terlalu berpengaruh pada nilai recall, nilai ini lebih dipengaruhi oleh fitur pada citra query. gambar 6. gambar hasil pengujian dengan perbedaan jumlah citra latih 4.2. metode gabor wavelet pada metode gabor wavelet, berdasarkan pengujian dengan jumlah citra latih yang berbedabeda, sehingga pengaruh jumlah data pada database dapat digambarkan pada tabel 2 dan penggambaran grafik pengujian dengan jumlah citra latih yang berbeda, sesuai dengan gambar 10. 50 100 150 200 500 700 1000 recall waktu lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 319 berdasarkan pengujian dapat diketahui bahwa dengan meningkatnya jumlah citra yang tersimpan pada database menyebabkan meningkatnya waktu pencarian citra dan menurunnya keakuratan citra yang ditampilkan oleh sistem. peningkatan waktu pencarian citra dapat terlihat pada kurva adanya peningkatan yang linier. tabel 2. hasil pengujian dengan perbedaan jumlah citra latih jumlah data recall (%) waktu (detik) 200 69 24,65 500 69 24,65 700 69 33,10 1000 63 46,24 gambar 7. gambar hasil pengujian dengan perbedaan jumlah citra latih 4.3. metode penggabungan pengujian dengan jumlah citra latih yang berbeda-beda pada metode penggabungan memperlihatkan pengaruh jumlah data pada database yang digambarkan pada tabel 3. penggambaran grafik pengujian dengan jumlah citra latih yang berbeda, sesuai dengan gambar 11. tabel 3. hasil pengujian citra dengan perbedaan jumlah citra latih jumlah data recall (%) waktu (detik) 200 100 17,20 500 71 37,99 700 80 52,44 1000 74 72,69 gambar 8. gambar hasil pengujian dengan perbedaan jumlah citra latih berdasarkan pengujian dapat diketahui bahwa dengan meningkatnya jumlah citra yang tersimpan pada database menyebabkan meningkatnya waktu pencarian citra oleh sistem. akan tetapi peningkatan ini tidak terlalu berpengaruh pada nilai recall. 4.4. hasil pengujian setelah dilakukan analisa untuk setiap metode yang digunakan, penjelasan berikutnya menunjukan hasil penelitian dengan membandingkan ketiga metode dengan perbedaan jumlah citra latih yang tersimpan pada database. analisis pengujian diawali dengan sistem yang menyimpan 200 citra pada database. hasil pengujian sesuai dengan tabel 4. performansi sistem untuk menganalisis metode berdasarkan recall dan waktu pencarian citra dengan 200 citralatih yang tersimpan pada database ditunjukan pada gambar 12. pengujian dengan 200 citra latih memberikan informasi bahwa metode walshlet pyramid dan penggabungan memberikan hasil terbaik karena dapat menampilkan seluruh citra yang relevan. berdasarkan waktu pencarian, metode walshlet pyramid membutuhkan waktu pencarian yang paling singkat yaitu 7,8 detik. analisis pengujian dilakukan terhadap sistem yang menyimpan 500 citra latih pada database. hasil pengujian sesuai dengan tabel 5. performansi sistem untuk menganalisis metode berdasarkan recall dan waktu pencarian citra dengan 500 citralatih yang tersimpan pada database ditunjukkan pada gambar 13. 50 100 200 500 700 1000 recall waktu 50 100 150 200 500 700 1000 recall waktu lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 320 pengujian dengan 500 citra latih memberikan informasi bahwa secara keseluruhan performansi sistem menurun, baik dalam menampilkan citra yang relevan ataupun waktu pencarian citra. hal ini disebabkan oleh semakin bertambah jumlah citra latih semakin beragam pula citra yang tersimpan dan semakin lama pula waktu yang diperlukan untuk pencarian citra. pengujian ini juga memberikan informasi bahwa metode penggabungan memberikan hasil terbaik dalam pencarian citra akan tetapi waktu yang digunakan lebih besar dibandingkan dengan kedua metode yang lain. tabel 4. tabel hasil pengujian 200 citra metode recall (%) waktu detik) walshlet pyramid 100 7,88 gabor 69 24,65 kombinasi 100 17,20 gambar 9. hasil pengujian dengan 200 citra latih tabel 5. tabel hasil pengujian 500 citra latih metode recall (%) waktu (detik) walshlet pyramid 63 15,76 gabor 69 24,65 kombinasi 71 37,99 gambar 10. hasil pengujian 500 citra latih analisis pengujian berikut merupakan pengujian dengan 700 citra latih yang tersimpan pada sistem. hasil pengujian sesuai dengan tabel 6. performansi sistem untuk menganalisis metode berdasarkan recall dan waktu pencarian citra dengan 700 citralatih yang tersimpan pada database ditunjukan pada gambar 14. tabel 6. tabel hasil pengujian 700 citra latih metode recall (%) waktu (detik) walshlet pyramid 67 21,13 gabor 69 33,10 kombinasi 80 52,44 gambar 11. hasil pengujian citra dengan 700 citra latih 50 100 150 precision (%) waktu (detik) 50 100 precision (%) waktu (detik) 20 40 60 80 100 precision (%) waktu (detik) lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 321 secara keseluruhan pengujian dengan 700 citra latih diketahui bahwa perbedaan performansi antara satu metode dengan metode lain cukup signifikan. metode penggabungan memberikan hasil terbaik dengan nilai recall 80% akan tetapi waktu yang diperlukan juga cukup lama yaitu 52 detik. pembahasan berikut merupakan pembahasan dengan pengujian pada sistem dengan 1000 citra latih yang tersimpan pada database. hasil pengujian sesuai dengan tabel 7. performansi sistem untuk menganalisis metode berdasarkan recall dan waktu pencarian citra dengan 1000 citralatih yang tersimpan pada database ditunjukan pada gambar 15. metode kombinasi menghasilkan nilai recall paling tinggi pada pengujian ini. waktu pencarian yang diperlukan oleh metode ini juga cukup tinggi yaitu selama 72 detik atau lebih dari 1 menit. hal ini disebabkan karena banyaknya jumlah citra yang dibandingkan disamping waktu untuk mengekstrak fitur citra query yang dicocokan dengan fitur citra latih pada database. tabel 7. tabel hasil pengujian metode recall (%) waktu (detik) walshlet pyramid 60 28,91 gabor 63 46,24 kombinasi 74 72,69 gambar 12. hasil pengujian dengan 1000 citra latih pada database setelah seluruh pengujian telah dilakukan, dapat dianalisis bahwa jumlah data yang tersimpan pada database berpengaruh pada lamanya waktu pencarian citra, semakin bertambahnya jumlah data semakin lama waktu yang digunakan untuk pencarian citra. nilai recall lebih dipengaruhi oleh citra query yang digunakan. semakin mirip citra query dengan citra yang disimpan pada database semakin tinggi nilai recall. pada metode walshlet pyramid merupakan metode dengan fitur warna dan tekstur sehingga untuk preprocessing yang mengubah warna dan tekstur, seperti blur, rotasi dan skala, berpengaruh terhadap nilai recall. sedangkan, metode gabor wavelet, citra dengan preprocessing rotasi ataupun skala lebih berpengaruh terhadap nilai recall hal ini disebabkan metode ini merupakan metode yang mengambil fitur tekstur dari citra. akan tetapi, secara keseluruhan metode penggabungan memberikan hasil terbaik dibandingkan dengan metode walshlet pyramid dan gabor wavelet. gambar 13. gambar cibr dengan metode penggabungan 50 100 precision (%) waktu (detik) citra walshlet pyramid praproses gabor wavelet ekstraksi fitur database α*distance walshlet + β* distance gabor distance walshlet distance gabor similarity citra walshlet pyramid praproses gabor wavelet ekstraksi fitur citra pencarian citra penyimpanan citra lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 322 gambar 14. gambar subsistem indexing gambar 15. gambar subsistem searching 5. kesimpulan implementasi dari sistem dengan menggunakan metodewalshlet pyramiddan gabor waveletuntuk mendapatkan fitur citra pada penerapannya dalam content-based image retrieval dimulai dengan melakukan preprocessing pada citra untuk mendapatkan color-plane dan grayplane, selanjutnya citra tersebut dilakukan ekstraksi fitur dengan metode walshlet pyramiddan gabor wavelet. fitur tersebut kemudian disimpan pada database matlab dengan file berekstensi *.mat. fitur yang tersimpan pada database inilah yang akan dicocokan dengan fitur citra query pada tahap pencarian citra. penggabungan metode walshlet pyramiddan gabor wavelet diterapkan pada subsistem searching, nilai distance yang menunjukan kemiripan antara citra yang tersimpan pada database dengan citra query yang diperoleh dengan metode walshlet lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 323 pyramid dan gabor wavelet inilah yang digabungkan untuk meningkatkan jumlah temu kembali citra yang relevan. pengujian pada sistem content-based image retrieval dengan ekstraksi fitur menggunakan metode walshlet pyramid, gabor wavelet dan penggabungannya menunjukan bahwa nilai recall terbaik dihasilkan pada metode penggabungan, dimana rata-rata 81% citra dapat ditemukan kembali. penggunaan metode walshlet pyramid menunjukan rata-rata 73% citra dapat ditemukan kembali, sedangkan rata-rata 68% citra dapat ditemukan kembali dengan menggunakan metode gabor wavelet. metode penggabungan walshlet pyramid dengan gabor wavelet yang dihasilkan dapat menampilkan citra yang sesuai lebih baik daripada metode walshlet pyramid dan gabor wavelet akan tetapi waktu yang diperlukan dalam pencarian citra lebih lama. sehingga, pada sistem content-based image retrieval yang mengutamakan singkatnya waktu dalam pencarian citra lebih baik menggunakan metode walshlet pyramid akan tetapi untuk sistem yang mengutamakan kesesuaian citra dapat menggunakan metode penggabungan. daftar pustaka [1] setia wirawan. content based image information retrieval. seminar ilmiah nasional komputasi dan sistem intelijen (kommit). depok. 2004. [2] kekre, h.bsudeep, d thepade. image retrieval using color-texture extracted from walshlet pyramid.icgst international journal on graphics, vision and image processing (gvip), 2010, volume (10), 13-23. [3] putra, darma.pengolahan citra digital.yogyakarta : penerbit andi.2010 : 150-155. [4] made ayou arysutrisndewi. analisis dan implementasi image retrieval menggunakan stochastic paintbrush transformation (spt). bandung : institut teknologi telkom; 2008. [5] yaniar setya nimas. perbandingan ukuran jarak pada proses pengenalan wajah berbasis principal component analysis (pca).surabaya : institut teknologi sepuluh nopember; 2011. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 24 augmented reality application using dynamic location-based tracking of taman ayun temple sarah olivia meilya1, putu wira buanaa2, mohd farhan bin md. fudzeeb 3 ainf ormation technology, udayana university, indonesia 1oliviameily@student.unud.ac.id, 2wbhuana@it.unud.ac.id buniversity tun hussein onn malaysia 3f arhan@uthm.edu.my abstract taman ayun temple is a world cultural heritage in bali. based on observations, information regarding the location at taman ayun temple is still not optimal. this study aims to design an application that displays location information using markerless augmented reality. markerless ar is a technology that displays virtual objects into the real world using gps, digital compass, and accelerometer. the application is designed using the wikitude sdk platform and displays information on location, description, image, distance from the user, and location direction. data is stored in a database server and managed using the web server. applications are in indonesian and english. the testing compares the actual distance with the distance displayed in the application using devices with different os and ram. application speed is less than 1 second depending on ram and internet speed, while location accuracy depends on smartphone gps accuracy with a difference of less than 10 meters from the actual distance. keywords: augmented reality, markerless, geo ar, wikitude, android 1. introduction indonesia is a country known for its natural and cultural wealth. bali is one of indonesia's tourism icons because of its natural beauty and cultural wealth [1]. the population of bali is dominated by hindus who believe in and worship gods [2]. dewata is the plural term f or the gods. this is the reason bali is called the island of the gods and the island of a thousand temples [3]. the existence of temples in bali, apart from the spiritual aspect, which is the sthana of the gods, has developed into historical relics and become tourism objects because of their beautiful architecture. one of the temples that have been named a world cultural heritage in bali is taman ayun temple. taman ayun temple is located in mengwi district, badung regency, bali province. taman ayun temple is a place of prayer for hindus which functions as penyawangan or representative temple so that the mengwi people who want to pray to big temples such as besakih temple, uluwatu temple, batur temple, batukaru temple, ulundanu, and others simply come to taman ayun temple [4]. besides being visited by local people to pray, taman ayun temple is also visited by many tourists f rom various countries. however, based on direct observations, the inf ormation regarding the location directions of places and buildings at taman ayun temple is still not optimal. tour guides will only guide tourists who come in large groups, while tourists who come with a f ew people will be lef t around without knowing the name of the place and the f unction or use of the place they have visited. based on these problems, this research aims to produce an android-based mobile application that can display location information that can be used directly when the user is in taman ayun temple. technology that is suitable for use as an interesting and interactive media of inf ormation is augmented reality. augmented reality is a technology that displays virtual objects or digital objects in the real world [5]. mailto:1oliviameily@student.unud.ac.id mailto:2wbhuana@it.unud.ac.id mailto:3farhan@uthm.edu.my lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 25 augmented reality technology is divided into two types, namely markerless and marker-based augmented reality. this study implements markerless augmented reality in the taman ayun ar application by utilizing a mobile gps, digital compass, and accelerometer to determine the coordinates of the user's location points. it is developed by using geo ar on the wikitude sdk android javascript api platform and android studio to design android applications. a system can be divided into two types, namely static and dynamic. static systems are systems that are designed and built only at one stage whose value is certain. whereas a dynamic system is known as a non-static system, meaning that the system response can change at any time to the identified variables [6]. one of the ar studies that applies a dynamic system is researched by ligia prapta on android-based kanji recognition. this research uses the vuforia cloud recognition f eature, which f unctions as a cloud database marker for collecting images f rom the kanji letters that will be recognized [7]. another research is by astiti about the circulation learning android application using dynamic video. this application uses a local server to save the url of the displayed video storage location. the displayed video can change according to the url accessed on the local server [8]. research specifically with ar location-based tracking has never been applied to dynamic systems bef ore. so innovation in this research is one of its advantages. taman ayun ar application is dynamic, where location data will be stored in the database server. the addition of new locations to the system can be done easily by a web server without making significant changes to the applications built. the information displayed is the location points around the user and their detailed inf ormation, such as the location name, location image, location description, and the distance between the user and the location. the application is built in indonesian and english so that both domestic and foreign tourists can use it. the inf ormation about places in taman ayun temple can be displayed more attractively and interactively to the user through this research. visitors who come to taman ayun temple attractions can f ind it easier and more independent to obtain inf ormation regarding locations around them. 2. research method 2.1. related study the taman ayun ar application design has similarities and/or relationships from several studies conducted, some of which are as f ollows. the f irst research is the dewataar application, an android-based augmented reality application for pura in bali, which uses a brochure as a marker and displays 3-dimensional (3d) objects from bali temples. this application was built using unity 3d tools and using the vuf oria library [9]. furthermore, research on augmented reality f olklore bali lubdaka made in the lubdakaar android-based application. this application displays a 3d animation of lubdaka's story using a pictorial storybook as a marker. this study uses autodesk maya tools to design 3d objects and unity 3d and wikitude sdk to develop augmented reality [10]. the f ollowing research is an augmented reality application for the introduction of traditional buildings in panglipuran village. this application uses autodesk maya and unity tools in its design. the output produced in this study is building inf ormation in the f orm of 3d object animation, text, and audio narration with brochure media as a marker [11]. subsequent research applies a markerless technique using gps to obtain coordinate points of each location at bengkulu university. this application is designed based on android using the eclipse ide and the augmented reality beyondar f ramework. the location points are displayed in a map and seen through the ar camera after the user is at that location point [12]. another ar research in tourism is nugraha's research on the ar application of the bali museum. the application is designed to work by detecting markers and then displaying 3d objects and inf ormation f rom one bali museum object [13]. other research by adnin on home design 3d catalog application. the app works by displaying 3d home design objects from a scanned marker catalog. the application is designed with unity 3d software and the vuforia library [14]. ar's application is also carried out on research on the magic book, which aims to assist the learning process of animal recognition f or kindergarten students. this study uses a catalog book of pictures of animal objects as a collection of markers. the results displayed are the 3d object of lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 26 the animal along with the sound of the animal. the application is d esigned using unity 3d software [15]. 2.2. system overview the system overview is an overview to describe the process flow that occurs in the system, such as input, process, and output based on processed data. the system overview also shows the components involved in the system work process. an overview of the taman ayun ar locationbased tracking application can be seen in figure 1. gps user ar application admin web server cloud storage & database internet location target ar respons ar request gps request gps respons connection request connection respons url respons url request location data location data location data location data target request target respons figure 1. system overview figure 1 is an overview of the taman ayun ar application system. the location-based tracking system created is dynamic; in other words, the displayed location data can be added, edited, deleted, or managed as needed via a web server. the dynamic system runs by requesting poi (point of interest) data to the database server to be displayed on the mobile application. the process of requesting data to the server only runs when connected to the internet and gps. the admin has previously added the data stored in the database server via the web server. when it is necessary to add, edit, and delete location data, there is no need to change the application's code structure, but it can be managed via a web server. this is what causes this system to be called dynamic. first, the smartphone must be installed with the taman ayun ar application, designed using the wikitude platform. the smartphone must be connected to the internet and global positioning system (gps) to use the application. the smartphone's gps receiver feature will be connected directly to the gps satellite to receive location data on its coordinates. after that, the application will request and receive data from the database server in json format. when a data request occurs, the location data that has been stored in the database will then be displayed on the mobile application. the location point that appears on the smartphone will contain the name of the location or object, important inf ormation regarding the object, and the distance from the user's location. 2.3. use case diagram use case diagrams to represent user interactions with the system, how many users are involved in implementing the application, and describe what activities each user can carry out. use case diagram the taman ayun ar application can be seen in figure 2. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 27 figure 2. use case diagram figure 2 shows the use case diagram of the taman ay un ar application. the use case describes the interaction of each actor to the taman ayun ar application system. the taman ayun ar application use case has two actors, namely user, and admin. some of the taman ayun ar application's android system's functionalities that the user can directly access are selecting a language, requesting data to display poi locations, and displaying detailed poi inf ormation. while on the web server, there is an admin as an actor, and the functionality of the system that can be accessed is the login and data management (crud) location. 2.4. application flow the application flow design is made to make it easier to understand the flow of the system flow in the taman ayun ar application. this diagram contains the entire process f rom the f irst application run until the application is closed. the design of the taman ayun ar application flow can be seen in figure 3. figure 3. application flow diagram lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 28 figure 3 is a f low chart of the taman ayun ar application. first, the user must activate gps and internet connection to be able to use the application. the application will display a splash screen page f or a f ew seconds and go to the welcome page that illustrates how to use the application. af ter that, the application will display the ar camera, followed by checking the gps and internet connection; when it is active, it automatically loads the location data f rom the database server. af ter the data is successfully loaded, the location points (poi) will be displayed on the user's smartphone. users can select the poi to display detailed location inf ormation f rom the poi selected by the user. furthermore, the user can select another poi point or close the application. 3. result and discussion 3.1. web server implementation taman ayun ar application has two system implementations in the form of a web server system and an android application. administrators use the web server implementation to manage location data displayed when users access the android application. this f unction is what causes the system to be called dynamic. the location data displayed on the mobile application is dynamic because it is sufficiently managed via a web server without changing the application builder code structure. figure 5. web server implementation figure 5 implements the ar taman ayun application's web server admin interf ace to manage location data used to display virtual objects in mobile applications. on the web server system, the admin can add, edit, and delete location data. data added via the web server will be stored in the database server to be requested and displayed on the mobile application. location data consists of the location name, location image, latitude and longitude coordinates, and location description. 3.2. mobile application implementation ar taman ayun mobile application is designed to be accessed directly by users at taman ayun temple. the applications are made in two language options: indonesian and english. so that both local and f oreign tourists can use this application, the data that will appear in this mobile application has previously been added by the admin via a web server and stored on the database server. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 29 (a) (b) (c) figure 6. load poi (a), poi detail (b), range settingtab (c) figure 6 displays load poi (a), which results f rom the request poi process that is executed automatically when the application is run. so the user does not need to take any action f or the request poi process. the user runs the application, and when the ar camera is displayed, the application automatically sends a poi data request to the database server. after that , load poi data will be carried out, and the location points will be displayed in the application as shown in figure 6 (a). next, the poi detail (b) will be displayed when the user selects one of the displayed location points. it contains the location name, image, location description, and location distance f rom the user's location. users can also select the range setting tab (c) to set the radius of the location distance limit that the user wants to display. 3.3. application testing application testing is carried out to test the features of the taman ayun ar application. it aims to determine whether the application's f unctionality is running correctly or not. the test results are presented in table 1. table 1. application testing result no. feature scenario expected results test result 1. splash screen run the application the splash screen appears with the application logo for 4 seconds success 2. language selection user selects the language button on the language selection page all the inf ormation is displayed in the desired language success 3. welcome page af ter selecting the language, the user will automatically go to the welcome page shows an illustration of how to use the application success 4. load poi user selects the start button on the welcome page shows the camera ar page and poi points will be displayed success lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 30 no. feature scenario expected results test result 5. detailed location inf ormation user selects a poi point shows detailed poi inf ormation selected success 6. poi radius user selects the radius button displays the number of poi points in the specified radius success table 1 is the result of testing the f eatures of the application. the test results show that all the f eatures of the application run successfully according to the expected results. the main f eatures of location-based tracking will be explained in more detail and focus on us er testing in the next section. 3.4. location-based tracking testing location-based tracking is the main f eature of this application. this testing was carried out on three types of devices with different specifications. the f irst is samsung galaxy j7 pro with android operating system nougat (7.0) and 4gb ram, the second is oppo a5 2020 pro with android operating system pie (9.0) and 3gb ram, and the third is samsung galaxy a20s pro with the operating system android 10 and 4gb ram. testing is done by comparing the distance to the location shown on google maps with the results displayed on three devices. (a) (b) (c) figure 7. samsung galaxy j7 pro (a), oppo a5 2020 (b), samsung galaxy a20s (c) figure 7 is the result of testing on three devices at a location called mandya mandala with an actual distance of 65 meters. the analysis is performed on the speed of the device in displaying inf ormation and the accuracy of the distance displayed with the actual distance. the complete test results are presented in table 2. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 31 table 2. location-based tracking testing result table 2 shows the test results on speed, distance, and error on each device. in terms of speed, the samsung galaxy a20 is 0.1 second ahead of the other two devices. in terms of distance accuracy, the samsung galaxy a20 is also the closest , with a distance of 64 meters, while the oppo a5 2020 is the f arthest with a distance of 72 meters . for system functionality, the three devices have no errors. however, based on the distance displayed, the difference with the actual distance does not exceed 10 meters, so it can be said that the location-based tracking feature is running well and accurately. based on device specifications, the oppo a5 2020 is indeed the device with the lowest ram specifications. this proves that ram capacity significantly affects application performance. the speed of the internet connection also af fects the speed of the application in displaying inf ormation because the process of loading data f rom the database server requires an internet connection. 4. conclusion taman ayun ar application uses the location-based tracking method on augmented reality technology to detect the user's location via a mobile gps, digital compass, and accelerometer. the application design using the wikitude sdk platform can integrate with the xml language. the taman ayun ar application is dynamic in providing data and managing data by the admin using the web server. location inf ormation is displayed to users in location names, images, descriptions, and the distance between locations and users. users can also set the distance limit or radius f rom the location that the user wants to display. this application is designed in indonesian and english so that it can be used by local and foreign tourists. the test was conducted on three devices with different android os types starting f rom nougat (7.0), pie (9.0), and android 10, successfully running without any errors. application access speed can f unction properly depending on the smartphone ram capacity and internet network speed used, while the accuracy of the displayed location depends on the gps accuracy of each smartphone with a difference of less than 10 meters from the actual distance. references [1] i. g. b. rai utama, "keunikan budaya dan keindahan alam sebagai citra destinasi bali menurut wisatawan australia lanjut usia," jurnal kajian bali (journal of bali studies), vol. 6, no. 01, pp. 149–172, 2016. [2] s. saleh, "kerukunan umat beragama di denpasar bali," rumah jurnal al-fikr, vol. 17, no. 1, pp. 167-175, 2013. [3] a. a. munandar, istana dewa pulau dewata, depok: komunitas bambu, 2005. [4] i. w. ardika and i. n. subadra, warisan budaya dunia pura taman ayun dan pura tirta empul sebagai daya tarik wisata di bali, 1st ed., denpasar-bali: pustaka larasan, 2018. [5] s. c.-y. yuen, g. yaoyuneyong and e. johnson, "augmented reality: an overview and five directions f or ar in education," journal of educational technology development and exchange, vol.4, no. 1, pp. 119-140, 2011, doi: 10.18785/jetde.0401.10. [6] l. r. andhika, “model sistem dinamis: simulasi formulasi kebijakan publik (dynamic system model: simulation method in formulation public policy)”, jurnal ekonomi & kebijakan publik, vol. 10, no. 1, pp. 73-86, 2019. [7] i. b. n. ligia prapta, i. k. g. darma putra and i. m. a. d. suarjaya, “aplikasi augmented reality dinamis pengenalan huruf kanji (ar-kanji) berbasis android”, jurnal merpati (menara penelitian akademika teknologi informasi), vol. 6, no. 3, pp. 185-191, 2018, doi: 10.24843/jim.2018.v06.i03.p05. device name speed distance error samsung galaxy j7 pro 0.8 seconds 68 meters no oppo a5 2020 0.8 seconds 72 meters no samsung galaxy a20s 0.7 seconds 64 meters no lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 32 [8] i. a. p. w. astiti, g. m. a. sasmita and m. sukarsa, “penerapan augmented reality video dinamis dalam pembelajaran peredaran darah berbasis android”, jurnal merpati (menara penelitian akademika teknologi informas i), vol. 6, no. 3, pp. 174-184, 2018, doi: 10.24843/jim.2018.v06.i03.p04. [9] a. f. waruwu, i. p. a. bayupati and i. k. g. darma putra, "augmented reality mobile application of balinese hindu temples: dewataar" , international journal computer network and information security, vol. 2, no. 7, pp. 59-66, 2015, doi: 10.5815/ ijcnis.2015.02.07. [10] i. k. g. darma putra, i. m. suwija putra and i. n. adi triginarsa, "augmented reality mobile application of balinese story: lubdakaar," the european journal of it and project management, 2019. [11] a. a. n. h. susila and d. m. s. arsa, "aplikasi augmented reality pengenalan bangunan adat desa penglipuran," jurnal media informatika budidarma, vol. 4, no. 3, pp. 726-734, 2020, doi: 10.30865/mib.v4i3.2208. [12] i. a. fikri, d. herumurti and h.r. rahman, "aplikasi navigasi berbasis perangkat bergerak dengan menggunakan platform wikitude untuk studi kasus lingkungan its," jurnal teknik its, vol. 5, no. 1, p. 48, 2016, doi: 10.12962/j23373539.v5i1.14511. [13] i. g. a. nugraha, i. k. g. darma putra and i. m. sukarsa, “rancang bangun aplikasi android ar museum bali : gedung karangasem dan gedung tabanan”, lontar komputer, vol. 7, no. 2, pp. 93-103, 2016, doi: 10.24843/lkjiti.2016.v07.i02.p03. [14] s. n. adnin, i. b. k. widiartha and i. m. suksmadana, “pembuatan aplikasi catalog 3d desain rumah sebagai sarana promosi dengan menggunakan unity3d”, lontar komputer, vol. 7, no. 1, pp. 1-12, 2016, doi: 10.24843/lkjiti.2016.v07.i01.p01. [15] i. d. g. w. dhiyatmika, i. k. g. darma putra and n. m. i. m. mandenni, “aplikasi augmented reality magic book pengenalan binatanguntuk siswa tk”, lontar komputer, vol. 6, no. 2, pp. 120-127, 2015. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 61 pengembangan aplikasi android penghimpun data ekonomi nasional berbasis crowdsourcing indra azimia1, aulia azimib2 aprogram studi teknik informatika, fakultas ilmu terapan, telkom university 1indraazimi@tass.telkomuniversity.ac.id bprogram studi ekonomi islam, fakultas syariah dan ekonomi islam, iain pontianak 2auliaazimi@yahoo.co.id abstrak keputusan yang tepat di bidang ekonomi nasional hanya dapat diperoleh dengan adanya data ekonomi nasional yang berkualitas. sayangnya, proses pengumpulan data yang benar, akurat dan lengkap secara nasional tersebut masih mahal dan membutuhkan waktu lama. oleh karena itu, penelitian ini menawarkan metode crowdsourcing sebagai metode alternatif menuju proses pengumpulan data nasional yang berbiaya murah dan bersifat dinamis. dengan studi kasus pengumpulan data harga komoditas pokok secara nasional, metode ini terbukti dapat memberdayakan masyarakat umum sebagai pemilik data untuk melaporkan sendiri data harga komoditas di daerahnya melalui aplikasi android yang disediakan secara gratis di google play store. penelitian ini dilakukan selama setahun, dari 2 januari sampai 31 desember 2015. di akhir masa penelitian, tercatat 7.442 orang telah berpartisipasi secara aktif dengan distribusi yang merata di seluruh propinsi di indonesia. jumlah pengguna baru mencapai 34 orang per hari dengan data masuk mencapai lebih dari 400 data per hari, dan terus meningkat. kata kunci: android, crowdsourcing, pengumpulan data, data ekonomi nasional. abstract the right decision in national economy sector can only be obtained with excellent national economic data quality. unfortunately, the collection process of true, accurate and complete national data is still expensive and time-consuming. therefore, this study offers crowdsourcing as an alternative method towards the collection process of national data with low cost and dynamic. with case study basic commodity prices data collection nationwide, this method proved to empower the public as the owner of the data on self-reported commodities price in their region through an android application, available for free on google play store. this study was conducted for a year starting from january 2 to december 31, 2015. at the end of the study period, there were 7,442 people who have participated actively with an even distribution in all provinces in indonesia. the amount of new user is 34 people per day with data entry is more than 400 data per day, and continues to increase. keywords: android, crowdsourcing, data collection, national economic data 1. pendahuluan data merupakan salah satu hal yang sangat menentukan dalam pengambilan suatu keputusan. tanpa didukung data yang benar, akurat dan lengkap, keputusan yang diambil dapat menjadi salah sasaran dan tidak menyelesaikan permasalahan yang ada. namun, pada kenyataannya, proses pengumpulan data yang benar, akurat dan lengkap tersebut masih mahal dan membutuhkan waktu lama. sebagai contoh, proses pengumpulan data indikator perekonomian seperti harga komoditas pokok di tingkat eceran hampir selalu menggunakan metode survei lapangan yang mengharuskan petugas pengumpul data untuk turun langsung ke lokasi sumber data. metode ini dapat menghasilkan data dengan tingkat akurasi tinggi, namun semakin luas lokasi survei diadakan dan semakin banyak data komoditas yang harus dikumpulkan, proses pengumpulan datanya juga menjadi semakin mahal dan lama. mailto:indraazimi@tass.telkomuniversity.ac.id1 mailto:auliaazimi@yahoo.co.id lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 62 untuk itu, diperlukan sebuah metode alternatif pengumpulan data harga komoditas pokok secara nasional yang berbiaya murah dan bersifat dinamis sesuai dengan harga di masyarakat yang fluktuatif. salah satu metode alternatif yang potensial adalah crowdsourcing, suatu metode yang memberdayakan masyarakat sebagai pemilik data untuk melaporkan sendiri data harga komoditas di daerahnya. terdapat banyak definisi crowdsourcing, namun yang paling banyak dikutip adalah definisi dari howe [1]. menurut howe, crowdsourcing merupakan suatu tindakan dalam melakukan sebuah pekerjaan yang tadinya dikerjakan secara tradisional oleh petugas/pegawai, lalu kemudian pekerjaan tersebut secara umum di-outsource-kan ke sekelompok orang banyak yang tidak dikenal [2]. metode crowdsourcing ini telah banyak dipakai untuk pengumpulan data pada penelitian penelitian yang terdahulu. sebagai contoh, ketika terjadi gempa bumi di haiti pada tahun 2010, zook dkk menggunakan metode crowdsourcing untuk mengumpulkan data jalan di haiti untuk keperluan tanggap darurat bencana. sebelumnya, data jalan yang ada kurang dapat diandalkan sehingga menyulitkan petugas dan relawan dalam menentukan rute penyelamatan. hasil penelitian menyimpulkan bahwa crowdsourcing memegang peranan penting dalam menyalurkan bantuan logistik bencana [3]. contoh lain, rai dkk melakukan pemetaan ruangan indoor di gedung perkantoran yang besar dengan menggunakan radio frequency fingerprinting berdasarkan wifi atau sinyal seluler. metode crowdsourcing digunakan untuk menyediakan training data untuk proses kalibrasi tanpa campur tangan pengguna dengan memanfaatkan sensor-sensor inersia yang ada pada smartphone seperti accelerometer, kompas dan gyroscope. kesimpulan penelitian tersebut adalah sistem crowdsourcing yang dibangun mampu memberikan hasil berupa lokasi indoor yang akurat [4]. figliozzi menggunakan metode crowdsourcing di bidang transportasi untuk mengumpulkan data pengukuran performa sepeda dan juga identifikasi fasilitas-fasilitas umum yang membutuhkan perbaikan di amerika serikat. penelitian tersebut menggunakan sebuah aplikasi mobile orcycle, untuk mengumpulkan data pengguna sepeda, rute yang dilewati dan tingkat kenyamanan menggunakan sepeda di rute tersebut. orcycle sendiri merupakan aplikasi mobile pertama yang disebar secara nasional untuk mengumpulkan data keamanan dan kecelakaan sepeda [5]. penelitian lain yang juga masih di bidang transportasi dilakukan oleh assemi. assemi menggunakan metode crowdsourcing untuk melakukan pengumpulan revealed preference data dalam konteks studi transportasi di australia. penelitian tersebut menggunakan crowdsourcing platform amazon mechanical turk, sebuah aplikasi mobile atlas ii dan survei. hasil dari penelitian menunjukkan bahwa crowdsourcing dapat digunakan sebagai metode yang efektif untuk pengumpulan data [6]. dengan didukung hasil dari penelitian-penelitian terbaru di atas, menarik untuk mengetahui apakah metode crowdsourcing dapat menjadi suatu metode alternatif untuk mengumpulkan data nasional yang berbiaya murah dan bersifat dinamis. pembahasan penelitian ini akan dimulai dari tahap perancangan sistem yang kemudian dilanjutkan dengan hasil implementasi dan pembahasannya, serta diakhiri dengan kesimpulan. 2. metodologi penelitian 2.1. perancangan sistem proses perancangan sistem diawali dengan menerjemahkan karakteristik crowdsourcing menjadi kerangka acuan sistem. setelah kerangka acuan tersebut jadi, perancangan kemudian dilanjutkan dengan mendesign cara kerja sistem, menentukan platform yang akan digunakan untuk implementasi sistem, dan mendiskusikan fitur-fitur utama pada sistem. sesuai definisi crowdsourcing oleh howe, sistem yang dirancang tidak boleh menggunakan petugas/pegawai khusus untuk mengumpulkan data harga barang di tingkat eceran. tugas pengumpulan data harga tersebut harus di-outsource-kan ke sekelompok orang banyak yang tidak dikenal, yang dalam hal ini adalah masyarakat umum. salah satu kunci keberhasilan crowdsourcing adalah adanya motivasi yang tinggi dari masyarakat untuk ikut berpartisipasi. agar masyarakat termotivasi untuk melaporkan data harga barang di lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 63 daerahnya masing-masing, sistem yang dirancang harus mampu memberikan keuntungan secara langsung bagi penggunanya. keuntungan yang diperoleh pengguna ini tidak dalam bentuk uang (profit) karena dapat menyebabkan biaya pengumpulan data menjadi mahal, akan tetapi lebih kepada manfaat (benefit). dengan mempertimbangkan hal tersebut di atas, sistem yang diusulkan dalam penelitian ini adalah berupa sebuah aplikasi untuk mencatat pengeluaran sehari-hari. masyarakat umum sebagai pengguna aplikasi akan mendapat manfaat langsung berupa adanya suatu aplikasi yang dapat digunakan secara gratis untuk mencatat pengeluaran mereka, yang pada akhirnya dapat menghemat pengeluaran mereka karena adanya pencatatan keuangan yang baik. cara kerja sistem yang dirancang disajikan dalam gambar 1. masyarakat (dalam hal ini pembeli) melakukan transaksi jual beli suatu barang dengan penjual. pembeli sebagai pengguna aplikasi kemudian mencatat tanggal transaksi, nama dan harga barang yang dibeli ke dalam aplikasi, lalu aplikasi akan melakukan sinkronisasi data tersebut beserta dengan data lokasi transaksi ke server/cloud sistem melalui suatu web service yang telah disediakan. data yang masuk ke server/cloud kemudian dianalisis dan ditampilkan sebagai laporan bagi pihak-pihak yang berkepentingan. gambar 1. cara kerja sistem yang dirancang data yang diminta oleh aplikasi untuk diisi oleh pengguna dirancang agar seminimal mungkin, yaitu hanya tanggal transaksi, nama dan harga barang. hal ini dimaksudkan agar pengguna aplikasi tidak merasa direpotkan dalam mengisi data, sehingga pengguna memiliki penilaian yang baik terhadap aplikasi dan terus menggunakan aplikasi. setelah cara kerja sistem selesai dirancang, langkah yang dilakukan selanjutnya adalah menentukan platform yang akan digunakan untuk mengimplementasikan aplikasi. syarat utama platform yang akan digunakan dirumuskan sebagai berikut. a. mampu menjangkau masyarakat umum dengan sebanyak-banyaknya untuk menjadi pengguna. hal ini sesuai dengan prinsip crowdsourcing dimana jumlah pengguna aplikasi pada sistem akan sangat menentukan jumlah dan sebaran data yang didapat. b. mendukung untuk digunakan dalam kehidupan sehari-hari. w aktu terbaik untuk mencatat pengeluaran adalah segera setelah transaksi dilakukan. masyarakat dapat melakukan transaksi jual beli barang kapan saja, dimana saja, sehingga platform yang digunakan juga harus mudah diakses kapan saja, dimana saja. c. dapat digunakan dengan ataupun tanpa koneksi internet. proses pencatatan pengeluaran pada dasarnya bersifat independen terhadap ketersediaan internet, sehingga dengan koneksi internet yang bagaimanapun, proses tersebut harus tetap dapat dilakukan. setelah syarat utama platform yang akan digunakan berhasil dirumuskan, perancangan dilanjutkan dengan membandingkan platform-platform yang tersedia, yaitu desktop, mobile dan web. ringkasan perbandingan ini disajikan dalam tabel 1. dari tabel 1 tersebut tampak bahwa platform mobile dapat memenuhi semua persyaratan yang ada dengan cukup baik, sehingga penelitian ini akan menggunakan platform tersebut. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 64 tabel 1. perbandingan platform yang tersedia syarat platform desktop mobile web mampu menjangkau masyarakat umum dengan sebanyak banyaknya dari 72 juta pengguna aktif media sosial di indonesia, 62 juta pengguna atau setara 86,11% menggunakan perangkat mobile [7] dapat digunakan pengguna desktop dan mobile mendukung untuk digunakan dalam kehidupan sehari-hari sulit untuk diakses kapanpun, dimanapun memenuhi syarat memenuhi syarat, sepanjang ada internet dapat digunakan dengan ataupun tanpa koneksi internet memenuhi syarat memenuhi syarat tidak memenuhi syarat terdapat banyak jenis sistem operasi pada platform mobile dan terdapat banyak cara dalam mengembangkan aplikasi mobile. untuk menjangkau semua sistem operasi yang ada, developer umumnya mengembangkan aplikasi berbasis web (web app) yang dibungkus menjadi aplikasi mobile seperti pada phonegap, ionic dan sejenisnya. namun, jika performa dan keamanan lebih penting, developer dapat mengembangkan aplikasi mobile yang bersifat native dan hanya dapat digunakan di sistem operasi tertentu, karena saat ini teknologi web app masih belum dapat menyamai performa yang dicapai oleh native app [8] dan web app pada umumnya juga kurang aman dibanding native app [9]. oleh karena itu, pada penelitian ini, aplikasi yang akan dikembangkan berupa aplikasi native untuk sistem operasi android. pemilihan android sebagai sistem operasi sasaran dikarenakan market share sistem operasi ini di indonesia yang mencapai sekitar 74,2% [10]. versi android minimal untuk menjalankan aplikasi yang dibangun adalah gingerbread (api 10) agar aplikasi dapat menjangkau 99,9% pengguna android yang ada [11]. setelah platform yang akan digunakan untuk mengimplementasikan aplikasi berhasil ditentukan, proses perancangan dilanjutkan dengan mendiskusikan fitur utama pada aplikasi. fitur tersebut terdiri dari 3 hal yaitu: (1) proses pencatatan pengeluaran, (2) proses pengambilan data lokasi pengguna dan (3) proses sinkronisasi data pada perangkat pengguna dengan server/cloud sistem. proses pencatatan pengeluaran harus dirancang agar dapat dilakukan dengan mudah dan cepat. oleh karena itu, selain data yang diinput pengguna harus dibuat seminimal mungkin, user interface yang digunakan juga harus user friendly. sebagai contoh, input tanggal transaksi diset nilai default-nya sesuai tanggal pada hari pencatatan dan menggunakan datepickerdialog seperti pada gambar 2. pengesetan nilai default tanggal transaksi tersebut dilakukan karena mayoritas pencatatan dilakukan pada hari yang sama dengan hari transaksi, atau pada hari sebelumnya. penggunaan datepickerdialog selain akan memudahkan pengguna memilih tanggal transaksi, juga untuk menghindari pengguna memasukkan tanggal yang tidak valid. gambar 2. datepickerdialog untuk input tanggal transaksi lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 65 untuk input nama barang, aplikasi harus mengimplementasikan fitur auto-complete. fitur ini selain berguna untuk memudahkan dan mempercepat proses pencatatan pengeluaran oleh pengguna, juga berfungsi untuk menjaga agar nama barang yang diinputkan pengguna lebih konsisten sehingga akan memudahkan saat proses analisis data harga barang. ketika pengguna mulai memasukkan beberapa karakter nama barang, aplikasi akan melakukan query ke database lokal, dan menampilkan daftar nama barang yang cocok untuk dipilih oleh pengguna. untuk input harga barang, aplikasi akan menampilkan soft keyboard khusus yang hanya akan menampilkan angka dan karakter terkait angka seperti terlihat pada gambar 3. penggunaan soft keyboard khusus ini selain akan memudahkan pengguna dalam memasukkan data harga barang, juga untuk menghindari pengguna memasukkan data harga barang yang tidak valid. gambar 3. soft keyboard khusus untuk input harga barang terkait proses pengambilan data lokasi pengguna, sistem yang dibangun tidak memerlukan lokasi akurat pengguna seperti hasil penentuan posisi dengan gps. sistem hanya membutuhkan lokasi dengan keakuratan setingkat kota (coarse location), karena harga eceran barang dalam satu kota pada umumnya tidak berbeda jauh. oleh karena itu, penentuan lokasi pengguna cukup menggunakan cell-id dan/atau w i-fi dan dilakukan secara otomatis, tanpa campur tangan pengguna. di sisi pengguna, penggunaan coarse location ini juga akan bermanfaat untuk melindungi privasi dan menghemat penggunaan baterai pada perangkat pengguna. terkait proses sinkronisasi data pada perangkat pengguna dengan server/cloud sistem, sesuai dengan syarat utama platform yang telah dibahas sebelumnya, aplikasi yang dibangun harus dapat dijalankan dengan ataupun tanpa koneksi internet. untuk mengakomodir hal tersebut, data pengeluaran akan disimpan terlebih dahulu di database lokal aplikasi. proses sinkronisasi kemudian akan dilakukan setiap periode waktu tertentu, hanya ketika koneksi internet tersedia. setelah proses sinkronisasi selesai, data yang berhasil disinkronisasi ditandai agar tidak disinkronisasi lagi pada periode sinkronisasi selanjutnya. proses sinkronisasi data pada perangkat pengguna dengan server/cloud sistem ini dilakukan secara otomatis, tanpa campur tangan pengguna. pengaturan default sinkronisasi adalah aktif, namun untuk menghormati privasi pengguna, pengguna dapat menonaktifkan proses sinkronisasi ini melalui menu settings pada sistem operasi android. dengan berakhirnya perancangan fitur-fitur utama aplikasi, berakhirlah tahapan perancangan sistem. penelitian kemudian dilanjutkan dengan mengimplementasikan sistem yang telah dirancang. 3. hasil dan pembahasan sistem yang telah dirancang kemudian diimplementasikan. terdapat dua bagian utama dari sistem, yaitu aplikasi android yang akan dipasang di perangkat smartphone milik pengguna dan web service sebagai back-end untuk proses sinkronisasi yang akan dipasang di server/cloud. implementasi aplikasi android menggunakan eclipse kepler dan android sdk dengan bahasa pemrograman java dan database sqlite, sedangkan implementasi web service menggunakan bahasa pemrograman php dan database mysql. screenshot dari aplikasi android pencatat pengeluaran yang telah diimplementasikan disajikan pada gambar 4. terhadap aplikasi yang telah dikembangkan tersebut kemudian dilakukan pengujian fungsionalitas untuk memastikan agar semua fitur yang ada pada aplikasi dapat berjalan sesuai dengan harapan. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 66 gambar 4. screenshot aplikasi yang telah dikembangkan aplikasi yang telah selesai diuji tersebut kemudian di-upload ke google play store yang merupakan store aplikasi resmi dan paling populer untuk android [12]. proses upload dilakukan pada 2 januari 2015 dan sejak saat itu, aplikasi pencatat pengeluaran ini telah dapat diakses dan digunakan oleh masyarakat umum sampai sekarang. penelitian ini tidak menggunakan media-media promosi tertentu untuk menarik calon pengguna agar memasang aplikasi ini pada perangkat mereka. hal ini bertujuan untuk mengukur batas bawah tingkat keberhasilan aplikasi di masyarakat ketika effort dan biaya yang dikeluarkan seminimal mungkin. dengan meningkatkan effort dan biaya promosi, hasil yang dicapai tentunya akan menjadi lebih baik lagi. untuk menilai apakah aplikasi yang dikembangkan telah berhasil sesuai harapan, terdapat kriteria-kriteria yang harus dipenuhi, diantaranya jumlah pengguna baru per hari, jumlah total pengguna, jumlah data masuk per hari ke dalam sistem dan distribusi pengguna secara nasional. ketika jumlah data masuk per hari sudah cukup banyak dan terdistribusi secara merata di tingkat nasional, maka dapat dikatakan aplikasi yang dikembangkan telah berhasil diimplementasikan. di bulan pertama aplikasi di-publish di google play store (januari 2015), rata-rata pengguna baru per hari yang didapat sebesar 12,8 orang. jumlah pengguna baru per hari sampai dengan bulan agustus 2015 stabil di nilai rata-rata 14,7 orang, sebagaimana disajikan dalam gambar 5. peningkatan jumlah pengguna yang cukup signifikan baru terjadi pada bulan september 2015 (meningkat 1,8x) dan bulan oktober 2015 (meningkat 1,3x). gambar 5. rata-rata pengguna baru per hari (2 januari 2015 – 31 desember 2015) lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 67 peningkatan pengguna baru per hari yang cukup signifikan yang terjadi pada bulan september dan oktober 2015 tersebut erat kaitannya dengan semakin besarnya akumulasi total pengguna aplikasi yang dikembangkan, sebagaimana yang disajikan pada gambar 6. pada gambar tersebut tampak bahwa di akhir bulan september, jumlah pengguna mencapai 4.336 orang, dan di akhir bulan oktober 2015, jumlah pengguna telah mencapai 5.395 orang. jumlah total pengguna yang cukup besar tersebut ternyata menyebabkan peningkatan peringkat aplikasi. meski terdapat banyak faktor yang dapat mempengaruhi peringkat dari sebuah aplikasi di google play store, jumlah total pengguna yang besar tersebut ternyata memiliki pengaruh yang signifikan. peningkatan peringkat aplikasi ini kemudian diikuti dengan peningkatan keterlihatan aplikasi di mata calon pengguna, yang pada akhirnya mengarah kepada peningkatan jumlah pengguna baru per hari. gambar 6. akumulasi total pengguna (2 januari 2015 – 31 desember 2015) sejalan dengan jumlah total pengguna yang terus meningkat, jumlah data yang masuk per hari ke dalam sistem juga memiliki tren yang positif dan terus mengalami peningkatan. rata-rata jumlah data per hari yang masuk selama bulan januari hingga desember 2015 disajikan pada gambar 7. terlihat pada gambar, jumlah data per hari yang masuk pada bulan desember mengalami peningkatan yang signifikan, hingga mencapai 2,7 kali bulan sebelumnya. gambar 7. rata-rata data masuk per hari (2 januari 2015 – 31 desember 2015) jumlah data masuk per hari sepanjang bulan november dan desember 2015 disajikan dalam gambar 8. tampak pada gambar bahwa jumlah data masuk per hari sepanjang bulan november stabil di angka 100 – 200 data. peningkatan jumlah data yang signifikan terjadi pada tanggal yang lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 68 berdekatan dengan libur nasional, seperti pilkada serentak (9 desember), maulid nabi muhammad (24 desember), natal (25 desember) dan cuti bersama tahun baru (31 desember). gambar 8. jumlah data masuk per hari (1 november 2015 – 31 desember 2015) untuk mengetahui apakah pengguna aplikasi terdistribusi secara merata di tingkat nasional, persentase pengguna aplikasi dibandingkan dengan persentase penduduk di tiap propinsi di indonesia. data yang dibandingkan adalah distribusi penduduk indonesia menurut propinsi tahun 2014 [13] dan distribusi pengguna aplikasi pada bulan desember 2015. perbandingan dilakukan dengan menggunakan rumus l2 relative error (l2re) seperti pada persamaan (1). persamaan tersebut digunakan untuk mengukur apakah data yang dibandingkan memiliki perbedaan yang signifikan atau tidak. (1) hasil perbandingan persentase pengguna aplikasi dengan persentase penduduk di tiap propinsi di indonesia disajikan dalam tabel 2. tabel tersebut menunjukkan bahwa pengguna aplikasi telah tersebar di seluruh propinsi di indonesia secara proporsional, sesuai dengan persebaran penduduk, kecuali di dua propinsi (dki jakarta dan di yogyakarta) yang memiliki nilai l2re > 1,0. tabel 2. distribusi pengguna secara nasional no. propinsi % penduduk 2014 [13] % pengguna des 2015 l2re 1 aceh 1,95 1,34 0,31 2 sumatera utara 5,46 3,35 0,39 3 sumatera barat 2,04 1,34 0,34 4 riau 2,45 1,87 0,24 5 jambi 1,33 1,07 0,19 6 sumatera selatan 3,15 1,47 0,53 7 bengkulu 0,73 0,40 0,45 8 lampung 3,18 1,34 0,58 9 kep. bangka belitung 0,53 0,94 0,77 10 kep. riau 0,76 0,94 0,23 11 dki jakarta 4,00 15,66 2,92 12 jawa barat 18,25 19,68 0,08 13 jawa tengah 13,29 9,10 0,32 14 di yogyakarta 1,44 3,61 1,51 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 69 15 jawa timur 15,31 13,12 0,14 16 banten 4,64 7,23 0,56 17 bali 1,63 3,08 0,89 18 nusa tenggara barat 1,89 1,20 0,36 19 nusa tenggara timur 2,00 0,67 0,67 20 kalimantan barat 1,87 0,94 0,50 21 kalimantan tengah 0,97 0,54 0,45 22 kalimantan selatan 1,56 0,94 0,40 23 kalimantan timur 1,33 2,01 0,51 24 kalimantan utara 0,25 0,13 0,46 25 sulawesi utara 0,95 0,67 0,30 26 sulawesi tengah 1,12 1,87 0,67 27 sulawesi selatan 3,34 3,61 0,08 28 sulawesi tenggara 0,97 0,54 0,45 29 gorontalo 0,44 0,27 0,39 30 sulawesi barat 0,50 0,13 0,73 31 maluku 0,66 0,13 0,80 32 maluku utara 0,45 0,13 0,70 33 papua barat 0,34 0,27 0,21 34 papua 1,23 0,40 0,67 propinsi dki jakarta dan di yogyakarta yang memiliki nilai l2re di atas 1,00 kemungkinan disebabkan karena banyaknya pendatang yang tinggal di kedua propinsi-kota tersebut. secara administrasi kependudukan (ktp), pengguna aplikasi di kedua propinsi tersebut bukan merupakan penduduk, namun karena mereka mencatat transaksi di kedua propinsi tersebut, maka pengguna aplikasi tersebut dianggap berasal dari propinsi dki jakarta dan di yogyakarta 4. kesimpulan penelitian ini menawarkan metode crowdsourcing sebagai metode alternatif menuju proses pengumpulan data nasional yang berbiaya murah dan bersifat dinamis. dengan studi kasus pengumpulan data harga komoditas pokok secara nasional, metode ini telah terbukti dapat memberdayakan masyarakat umum sebagai pemilik data untuk melaporkan sendiri data harga komoditas di daerahnya masing-masing melalui aplikasi android yang disediakan secara gratis di play store. penelitian ini dilakukan selama setahun, mulai dari 2 januari sampai dengan 31 desember 2015. di akhir masa penelitian, tercatat 7.442 orang telah berpartisipasi secara aktif dengan distribusi yang merata di seluruh propinsi di indonesia, kecuali propinsi dki jakarta dan di yogyakarta. jumlah pengguna baru mencapai 34 orang per hari dengan data masuk mencapai lebih dari 400 data per hari, dan terus meningkat. dengan indikator-indikator kuantitatif tersebut, maka dapat dikatakan bahwa aplikasi berbasis crowdsourcing yang dikembangkan ini telah berhasil diimplementasikan ke masyarakat. penelitian selanjutnya akan membahas lebih detail proses ekstraksi data yang masuk ke dalam sistem secara real-time menjadi data harga komoditas pokok melalui data mining, mengukur indikator-indikator kualitatif dari data yang masuk dan mendiskusikan cara meningkatkan kualitas data masuk tersebut melalui suatu data quality management. daftar pustaka [1] e. estellés-arolas and l.-g. fernando gonzález, “towards an integrated crowdsourcing definition,” vol. 38, no. 2, pp. 189–200, 2012. [2] j. howe, how the power of the crowd is driving the future of business. 2008. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p07 e-issn 2541-5832 70 [3] z. matthew, g. mark, s. taylor, and g. sean, “volunteered geographic information and crowdsourcing disaster relief: a case study of the haitian earthquake,” vol. 2, no. 2, pp. 7–33, 2010. [4] a. rai, k. k. chintalapudi, v. n. padmanabhan, and r. sen, “zee: zero-effort crowdsourcing for indoor localization,” in proceedings of the 18th annual international conference on mobile computing and networking mobicom ’12, 2012, p. 293. [5] m. figliozzi and b. bryan, “evaluating the use of crowdsourcing as a data collection method for bicycle performance measures and identification of facility improvement needs,” 2015. [6] b. assemi, d. schlagwein, h. safi, and m. mesbah, “crowdsourcing as a method for the collection of revealed preference data,” proc. 9th ieee int. symp. serv. syst. eng. ieee sose 2015, vol. 30, pp. 378–382, 2015. [7] s. kemp, “digital , social & mobile in 2015,” we are social, no. january. pp. 1–375, 2015. [8] k. selvarajah, m. p. craven, a. massey, j. crowe, k. vedhara, and n. raine-fenning, “native apps versus web apps: which is best for healthcare applications?,” lect. notes comput. sci. (including subser. lect. notes artif. intell. lect. notes bioinformatics), vol. 8005 lncs, no. part 2, pp. 189–196, 2013. [9] a. charland and b. leroux, “mobile application development : web vs . native,” commun. acm, vol. 54, pp. 0–5, 2011. [10] statista inc., “market share held by mobile operating systems in indonesia from january 2012 to july 2015.” 2015. [11] android-developers, “platform versions.” 2012. [12] a. tongaonkar, s. dai, a. nucci, and d. song, understanding mobile app usage patterns using in-app advertisements, vol. 7799 lncs. 2013. [13] d. persentase, “distribusi persentase penduduk menurut provinsi, 2000-2014.” p. 2035, 2014. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 244 chaotic oscillationofa three-bus power system model using elmanneural network i made ginarsa1, adi soeprijanto2, mauridhi hery purnomo3 1dept. of electrical engineering, mataram university, mataram 2dept. of electrical engineering, sepuluh nopember institute of technology, surabaya 3dept. of electrical engineering, sepuluh nopember institute of technology, surabaya e-mail: kadekgin@yahoo.com1, adisup@ee.its.ac.id2, hery@ee.its.ac.id3 abstrak paper ini meneliti dan membahas secara mendalam mengenai osilasi chaotic pada sistem tenaga listrik.dengan menggunakan sebuah three-bus pada sistem tenaga listrik, rute mungkin menyebabkan unjuk kerja chaotic sehingga dievaluasi, digambarkan serta dibahas dalam penelitian ini. osilasi chaotic ini dimodelkan menggunakan elmanneural network karena bentuknya yang sederhana dan juga melibatkan algoritmabackpropagation dengan adaptive learning rate dan momentumnya.unjuk kerja learning rate dan momentumnya lebih baik dibandingkan jika tanpa momentumnya. unjuk kerja chaotic dalam sistem tenaga listrik muncul karena sistem ini dioperasikan dalam mode critical. unjuk kerja chaotic ini terdeteksi dengan munculnya sebuahchaotic attractordalam phase-plane trajectory. kata kunci:sistem tenaga listrik, elman neural network, chaotic attractor, phase-plane trajectory abstract chaotic oscillation of power systems was deeply studied in this paper. by using a three-bus power system, route may cause chaotic behavior in power systems are evaluated, illustrated and discussed.chaotic oscillationof power systems was modeled using elman neural network because the elman neural networkhas a simple form. backpropagation algorithm with adaptive learning rate and momentum was proposed in this research. performance of learning rate with momentum was better than learning rate without momentum. chaoticbehaviors in a power system appeared due to the system operated in critical mode. a chaotic behavior in power systems was detected by appearing a strange attractor (a chaotic attractor) in phase-plane trajectory. keywords:power systems, elman neural network, chaotic attractor, phase-plane trajectory 1. introduction in recent years, electric power consuming has grown up rapidly. on the other hand, the power plants and transmission systems being built are very slow due to environmentaland economical constraints. this condition will make the power systems operate in critical mode at the boundary of stability region. meanwhile, chaotic phenomena is one type of un-deterministic oscillations exist in deterministic systems such as in power system model.chiang et al, have builtvoltage collapse model, both physical explanations and computational considerations of this model are presented. static and dynamic models are used to explain the type of voltage collapse, where the static is used before a saddle-node bifurcation and the dynamic model is employed after the bifurcation [1]. lyapunov exponent, measuring how rapidly two nearby trajectories separate from one another within state space and broad-band spectrum was used to confirm the observation [2]. within the range of loading conditions, the sensitive dependence feature of chaotic behaviors makes the power system unpredictable after a finite time. in addition, within the range the effectiveness any control scheme was questionable and should bere-evaluated based on state vector information.furthermore,nonlinear phenomena including bifurcation, chaos and voltage collapse occurred in a power system model. the present of the various nonlinear phenomena was found to be a crucial factor in the inception of voltage collapse in this lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 245 model. the problem of controlled and suppressed of the presence of non-linear phenomena in power systems were addressed here in this paper. the bifurcation control approach is approach to modify the bifurcations and to suppress chaos [3,4]. the presence of chaos in a power system causing seriously unstable problem was studiedby yu, et al.[5]. the existence chaos in power systems due to disturbing of energy at rotor speed has been found in ref.[6]. one scheme of chaos utility was used on electrical systems for smelting which was based on chaos control. lei et al. demonstratedthat chaotic steel-smelting ovens regulate their heating current according to chaos control theory [7]. a control system using a neural network controller was presumed to be able to stabilize the unstable focus points of 2-dimensional chaotic systems; although, konishiand kokame stated that the control system did not require this presumption [8]. elman neural network was used to predict short-term load forecasting in power systems [9]. modeling of chaotic behavior using rnn has been studied in [10]. various studies on controlling transient chaos have been carried out, such as those by dhamala et al., and dhamala and lai attempted to control transient chaos in power systems using a data time series [11,12]. strategies for controlling chaos in process plants have been tested on the henon mapdiscrete chaotic system [13]. in this paper, we focused on the cause of chaotic oscillation in power systems and its model. by using elman neural network model is proposed. the reason of using the elman neural network because the elman network is able to traindata both on present input and on past output, and other reason because an elman rnn has simple form. this paper is organized as follows: in advance, power system model used in this research is given in section 2. then, elman neural network model isexplained in section 3. chaotic behavior due to sensitivityof initialcondition and analysis a chaotic behavior are presented in section 4 and 5, respectively. the conclusionis given in the last section. 2. power system model a synchronous machine was modeled as a voltage (eq0’) behind a direct reactance (xd’). the voltage magnitude was assumedas remaining constant at the pre-disturbance value, as shown in fig.1(a).de mello and concordia as well as padiyar and kundur derivedof a machine connected toan infinite bus [13,14]. meanwhile, if saturation and the stator resistance were neglected, the system condition was balanced with a static load. the mechanical mode block diagram of single-machine connected to infinite bus is shown in fig.1(b). figure 1.single machine connected to infinite bus. (a) circuit equivalent (b)mechanical mode. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 246 the machine wasconnected to infinite bus and supplied the load. then the armature current flowedfrom the machine to the load. this current causedelectrical torque on the stator winding, and vice versa. the mechanical torque was produced by flux through the rotor winding. meanwhile, whenthe rotor speed wasconstant, the rotor speed followed thesynchronous speed. when there was imbalanced energy, the rotor speed accelerated or decelerated and caused the swing equation.the swing equation is represented as follows: ema tttdh (1) where d, are amping constant and rotor speed deviation, respectively. eq.1 is a basic equation for mechanical modeof single machine connected to infinite bus. furthermore,the the eq. 1 can be expressed as follows: b (2) dtt m em 1 (3) where tm, te, , , d and m are mechanical torque, electrical torque, power angle, speed rotor, damping constant, inertia constant respectively.the system was developed from ref.[3] and shown in fig.3, which is regarded as one synchronous machine supplying power to a local dynamic load shunt with a capacitor (bus 2) and connected by weak tie line to the extern system (bus 3). the system equations are: . (4) 881.1..333.3 087.0sin667.16 d vll (5) 333.43333.33 209.0cos667.666 333.93 087.0cos667.166 872.496 1 2 d ll l ll ll q v v v v (6) 033.7229.5 135.0cos869.104523.14 012.0cos217.26 764.78 1 2 d ll ll ll q v v vv (7) table 1. power system parameters y0 ym 0 m v0 vm pm m 20. 0 5.0 5. 0 5. 0 1.0 1.0 1.0 0.3 d t c kp kpv kq kqv kqv2 0.0 5 8.5 12. 0 0.4 0.3 0.0 3 2. 8 2.1 lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 247 figure 2.one line diagram power system with 3 buses. , , d, qld, l,vl, arethe power angle, rotor speed deviation, damping constant, reactive load, voltage angle and magnitude at load bus, respectively. eqs.4,5,6,and7 can be simplified into a uniform equation in eq.8. pn rrxxfx ,,, , (8) where x is vector state variables and is vector of parameters. the state variables are x = [ , , l,vl] t, superscript t denote transpose of the associate vector. 3. elmanneural network model recurrent elman network commonly is a two-layer network with feedback from the first-layer output to the first-layer input. this recurrent connection allows the elman network to both detect and generate time-varying patterns. a two-layer elman network is shown in fig.3. the elman network has tansig neurons in its hidden (recurrent) layer and purelin in its output layer. the elman network differs fromconventional two-layer networks in that the first layer has a recurrent connection. the delay in this connection stores values from the previous time step, which can be used in the current time step. thus, even if two elman networks with the same weight and bias, are given identical inputs at a given time step, their outputs can be different due to different feedback states. because network can store information for future reference, it is able to learn temporal pattern as well as spatial patterns [15,16,17,18]. the elman network can be trained to respond and to generate, both kinds of patterns. 2 1 1,2 2 1 1 1,11,1 1 1tansig bnalwpurelinna bnalwpiwna . (9) the architecture 4:8:8:4 rnn is used in this research. where p,a1(n), a2(n), iw1,1, lw1,1, lw1,2, b1 and b2 are the vector input, recurrent-layer output, purelin-layer output, weight first-layer, weight hidden layer back to first-layer, weight hidden layer to output layer and biases, respectively. figure 3.elman recurrent neural network block diagram[18] lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 248 the rnn wastrained by using 1000 data points. tansig and purelin activation function were used at hidden layer and at output layer, respectively. data time series were obtained from the mathematical (exact) model in eqs.4-7, respectively. the network performance is measured by mean square error (mse). formula of the mse can be expressed by equation as follow: k i nn xxk mse 1 2ˆ1 (10) where k, nx and nx̂ are the size ofdata, input and estimation n th data. 4. chaotic behavior due to sensitivity of initialcondition chaos definition and its properties have been given by devaney and alligood et al.[19,20]. sensitivity of initial condition is one type of chaos properties. it is described by existing route to chaotic behavior in power systems caused by sensitivity of initial condition rotor speed ( 0). initial rotor speed ( 0) in power systems was presented by disturbing ofenergy (de). kinetic energy disturbance was related to rotor speed deviation only. the large rotor speeddeviation was implemented as a large de. when de was smaller than the value of 1.3824 rad/s ( 0<1.3824 rad/s)a power system converged to a stable equilibrium point. when the de was increased, the convergencebecame more difficult. at 0 = 1.3825 rad/s, power systems produced route to a chaotic behavior in a longer time.when the de was from1.3825 to 17003 rad/s, the final states were controlled by a chaotic behavior. furthermore, while the de excess than 1.7004 rad/s the system went to divergence or voltage collapse. based on the simulation result it is shown that chaotic behavior in power systems due todisturbing of energy at the rotor speed deviation. table 2. system conditionwith different initial rotor speed ( 0) 0(rad/s) times (s) final state time response 0.5 1000 equilibrium point fig.4(a) 1.3824 1000 equilibrium point fig.4(b) 1.3825 1000 chaotic fig.5(a) 1.7003 1000 chaotic fig.5(b) 1.7004 10 divergen figure 4.simulation results with equilibrium point state lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 249 figure 5.simulation results with chaotic state figure 6. (a).chaotic behavior of the rotor speed deviation (b). magnified of fig. 5 fromtime = 0 to time = 50 s 5. result and analysis in this research, rnn initial simulation parameters were taken: learning rate train parameter = 0.17; increment learning rate = 1.2; decrement learning rate = 0.6; and momentum learning rate = 0.75. the training performance of rnn using adaptive learning rate and adaptive learning rate with momentum are listed in table 3.the training process is organized as follows: performances (mse) are obtained to 14.7001 10 4 and 4.2209 10 4 at disturbance 0 = 0.5 rad/s for algorithm backpropagation adaptive learning rate (traingda) and backpropagation learning rate algorithm with momentum (traingdx),respectively. moreover,performances were obtained to 16.8361 10 4 and 4.6115 10 4 at disturbance 0 1.3825 rad/s. furthermore, performances were obtained to 17.4185 10 4 and 4.9442 10 4at the disturbance 0at the value of 1.7003 rad/s. during the training process the best performancewas obtained to 4.2209 10 4 at the disturbance of 0.5 rad/s. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 250 figure 7. the chaotic behavior of the at 0 =1.7003 rad/s (a). blue = exact model; red = rnn model (b). error signal ofthe figs.7-9 show the time responses of an exact and elman recurrent neural network (rnn) model. fig.7(a) shows rotor speed deviation ( ) time response which was oscillated due to the disturbance occurred at 01.7003 rad/s. rotor speed oscillations exist in range from 1.6052 to 1.5679 rad/s and from 1.511 to 1.6045 for the exact and rnn, respectively. fig. 7(b) shows error signal of the rotor speed deviation; where the error signal is the difference of the exact and rnn model of the rotor speed deviation. voltage angle ( l) at bus 2 is affected by disturbing of energy (de) at generator bus ( 00.5 rad/s). the oscillation on voltage angle occurred at generator bus in a few second,then this oscillation decreased gradually and route to equilibrium point (fixed point) at point of 0.1128and 0.1116 rad for exact and rnn models, respectively. the error signal of the voltage angle was measured by mean square error (mse = 3.8193%), and these results are shown in table 4. figure 8.the chaotic behavior of the voltage angle when 0 at 1.7003 rad/s. (a). blue = exact; red = rnn (b). error signal of the l lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 251 figure 9. the voltage magnitude (vl) time response at 0 = 1.7003 rad/s (a). blue = exact model; red = rnn model (b). error signalof the vl the voltage angle oscillation increased at the disturbance 1.3825, 1.600 and 1.7003 rad/s for exact model with amplitude in ranges (0.0600 to 0.1995 rad), (0.0351 to 0.2730rad), (0.0345 to 0.2748rad) and (0.0340 to 0.2756rad), respectively. and the oscillation for rnn model arefrom 0.0501 to 0.1879 rad, from 0.0460 to 0.2644rad, from 0.0332 to 0.2618radand from 0.0342 to 0.2613rad, respectively. this oscillation occurred in a longer time. voltage angle time response occurring at disturbance 01.7003 rad/s can be shown in fig. 8. when the disturbance ( 0) at the value of 0.5 rad/s,the voltage magnitude oscillated in a few seconds. furthermore, its decreased gradually route to equilibrium state (fixed point) at point 1.095 pu and 1.008 for exact and rnn model, respectively. by increasing disturbance at 0 1.3824 rad/s voltage magnitude is oscillated in a longer time in ranges (0.9967 to 1.1207pu) and then amplitude reduced and fixed point at 1.1095 pu (1520 s). on the opposite, when the disturbing of energy was increased up to 1.3825, 1.600 and 1.7003 rad/s, voltage magnitude oscillated for the exact model where the amplitude increased from0.8307 to 1.1220pu, from0.8285 to 1.1118puand from 0.8290 to 1.1119pu, respectively. and the oscillation for rnn model was in the ranges from 0.8497 to 1.1158pu, from 0.8580 to 1.1235puand from 0.8642 to 1.1185pu, respectively.in fig.9, we can show that the voltage magnitude of the exact and rnn modelsexhibit chaotic behavior. table 3.performance of training algorithm using learningrate momentum 0 (rad/s) training times (s) 102 performances mse ( 10-4) traingda traingdx traingda traingdx 0.5 69.3861 37.403 14.7001 4.2209 1.3824 68.3250 42.342 17.2014 4.9080 1.3825 67.3329 36.750 16.8361 4.6115 1.7003 70.5781 41.840 17.4185 4.9442 state trajectory(orbit) of the against is shown in fig.10, where many circlesare made by themselves with boundary ranges from 1.6011 to +1.5535 rad/sandfrom 0.1165 to +0.7583 rad for the minmaxand minmax, respectively. thestate trajectoriesofthe rnn model are made in rangesfrom 1.6020 to +1.5524 rad/sandfrom 0.1145 to +0.7598 rad, respectively. the attractive form of the is known as strange attractor (chaotic attractor).the strange attractorsof the lagainstvlare shown in fig.11. the strange attractor coordinateswere from 0.0345to 0.2748 rad and from 0.8285 to 1.1118pu for lmaxlmin and vlmax-vlmin, respectively. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 252 meanwhile, the rnn model of the l-vlwas from 0.0332to 0.2618 rad and from 0.8280 to 1.1235pu for lmaxlmin and vlmax-vlmin, respectively. table4.power system state when variation of the de was applied. 0&model (rad) (rad/s) l (rad/s) vl (pu) 0.5exact eq 0.3095 osc 0.2104 to 0.2123 eq 0.1128 eq 1.095 rnn eq 0.3194 osc 0.2008 to 0.2010 eq 0.1116 eq 1.008 mse (%) 0.2636 11.1792 3.8193 8.7051 1.3824exact osc 0.0245 to 0.6160 osc 1.1546 to 1.1049 osc0.0600 to 0.1995 osc0.9967 to 1.1207 rnn osc 0.0256 to 0.6165 osc 1.0246 to 1.0049 osc0.0501 to 0.1879 osc0.9970 to 1.1135 mse (%) 3.9625 6.3023 0.2040 0.1154 1.3425exact osc 0.1156 to 0.7578 osc 1.5711 to 1.5142 osc0.0351 to 0.2730 osc0.8307 to 1.1220 rnn osc 0.1148 to 0.7510 osc 1.5734 to 1.5165 osc0.0460 to 0.2644 osc0.8497 to 1.1158 mse (%) 0.68 0.23 1.09 1.90 1.6000exact osc 0.1165 to 0.7583 osc 1.6011 to 1.5535 osc 0. 0345 to 0. 2748 osc 0.8285 to 1. 1118 rnn osc 0.1645 to 0.7598 osc 1.6020 to 1.5524 osc0.0332 to 0. 2618 osc0.8580 to 1. 1235 mse(%) 0.2163 2.8779 0.0460 0.0407 1.7003exact osc .1157 to 0.7601 osc 1.6052 to 1.5679 osc 0. 0340 to 0. 2756 osc 0.8290 to 1. 1119 rnn osc 0.1345 to 0.7457 osc 1.511 to 1.6045 osc 0.0342 to 0. 2613 osc 0.8642 to 1. 1185 mse(%) 1.0522 17.8296 0.1284 0.1470 note: eq = equilibrium point (fixed point); osc = oscillation. figure 10. state trajectory of the when disturbance was applied at 0 = 1.600 rad/s lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 253 furthermore, existence of the chaotic attractors can also be depicted in figs.12 and 13 for the 01.7003 rad/s. fig.12 was produced by the againsts state trajectories at coordinates from 1.6052 to +1.5679 rad/sandfrom 0.1157 to +0.7601 rad for the minmax and minmax, respectively. the results of thernn model are depicted by red circles at coordinates from 1.5110 to +1.6045 rad/sandfrom 0.1345 to +0.7457 rad for the minmax and minmax, respectively. fig.13 shows the lagainstvl state trajectories at coordinates from 0.0351to 0.2756 rad and from 0.8290 to 1.1119 pu for the lmaxlmin and the vlmax-vlmin, respectively. state trajectories of the rnn model can be depicted by red points at coordinates from 0.0342to 0.2613 rad and from 0.8642 to 1.1185 pu for the lmaxlmin and the vlmax-vlmin, respectively. the complete simulation results are tabulated in table 4. figure 11. the l-vl state trajectory when the de at 0 = 1.6 rad/s was applied figure 12. the state trajectory when the de at the value of 1.7003 rad/s was applied to a power system lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 254 figure 13. the l-vlstate trajectory when the de at the value of 1.7003 rad/s was applied to a power system based on the in table4that the largest mse was 17.8296, where the largest mse was obtained onthe speed rotor deviation ( ) at the value of 1.7003 rad/s. simulation results show that chaotic behavior of power systems can be modeled by the elman recurrent neural network. 6. conclusion chaotic oscillationsin power systems using exact and rnn models are deeply studied in this research. the exact model was obtained using mathematical model. then, the rnn model is obtained by training process using the data from exact model simulation. the training of the rnn model using adaptive learning rate both with and without momentum is compared. the performace of the adaptive learning rate with momentum is better than the other one. chaotic behaviors are detected in power systems by appearing chaotic attractors both at power anglerotor speed and at magnitude-angle voltage state trajectories in phase-plane. 7. future works chaotic behavior of power systems was an interest topic research in recent years. in the future, thechaotic behavior of power systems should be reduced and vanished by applying control strategy properly. references [1] h.-d.chiang, et al, “on voltage collapse in electric power system”, ieee trans. on power syst., vol. 5, no.2, may 1990. [2] h.-d.chiang,p.p. varaiya, f.f. wu and m.g. lauby, “chaos in a simple power system”, ieee trans. on power syst., vol. 8, no. 4, november 1993. [3] h.o.wang, “control of bifurcation and routes to chaos in dynamical system”, thesis report ph.d, isr, the university of maryland, usa, 1993. [4] h.o.wang, e.h.abedand a.m.a.hamdan, bifurcations, “chaos and crises in voltage collapse of a model power system”, ieee trans. on circuit and systems 1: fundamental, theory and applications, vol. 41, no.3, march 1994. [5] y.yu, h.jia, p.li and j.su, “power system instability and chaos”, elect. power syst. res., vol. 65, pp. 187-195, 2003. [6] i m.ginarsa, a.soeprijanto and m.h. purnomo, “implementasi model klasik untuk identifikasi chaotic dalam sistem tenaga listrik akibat gangguan energi”, procs.of the 9thsitia, surabaya, 2008. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 255 [7] z.-m.lei,z.-j. liu, h.-x.sun andh.-x. liu, “control and application of chaos in electrical system”, proceedings of the fourth international conference on machine learning and cybernatics, guangzhou, 18-21august 2005. [8] k.konishi and h. kokame, “stabilizing and tracking chaotic orbits using a neural network”, nolta’95, las vegas, usa, december 10-14, 1995. [9] h. su andy. zhang, “short-term load forecasting using h filter and elman neural network”, procs. of ieee icca, guangzhou china, may 30 to june 1,2007. [10] i m.ginarsa, a.soeprijanto and m.h. purnomo, “modeling of chaotic behavior using recurrent neural networks in power systems”, procs. of icacia, jakarta, 2008. [11] m.dhamala,y.-c.lai and e.j. kostelich, “analyses of transient chaotic time-series”, physical review e, vol. 64, 2001. [12] m.dhamala andy.-c.lai, “controlling transient chaos in deterministic flows with applications to electric power systems and ecology”, physical review e, vol. 59, no.2, february 1999. [13] j. krishnaiah, c.s. kumar and m.a. faruqi, “modelling and control of chaotic processes through their bifurcation diagrams generated with the help of recurrent neural network models: part 1-simulation studies”, journal of process control, elsevier, 2006. [14] k.r.padiyar, “power system dynamic stability and control”, john wiley & sons (asia) pte ltd, singapura, 1984. [15] p.kundur, “power system stability and control”, epri, mcgraw-hill, new york, 1994. [16] o.m. omidvar and d. l. elliot, “neural systems for control”, academic press, february 1997. [17] l.r. medskerandl.c. jain, “recurrent neural networks: design and applications”, crc press, boca raton, 2001. [18] m. norgaard, “neural network based system identification toolbox: for use with matlab”, department of automation, department of mathematical modeling, technical university of denmark. [19] --------, “matlab version 7.04: the language of technical computing”, the matworks inc, 2005. [20] r.l. devaney, “a first course in chaotic dynamical systems: theory and experiment”, addison-wesley publishing company inc, new york, 1992. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 289 perbaikan sistem stanford rte pada kalimat mengandung ekspresi aritmatika rakhmat arianto1, daniel oranova siahaan2, ahmad saikhu3 1,2,3institut teknologi sepuluh nopember, surabaya e-mail: anto.it05@gmail.com1, daniel@if.its.ac.id2, saikhu@if.its.ac.id3 abstrak sistem stanford recognizing textual entailment adalah sistem yang dapat mendeteksi entailment maupun kontradiksi yang terkandung dalam pasangan kalimat text dan hypothesis.pada tahun 2009, dilakukan penelitian pengembangan sistem stanford rte dengan menggabungkan sistem stanford rte pada tahun 2006 dengan sistem stanford rte pada tahun 2008.salah satu kelemahan pada sistem stanford rte tahun 2009 adalah kesalahan deteksi kontradiksi pada pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika.untuk menutupi kelemahan tersebut, ditambahkan fitur aritmatika dalam sistem stanford rte yang khusus memproses pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika.fitur aritmatika dibangun dengan empat tahap utama, yaitu tahap analisa linguistik, tahap pencarian nilai kemiripan kata, tahap penentuan operator aritmatika, dan tahap penyimpulan entailment, kontradiksi, atau tidak diketahui.fitur aritmatika telah dilakukan pengujian terhadap 30 pasang kalimat text dan hypothesis mengandung ekspresi aritmatika yang diambil dari halaman website berita dengan hasil tingkat keberhasilan mencapai 80%. kata kunci: ekspresi aritmatika, entailment, kontradiksi, stanford rte abstract stanford recognizing textual entailment system is a system that detects entailment or contradiction is contained in a sentence pair text and hypothesis. in 2009, research conduct ed stanford rte system development by combining stanford rte system in 2006 with stanford rte system in 2008. one disadvantage of the stanford rte system in 2009 was a mistake to pair sentences contradiction detection text and hypothesis containing arithmetic expressions. to cover these weaknesses, added features stanford rte system of arithmetic in which specialized processing text and hypothesis couple sentences containing arithmetic expressions. features arithmetic built with four main stages, namely the stage of linguistic analysis, word similarity value of finding stage, the stage of determining the arithmetic operators and inference stage entailment, contradiction, or unknown. features arithmetic has been tested on 30 pairs of sentences containing the text and hypothesis arithmetic expressions taken from news web pages with the results achieved 80% success rate. keywords: arithmetic expression, contradiction, entailment, stanford rte 1. pendahuluan stanford recognizing textual entailment (stanford rte) merupakan sistem yang dibangun bertujuan untuk mendeteksi pasangan kalimat mengandung kontradiksi, entailment, atau tidak diketahui.pasangan kalimat yang digunakan masukan terdiri dari kalimat text yang berisikan kalimat uraian dan kalimat hypothesis yang merupakan kesimpulan dari kalimat text.arti kata kontradiksi menurut kamus besar bahasa indonesia adalah pertentangan antara dua hal yang sangat berlawanan atau bertentangan.sedangkan arti kata entailment menurut wordnet 3.0 adalah sesuatu yang disimpulkan (dideduksi atau terkandung atau tersirat). stanford rte pertama kali dibangun pada tahun 2006 [1], bertujuan untuk mendeteksi pasangan kalimat text dan hypothesis yang mengandung entailment. penelitian selanjutnya yang dilakukan untuk mengembangkan sistem stanford rtepada tahun 2008 [2] dimana sistem lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 290 stanford rte yang awalnya digunakan untuk mendeteksi pasangan kalimat text dan hypothesis yang mengandung entailment, digunakan untuk mendeteksi pasangan kalimat text dan hypothesis yang mengandung kontradiksi. pada tahun 2009, dilakukan pengembangan terhadap sistem stanford rte berdasarkan hasil penelitian tahun 2008 yang memiliki tingkat akurasi rendah, maka dilakukan pengembangan dengan cara menggabungkan sistem stanford rte pada tahun 2006 dengan sistem stanford rte pada tahun 2008 [3]. pada penelitian yang dilakukan tahun 2009, sistem stanford rte yang telah dilakukan perbaikan masih memiliki beberapa kelemahan.salah satu kelemahan tersebut adalah kesalahan deteksi kontradiksi terhadap pasangan kalimat text dan hypothesis yang mengandung ekspresi aritmatika.contoh pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika ditunjukkan pada tabel 1. tabel 1. pasangan kalimat mengandung ekspresi aritmatika text hypothesis qasab and an accomplice carried out the assault on the main railway station, killing all 52 people in the luxury hotel and 9 employers in jewish cultural center. the assault on the main railway station, killing 61 people. pasangan kalimat text dan hypothesis pada tabel1 merupakan pasangan kalimat mengandung ekspresi aritmatika karena berdasarkan pemaknaan manusia, frase 52 people dan 9 employers apabila dibandingkan dengan frase 61 people memiliki makna pernyataan yang benar sehingga pasangan kalimat text dan hypothesis pada tabel 1 juga termasuk dalam pasangan kalimat entailment. namun apabila menggunakan sistem stanford rte, pasangan kalimat text dan hypothesis pada tabel 1 akan terdeteksi sebagai pasangan kalimat kontradiksi karena sistem stanford rte pada proses ekstraksi fitur kontradiksi akan memasukkan pasangan kalimat tersebut pada fitur perbedaan angka sehingga sistem stanford rte akan secara langsung membandingkan frase 52 people dengan 61 people dan 9 employers dengan 61 people. hasil perbandingan angka yang dilakukan sistem stanford rte tidak mempunyai makna pernyataan yang benar sehingga pasangan kalimat tersebut termasuk dalam pasangan kalimat kontradiksi. untuk menutupi kesalahan deteksi kontradiksi sistem stanford rte terhadap pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika, ditambahkan sebuah fitur aritmatika pada sistem stanford rte. fitur aritmatika dibangun dengan empat tahap utama, yaitu tahap analisa linguistik menggunakan stanford corenlp[4], tahap pencarian nilai kemiripan kata menggunakan wordnet similarity[5], tahap penentuan operator aritmatika berdasarkan makna kata [6] dan tahap penyimpulan sebagai pasangan kalimat entailment, kontradiksi, atau tidak diketahui. hasil pengujian fitur aritmatika terhadap 30 pasang kalimat text dan hypothesis mengandung ekspresi aritmatika yang diambil dari kalimat berita mendapatkan tingkat keberhasilan mencapai 80%. 2. metodologi penelitian tahapan dalam penelitian ini, diawali dengan pengkajian terhadap pustaka-pustaka yang mendukung penelitian, penggalian data sebagai studi kasus penelitian, pengembangan metode, pengujian metode yang telah dikembangkan, pembahasan terhadap hasil pengujian, dan memberikan kesimpulan terhdap penelitian yang telah dilakukan. 2.1 penggalian data dalam penelitian sebelumnya, digunakan studi kasus rte4 [7] yang telah disediakan oleh pihak penyelenggara konferensi. rte4 merupakan studi kasus yang berisi 1000 pasang kalimat text dan hypothesis mewakili bentuk kalimat tanya-jawab, kalimat informasi, ekstraksi informasi, dan ringkasan dari dokumen. namun, 1000 pasang kalimat pada rte4 yang mengandung ekspresi aritmatika hanya terdapat pada id 332 sehingga diperlukan tambahan lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 291 studi kasus yang diambil dari halaman website berita sebanyak 30 pasang kalimat. contoh studi kasus yang digunakan dalam penelitian ini terdapat pada tabel 2. tabel 2. studi kasus penelitian id sumber text hypothesis 1 http://edition.cnn.c om/2012/10/21/us/ george-mcgoverndead/index.html?h pt=hp_t3 the son of a methodist minister who was a republican, mcgovern was born in avon, south dakota, on july 19, 1922. six years later, his family moved an hour north to mitchell, where mcgovern graduated from mitchell high school in 1940. in 1928, mcgovern’s family moved an hour north to mitchell. . . . . . . . . . . . . 30 http://thedailynews online.com/news/ar ticle_448d4a626cf9-11e2-af8a0019bb2963f4.html genesee county’s december 2012 unemployment rate was 8.2 percent, 0.8 of a percentage point more than it was in november. genesee county’s unemployment rate was 7.3 percent in november. 2.2 pengembangan metode pengembangan metode yang dilakukan adalah sistem stanford rte tahun 2009 [3] ditambahkan fitur aritmatika yang berfungsi untuk memproses pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika. pengembangan metode dilakukan pada proses penyimpulan kontradiksi dimana didalamnya terdapat proses ekstraksi fitur kontradiksi. fitur aritmatika diletakkan setelah fitur perbedaan numerik, tanggal, atau waktu pada proses ekstraksi fitur kontradiksi. fitur aritmatika dapat memproses pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika pada jenis angka numerik, tanggal, dan persen. 2.2.1 jenis angka numerik penggunaan fitur aritmatika pada studi kasus pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika pada jenis angka numerik telah dilakukan penelitian tahun 2013 [8]. apabila kata kerja yang memiliki keterkaitan dengan kata benda sebagai satuan pada kalimat text dan hypothesis sama, maka dilakukan pencarian nilai kemiripan kata dari kata benda yang terkait dengan kata kerja yang sama. apabila nilai kemiripan kata melebihi batas minimal yang telah ditentukan, maka dilakukan penjumlahan pada angka yang terkait dengan kata benda pada kalimat text. hasil aritmatika dari kalimat text akan dibandingkan dengan angka dan kata benda pada kalimat hypothesis. apabila hasil perbandingan angka dan kata benda pada kalimat text dan hypothesis mengandung pernyataan yang benar, maka pasangan kalimat tersebut termasuk dalam pasangan kalimat entailment.apabila hasil perbandingan angka dan kata benda pada kalimat text dan hypothesis mengandung pernyataan yang salah, maka pasangan kalimat tersebut termasuk dalam pasangan kalimat kontradiksi.apabila pasangan kalimat tidak termasuk dalam pasangan kalimat entailment dan kontradiksi, maka pasangan kalimat tersebut termasuk pasangan kalimat tidak diketahui. 2.2.2 jenis angka tanggal penggunaan fitur aritmatika pada pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika pada jenis angka tanggal, diperlukan analisa terhadap hasil deteksi pada normalized ner dari kalimat text untuk menentukan operator aritmatika yang dilakukan pada kalimat text, pencarian tanggal yang akan dilakukan operasi aritmatika, dan bagian dari tanggal yang akan dilakukan operasi aritmatika apakah pada tanggal, bulan atau tahun. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 292 tabel 3. studi kasus jenis angka tanggal id text hypothesis human stanford rte 1 the son of a methodist minister who was a republican, mcgovern was born in avon, south dakota, on july 19, 1922. six years later, his family moved an hour north to mitchell, where mcgovern graduated from mitchell high school in 1940. in 1928, mcgovern’s family moved an hour north to mitchell. entailment contradiction tabel 3 menunjukkan pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika pada jenis angka tanggal yang ditunjukkan pada frase july 19, 1922 dan six years later dibandingkan dengan angka 1928. kolom human menunjukkan hasil anotasi berdasarkan pemikiran manusia dan kolom stanford rte merupakan hasil deteksi menggunakan sistem stanford rte tahun 2009 [3]. tabel 4. deteksi tanggal kalimat pertama pada kalimat text kata ner normalized ner july date 1922-07-19 19 date 1922-07-19 , date 1922-07-19 1922 date 1922-07-19 tabel 5. deteksi tanggal kalimat kedua pada kalimat text kata ner normalized ner six date offset p6y years date offset p6y later date offset p6y tabel 4 menunjukkan hasil deteksi frase pada kalimat pertama dari kalimat text yaitu 1922-0719.sedangkan kalimat kedua dari kalimat text pada tabel 5, deteksi tanggal menunjukkan “offset p6y”. kata offset mempunyai arti “lebih” sehingga operator aritmatika yang akan dilakukan adalah penjumlahan dan kata “p6y” (present 6 years) mempunyai arti terjadi lebih 6 tahun maka angka 1922-07-19 akan dilakukan penjumlahan 6 tahun sehingga menghasilkan angka 1928-07-19. hasil penjumlahan pada kalimat text akan dibandingkan dengan hasil deteksi tanggal pada kalimat hypothesis yaitu 1928. sehingga, pasangan kalimat text dan hypothesis pada tabel 3 dapat diketahui mengandung pernyataan yang benar dan termasuk pada pasangan kalimat entailment. 3. kajian pustaka 3.1 stanford rte tahun 2006 pada tahun 2006, dilakukan penelitian untuk mengikuti konferensi umum bertajuk pascal recognizing textual entailment.dalam penelitian tersebut menghasilkan sebuah sistem stanford rte yang digunakan untuk mendeteksi pasangan kalimat text dan hypothesis termasuk dalam pasangan kalimat entailment atau tidak diketahui. sistem stanford rte terdiri dari tiga tahap utama, yaitu tahap analisa linguistik, tahap penyelarasan pohon dependensi antar kata dalam kalimat, dan tahap penyimpulan entailment atau tidak diketahui [1]. tahap analisa linguistik bertujuan untuk mendapatkan informasi semantik sebanyak mungkin dari masing-masing kalimat text dan hypothesis.analisa yang dilakukan meliputi analisa keterkaitan antar kata dalam kalimat, analisa penamaan entitas dalam kalimat, dan analisa penyederhanaan kolokasi kata yang berdekatan dalam kalimat.keseluruhan hasil analisa linguistik tersirat dalam pohon dependensi yang dihasilkan stanfordcorenlp. contoh lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 293 dependensi antar kata pada kalimat the assault on the main railway station, killing 61 people, ditunjukkan pada tabel 6 dan bentuk visualisasi dari pohon dependensi ditunjukkan pada gambar 1 menggunakan alat bantu grammarscope[9]. tabel 6.dependensi antar kata dalam kalimat dependensi kata det ( assault-2 , the-1 ) nsubj ( killing-9 , assault-2 ) det ( station-7 , the-4 ) amod ( station-7 , main-5 ) nn ( station-7 , railway-6 ) prep_on ( assault-2 , station-7 ) num ( people-11 , 61-10 ) dobj ( killing-9 , people-11 ) gambar 1.visualisasi dependensi antar kata dalam kalimat tahap penyelarasan dependensi antar kata dalam kalimat bertujuan untuk mendapatkan keselarasan tiap kata dalam kalimat text dan hypothesis berdasarkan pohon dependensi antar kata yang dihasilkan oleh tahap analisa linguistik.sistem stanford rte pada tahun 2006 membangun keselarasan kata dengan pemetaan nilai tertinggi dari setiap node pohon dependensi antar kata pada kalimat hypothesis dengan node tunggal atau dengan node kosong dari pohon dependensi antar kata dalam kalimat text. dalam proses penyelarasan antara pohon dependensi digunakan metode stochastic. tahap penyimpulan entailment bertujuan untuk menentukan apakah pasangan kalimat text dan hypothesis termasuk dalam pasangan kalimat entailment atau tidak diketahui. tahap penyimpulan dilakukan dengan cara menempatkan hasil tahapan sebelumnya pada model fitur yang telah disediakan. jenis model fitur meliputi sintaktik, leksikal, dan fenomena semantik termasuk pasangan kalimat text dan hypothesis yang mengandung kata kerja faktif, polaritas, antonim, kata kerja bantu, kuantitas, kecocokan tanggal, waktu dan angka dalam kalimat, kompabilitas dari struktur sintaktik, dan kualitas dari penyelarasan. apabila salah satu fitur atau lebih menyatakan pernyataan yang benar, maka pasangan kalimat tersebut termasuk dalam pasangan kalimat entailment.jika tidak terdapat pernyataan yang benar, maka pasangan kalimat tersebut termasuk dalam pasangan kalimat yang tidak diketahui. 3.2 stanford rte tahun 2008 pada tahun 2008, dilakukan penelitian terhadap sistem stanford rte yang dibangun bertujuan untuk mendeteksi entailment pada pasangan kalimat text dan hypothesis digunakan untuk mendeteksi kontradiksi pada pasangan kalimat text dan hypothesis[2]. penelitian deteksi lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 294 kontradiksi pada pasangan kalimat text dan hypothesis menggunakan sistem stanford rte diperlukan perubahan pada proses pemodelan dan proses penyimpulan. kemunculan kontradiksi pada pasangan kalimat text dan hypothesis dapat digolongkan menjadi dua kategori, yaitu kalimat kontradiksi yang timbul karena adanya kata antonim, negasi, dan ketidakcocokan angka termasuk juga pada jenis angka tanggal dan waktu serta kemunculan kontradiksi karena penggunaan kata kerja aktif, kata kerja bantu, perbedaan leksikal, perbedaan struktur kalimat, dan perbedaan penggunaan kata fakta yang terjadi di dunia. contoh kemunculan kontradiksi dalam kalimat ditunjukkan pada tabel 7 yang diambil dari pustaka. tabel 7.kategori kemunculan kontradiksi no type text hypothesis 1 antonim capital punishment is a catalyst for more crime. capital punishment is a deterrent to crime. 2 negasi a closely divided supreme court said that juries and not judges must impose a death sentence. the supreme court decided that only judges can impose the death sentence 3 numerik the tragedy of the explosion in qana that killed more than 50 civilians has presented israel with a dilemma. an investigation into the strike in qana found 28 con dead thus far. 4 modal verbs prime minister john howard says he will not beswayed by a warning that australia faces more terrorism attacks unless it withdraws its troops from iraq. australia withdraws from iraq. 5 factive verbs the bombers had not managed to enter the embassy. the bombers entered the embassy. 6 struktur jacques santer succeeded jacques delors as president of the european commission in 1995. delors succeeded santer in the presidency of the european commission. 7 leksikal in the election, bush called for u.s. troops to be withdrawn from the peacekeeping mission in the balkans. he cites such missions as an example of how america must “stay the course.” 8 fakta microsoft israel, one of the branches outside the usa, was founded in 1989. microsoft was established in 1989. untuk mendeteksi kontradiksi pada pasangan kalimat text dan hypothesis maka sistem stanford rte pada tahun 2006 dimodifikasi sehingga memiliki empat tahap utama, yaitu tahap analisa linguistik, tahap penyelarasan pohon dependensi kata dalam kalimat, tahap penyaringan pasangan kalimat merujuk pada peristiwa yang sama bertujuan, dan tahap penyimpulan kontradiksi atau tidak diketahui. stanford rte pada tahun 2008 menunjukkan adanya perbedaan dengan sistem stanford rte pada tahun 2006 adalah adanya tahap penyaringan pasangan kalimat yang merujuk pada peristiwa yang sama dan tahap penyimpulan kontradiksi. tahap penyaringan pasangan kalimat bertujuan untuk memastikan bahwa kontradiksi yang muncul dalam kalimat benar-benar terjadi pada pasangan kalimat yang merujuk pada peristiwa yang sama karena apabila perbedaan dalam pasangan kalimat yang membahas peristiwa yang berbeda, tidak termasuk dalam kategori pasangan kalimat kontradiksi. sedangkan untuk tahap penyimpulan kontradiksi dilakukan dengan mengekstraksi pada fitur polaritas, fitur struktural, fitur antonim, fitur angka, fitur faktif, fitur kata kerja bantu, dan fitur relasional. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 295 3.3 stanford rte tahun 2009 penelitian pada tahun 2009, dilakukan terhadap sistem stanford rte pada tahun 2008 yang masih memiliki kekurangan dalam hal ketepatan dalam mendeteksi kontradiksi pada pasangan kalimat text dan hypothesis. untuk menutupi kelemahan tersebut, dilakukan pengembangan terhadap sistem stanford rte dengan menggabungkan deteksi entailment pada sistem stanford rte 2006 dengan deteksi kontradiksi pada sistem stanford rte 2008 sehingga sistem stanford rte pada tahun 2009, memiliki lima tahap utama yaitu tahap analisa linguistik, tahap penyelarasan pohon dependensi kata dalam kalimat, tahap penyaringan pasangan kalimat yang merujuk pada peristiwa yang sama, penyimpulan entailment, dan penyimpulan kontradiksi [3]. penggabungan sistem stanford rte dimaksudkan agar disaat mendeteksi kontradiksi pada pasangan kalimat text dan hypothesis, merupakan pasangan kalimat yang benar-benar tidak termasuk dalam pasangan kalimat entailment sehingga dapat meningkatkan tingkat akurasi deteksi kontradiksi. apabila pasangan kalimat text dan hypothesis tidak termasuk pasangan kalimat entailment, maka akan dideteksi adanya kontradiksi dalam pasangan kalimat, apabila tidak termasuk dalam pasangan kalimat kontradiksi, maka pasangan kalimat tersebut termasuk dalam pasangan kalimat tidak diketahui. sistem stanford rte pada tahun 2009 memiliki tiga kelemahan, yaitu kesalahan deteksi pada pasangan kalimat text dan hypothesis yang mengandung ambiguitas, memiliki perbedaan kalimat aktif-pasif, dan mengandung ekspresi aritmatika. 3.4 stanford corenlp dalam penelitian ini, proses analisa linguistik menggunakan alat bantu stanford corenlp[4]. alat bantu ini merupakan kumpulan metode-metode yang sangat diperlukan dalam pemrosesan bahasa alami. alat bantu ini dapat memberikan bentuk dasar dari tiap kata dalam kalimat, jenis tiap kata dalam kalimat, penamaan entitas dalam kalimat, menormalisasi kata yang menunjukkan tanggal, waktu, dan numerik, menandai atas struktur kalimat dalam bentuk frasa dan dependensi kata, serta menunjukkan frase kata benda yang mengacu pada entitas yang sama. 3.4.1 pos tagger stanford corenlp dapat memberikan informasi jenis kata dari tiap kata dalam kalimat dikarenakan stanford corenlp memiliki metode pos tagger didalamnya. metode ini akan memberikan informasi jenis kata benda, kata kerja, atau yang lainnya pada setiap kata dalam kalimat [10]. contoh deteksi pos tagger yang dilakukan pada kalimat the assault on the main railway station, killing 61 people ditunjukkan pada tabel 8. tabel 8.hasil penggunaan pos tagger kata pos the dt assault nn on in the dt main jj railway nn station nn , , killing vbg 61 cd people nns lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 296 hasil deteksi pos tagger yang ditunjukkan pada tabel 8, tiap kata memiliki jenis masingmasing, dimana dt berarti determiner, nn berarti noun, in berarti preposition, jj berarti adjective, vbg berarti verb, gerund or present participle, cd berarti cardinal number, nns berarti noun, plural. keterangan lebih mendetail tentang pos tagger dapat dilihat pada pustaka. 3.4.2 penamaan entitas sistem stanford corenlp dapat menentukan penamaan entitas yang terdapat dalam kalimat dikarenakan di dalam sistem stanford corenlp digunakan metode stanford ner (named entity recognizer). metode ini juga dikenal sebagai crf classifier yang berfungsi untukmemberikan penamaan terhadap rangkaian kata dalam kalimat yang menunjukkan nama orang, perusahaan, numerik, tanggal, dan lain-lain [11]. penamaan entitas banyak digunakan dalam aplikasi berbasis pemrosesan bahasa alami seperti teks dalam bentuk pertanyaan dan jawaban, rangkuman dan sistem dialog. contoh penamaan entitas dalam kalimat assault on the main railway station, killing 61 people, ditunjukkan pada tabel 9. tabel 9.hasil penamaan entitas dalam kalimat kata ner normalized ner the o assault o on o the o main o railway o station o , , killing o 61 number 61.0 people o hasil penamaan entitas dalam kalimat yang ditunjukkan pada tabel 9, kata 61 terdeteksi sebagai entitas jenis number dan hasil setelah dilakukan normalisasi menjadi 61.0 sedangkan untuk kata yang lain tidak menunjukkan entitas sehinga mendapatkan hasil “o”. perbedaan antara ner dengan normalized nerakan terlihat apabila dalam kalimat terdapat frase yang menunjukkan entitas jenis angka tanggal. 3.5 wordnet similarity metode ini digunakan untuk mendapatkan nilai kemiripan dan keterkaitan antar kata dengan menggunakan isi dan struktur dari wordnet[5]. pengukuran kemiripan kata menggunakan informasi hierarki dari kata atau synsets dan menghitung seberapa tingkat kemiripan kata dengan kata. misalnya, dalam pengukuran tingkat kemiripan kata automobile akan menunjukkna tingkat kemiripan lebih tinggi pada kata boat daripada tingkat kemiripan dengan kata tree dikarenakan fakta yang menunjukkan bahwa kata automobile dan boat termasuk kata yang memiliki hierarki di bawah kata vehicle dalam hierarki kata benda wordnet. pengukuran tingkat kemiripan memiliki dua dasar metode, yaitu berdasarkan isi informasi dari jarak terdekat antar kata (least common subsumer/ lcs) dan berdasarkan panjang jalur antar kata yang dibandingkan.salah satu metode yang berdasarkan panjang jalur antar kata adalah wu & palmer (wup). metode wu & palmer bekerja dengan cara mencari kedalaman lcs dari kata dan menghitung penjumlahan kedalaman dari masing-masing kata. jarak kedalaman kata lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 297 adalah jarak dari kata menuju ke kata yang berada pada simpul akar.jalur pengukuran antar kata adalah kebalikan arah dari jarak terdekat antar dua kata. 3.6 kata bermakna operasi aritmatika dalam pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika, selalu terdapat kata kunci yang mempunyai makna sebagai operator aritmatika. operator aritmatika nantinya akan menentukan apakah operasi aritmatika yang akan dilakukan baik penjumlahan, perkalian, pembagian, dan pengurangan. berikut contoh kata kunci yang menunjukkan operator aritmatika pada tabel 10 [6]. tabel 10.kata kunci bermakna operator aritmatika kata kunci operator aritmatika increase penjumlahan sum penjumlahan total penjumlahan added penjumlahan all penjumlahan difference pengurangan left pengurangan fewer pengurangan minus pengurangan reduce pengurangan times perkalian product perkalian at perkalian per perkalian total of perkalian twice perkalian quotient pembagian ratio pembagian per pembagian percent pembagian half pembagian 4. hasil dan pembahasan hasil pengujian fitur aritmatika terhadap studi kasus 30 pasang kalimat text dan hypothesis pada jenis angka numerik, tanggal, dan persen ditunjukkan pada tabel 11. tabel 11.hasil pengujian fitur aritmatika id human stanford rte fitur aritmatika 1. entailment contradiction entailment 2. contradiction contradiction contradiction 3. entailment contradiction entailment 4 contradiction contradiction contradiction 5. entailment contradiction entailment 6. contradiction contradiction contradiction 7. entailment entailment entailment 8. contradiction entailment contradiction 9. entailment contradiction entailment 10. contradiction contradiction contradiction 11. entailment contracidtion entailment 12. contradiction contradiction contradiction lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 298 13. entailment entailment unknown 14. contradiction contradiction unknown 15. entailment contradiction entailment 16. contradiction contradiction contradiction 17. entailment contradiction unknown 18. contradiction contradiction unknown 19. entailment contradiction entailment 20. contradiction contradiction contradiction 21. entailment contradiction entailment 22. contradiction entailment contradiction 23. entailment contradiction entailment 24. contradiction contradiction contradiction 25. entailment contradiction entailment 26. contradiction contradiction contradiction 27. entailment contradiction entailment 28. contradiction contradiction contradiction 29. entailment contradiction unknown 30. contradiction contradiction unknown dari hasil penelitian tabel 11, menunjukkan bahwa fitur aritmatika dapat mendeteksi pasangan kalimat kontradiksi maupun entailment hingga 24 pasang kalimat atau tingkat akurasi hingga 80%. sedangkan untuk sistem stanford rte tahun 2009, dapat mendeteksi pasangan kalimat entailment maupun kontradiksi hingga 14 pasang kalimat atau tingkat akurasinya 46,67%. fitur aritmatika masih memiliki hasil tidak diketahui pada id 13, 14, 17, 18, 29, dan 30 karena kata benda yang terdeteksi tidak merujuk pada kata benda yang sama dalam kalimat text dan fitur aritmatika tidak dapat melakukan operasi aritmatika melebihi satu operasi aritmatika. sedangkan sistem stanford rte tahun 2009 dapat menghasilkan deteksi yang benar dikarenakan perbandingan angka secara langsung tanpa adanya operasi aritmatika menghasilkan deteksi yang sesuai dengan hasil deteksi berdasarkan pemikiran manusia pada kolom human. 5. simpulan kesalahan deteksi kontradiksi oleh sistem stanford rte tahun 2009 pada pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika disebabkan oleh sistem stanford rte akan membandingkan secara langsung antara angka yang ada pada kalimat text dan kalimat hypothesis sehingga apabila pada kalimat text membutuhkan operasi aritmatika untuk mendapatkan hasil deteksi yang benar, sistem stanford rte tahun 2009 akan mengalami kesalahan deteksi. untuk menutupi kesalahan tersebut, maka ditambahakan fitur aritmatika dalam sistem stanford rte.hasil analisa pada fitur aritmatika, menunjukkan bahwa ekspresi aritmatika dapat terjadi pada jenis angka yang beragam seperti numerik, tanggal, persen, mata uang, dan durasi. namun yang dapat dilakukan oleh fitur aritmatika hanya pada jenis angka numerik, tanggal, dan persen dikarenakan tiap jenis angka diperlukan metode pendeteksian yang berbeda agar bias dilakukan operasi aritmatika.dalam studi kasus yang digunakan, terdapat pasangan kalimat text dan hypothesis mengandung ekspresi aritmatika yang memerlukan operasi aritmatika lebih dari satu jenis operator artimatika sehingga fitur aritmatika masih mengalami kesalahan deteksi. daftar pustaka [1] b. maccartney, t. grenager, m.-c. de marneffe, d. cer, and c. d. manning, "learning to recognize features of valid textual entailments",proceedings of the main conference on lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 299 human language technology conference of the north american chapter of the association of computational linguistics, stroudsburg, pa, usa, pp.41–48, 2006. [2] m.-c. de marneffe, a. n. rafferty, and c. d. manning, "finding contradictions in text",proceeding of acl-08, pp.1039–1047, 2008. [3] s. pado, m.-c. de marneffe, b. maccartney, a. n. rafferty, e. yeh, and c. d. manning, "deciding entailment and contradiction with stochastic and edit distance-based alignment",tac 2008 rte track, 2009. [4] the stanford natural language processing group, the stanford nlp (natural language processing) group,stanford corenlp. [online]. available: http://nlp.stanford.edu/software/corenlp.shtml[accessed: 01-mar-2013]. [5] t. pedersen, s. patwardhan, and j. michelizzi, "wordnet::similarity: measuring the relatedness of concepts",demonstration papers at hlt-naacl 2004, stroudsburg, pa, usa, pp.38–41, 2004. [6] d. j. e. wall, "arithmetic word problems study guide for mcgraw-hill’s asvab,education".http://www.education.com/reference/article/introduction-asvabarithmetic-word-problems/ [accessed: 24-feb-2013]. [7] text analysis conference (tac) past data. http://www.nist.gov/tac/data/past/2008/rte4.html [accessed: 24-feb-2013]. [8] r. arianto, d. o. siahaan, and a. saikhu, "perbaikan metode stanford recognizing textual entailment pada kalimat ekspresi aritmatika",prosiding seminar nasional teknologi informasi dan multimedia, pp.25–13 – 25–17, jan. 2013. [9] doxygen, grammarscope, 2012. [10] k. toutanova, d. klein, c. d. manning, and y. singer, "feature-rich part-of-speech tagging with a cyclic dependency network",proceedings of hlt-naacl 2003, pp.252– 259, 2003. [11] j. r. finkel, t. grenager, and c. d. manning, "incorporating non-local information into information extraction systems by gibbs sampling",proceedings of the 43nd annual meeting of the association for computational linguistics (acl 2005), pp.363–370, 2005. lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 modified knn-lvq for stairs down detection based on digital image ahmad wali satria bahari johana1, sekar widyasari putrib2, granita hajarc3, ardian yusuf wicaksonoa4 ainformatics, faculty of information technology and industry, institut teknologi telkom surabaya surabaya, indonesia 1ahmadsatria13@ittelkom-sby.ac.id(corresponding author) 4ardian@ittelkom-sby.ac.id bdigital business, faculty of information technology and industry, institut teknologi telkom surabaya surabaya, indonesia 2sekar@ittelkom-sby.ac.id clogistics engineering, faculty of information technology and industry, institut teknologi telkom surabaya surabaya, indonesia 3granita@ittelkom-sby.ac.id abstract persons with visual impairments need a tool that can detect obstacles around them. the obstacles that exist can endanger their activities. the obstacle that is quite dangerous for the visually impaired is the stairs down. the stairs down can cause accidents for blind people if they are not aware of their existence. therefore we need a system that can identify the presence of stairs down. this study uses digital image processing technology in recognizing the stairs down. digital images are used as input objects which will be extracted using the gray level co-occurrence matrix method and then classified using the knn-lvq hybrid method. the proposed algorithm is tested to determine the accuracy and computational speed obtained. hybrid knn-lvq gets an accuracy of 95%. while the average computing speed obtained is 0.07248 (s). keywords:visual impairments, glcm, knn, lvq, digital image 1. introduction disability is a condition where a person has limitations in his physical condition. one type of disability is blindness, which is someone who has limited vision. they need tools to facilitate their activities. in this case, blind people often use sticks to detect objects around them and help them move. however, the stick itself has a weakness, where blind people have difficulty recognizing the types of objects around them. the ability to identify obstacles is also necessary for blind people. where several obstacles can endanger their safety. therefore, blind people need technology that can help them detect obstacles around them. one such obstacle is the down of the stairs. where the stairs down is quite dangerous for anyone who falls. over the past few years, several technologies have been developed to help the visually impaired in their movements. ultrasonic sensors have often been used to provide navigation or object detection. the research by arnesh sen kaustav sen jayoti das has developed a system to avoid an obstacle by using ultrasonic sensors. the ultrasonic sensors are paired up on the chest, knee, and toe[1]. however, that technique has limitations, where the sensor cannot detect objects that cannot be touched, such as stairs down. because the sensor emits ultrasonic waves in a straight line and requires many sensors that attach to the body to detect obstacles, some technologies 141 lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 figure 1. camera position are being developed to help blind people currently based on an image to identify the obstacle. that has done by alessandro grassi by using a single smartphone camera. in that research, the system can identify obstacles such as traffic lights and doors[2]. fitri utaminingrum develops a wheelchair that able to detect stairs down by using a camera. that research uses glcm and lvq for the algorithm to classify between stairs down and floor. fitri utaminingrum develops a wheelchair that can detect stairs down by using a camera. that research uses glcm and lvq for the algorithm to classify between stairs down, and floor [3]. several studies described illustrate that some technologies can help blind people in carrying out their activities. in this study, we use digital image processing technology to detect stairs down. this study uses gray level co-occurrence matrix feature extraction to calculate the feature values of the input image. the classification method that we propose is a hybrid k nearest neighbor algorithm and learning vector quantization. knn can find the closest distance between testing data and training data. learning vector quantization has advantages in terms of computational speed. learning vector quantization can carry out the training and testing process quickly, where fast computing time is very influential in the comfort of blind people. 2. research methods 2.1. data source the source of this research dataset was taken from several different buildings. each building has the characteristics of stairs with different ceramics. some buildings have the characteristics of stairs with large tiled floors, which have a unique value that is different from small tile floors. a camera is placed on the chest, as shown in fig 1. two classes are used to detect stairs down. the two classes are stairs down and floors. the image taken from the camera is 480x640 pixels. in the picture, roi will be taken as an indicator of the stairs down or floor. the roi taken is 400x150 pixels and is at the bottom of the image. roi image that is used during the training process is taken manually. researchers take roi, which has characteristics as stairs down, and roi, which has floor characteristics. for taking roi training, there is no provision for coordinates, but the size taken is 400x150. meanwhile, when the testing process, roi is taken automatically, the coordinate position used is fixed. the coordinates of the test roi are at coordinates (40,400) to (440,550). figure 2 shows the position of the roi taken during testing. figure 3(a) shows the roi of the stairs, and figure 3(b) shows the roi of the floors. in this research, the data source used is divided into 2. the data source consists of images used during the training process (200 images) and a set of images used during the testing process (40 images). 2.2. gray level co-occurrence matrix gray level co-occurrence matrix (glcm) is a method that is often used in conducting texture analysis or feature extraction[4][5]. glcm analyzes a pixel in a digital image and determines the level of gray that occurs. the image to be performed feature extraction using gray level cooccurrence matrix must be converted into a grayscale image. gray level co-occurrence matrix has two parameters, namely distance, and angle. characteristics obtained from the matrix pixel 142 lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 figure 2. input image figure 3. (a) roi of stairs down (b) roi of floor values, which have a certain value and form a pattern angle [6][7][8]. the angles in glcm are θ = 0◦, 45◦, 90◦, and 135◦ and the distance values are d =1, 2, 3, and 4. figure 4 is the angular orientation on glcm. glcm carries out several stages to perform feature extraction. the first stage is to form the initial glcm matrix from a pair of 2 pixels based on a predetermined angle and distance. then form a symmetric matrix by adding the glcm matrix with the transpose matrix. then normalize the glcm matrix by dividing each matrix element by the number of pixel pairs. six features will be generated from the glcm feature extraction process. the following are six features used in this study[9]: 1. contrast: this feature calculates the difference in the gray level of an image. the high or low contrast value depends on the amount of difference in the gray level in the image. the contrast value is obtained by equation 1. contrast = l∑ a,b=0 (a − b)2 (1) 2. homogeneity: this feature calculates the value of gray homogeneity in an image. the homogeneity value will be higher if the gray level is almost the same. the homogeneity values are obtained by equation 2. homogeneity = l∑ a,b=0 (a, b)x2 1|a − b| (2) 143 lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 figure 4. angle orientation 3. correlation: this feature shows how the pixel reference correlates with its neighbors. the correlation values are obtained by equation 3. correlation = l∑ a,b=0 pi,j (a − ϑ)(b − ϑ) σ2 (3) 4. eenergy: this feature calculates the level of gray distribution in an image. the energy values are obtained by equation 4. energy = l∑ a,b=0 p 2(a, b) (4) 5. dissimilarity: the dissimilarity values are obtained by equation 5. dissimilarity = l∑ a,b=0 pa,b|a − b| (5) 6. aangular second moment: the angular second moment values are obtained by equation 6. asm = l∑ a,b=0 p(i,j)2 (6) where : • l = number of gray levels in the image as specified by number of levels • a, b = pixel coordinate • p = element a,b of the normalized symmetrical glcm • ϑ = the glcm mean (being an estimate of the intensity of all pixels in the relationships that contributed to the glcm) • σ2 = the variance of the intensities of all reference pixels in the relationships that contributed to the glcm 2.3. k nearest neighbor k nearest neighbor (knn) is a supervised learning algorithm, in which this algorithm generates a classification based on the majority of the k-value categories provided in the training data [10] [11]. the purpose of this algorithm is to classify new objects based on attributes and samples from training data. the k nearest neighbor algorithm uses neighborhood classification as the predicted value for the new instance value.[12]. training data is placed in a place that will be used during the classification process. the unknown sample class is determined by a majority vote of 144 lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 figure 5. knn concept figure 6. lvq architecture its neighboring samples in the training pattern space [13][14]. the most influential parameter on k nearest neighbor is the k-value. where k-value is a parameter of how many nearest neighbors of the object are classified. figure 5 is an example of the knn concept. where the k-value used is 3. then the algorithm will find the three closest neighbors using the euclidian distance equation. equation 7 is a way to find the nearest neighbor using euclidian distances. after getting the three closest neighbors, the next step is to calculate the majority of the class in the three neighbors. where the majority class will be selected as the result of the classification. d(a, b) = √√√√ n∑ k=1 (ak − bk)2 (7) where : • n = number of data • d(a, b) = closest euclidean distance • a = data 1 • b = data 2 • k = feature to n 2.4. learning vector quantization learning vector quantization (lvq) is part of the classification of artificial neural networks with supervised competitive learning [15]. lvq works by using a clustering method where the target/class has been defined by the architecture [16]. the lvq learning model is trained significantly faster than other algorithms such as back propagation neural network. it can summarize 145 lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 figure 7. hybrid knn-lvq or reduce large datasets to a small number of vectors. the competitive layer will automatically learn to classify the input vectors. the classes obtained from this competitive layer only depend on the distance between the input vectors. if the input vectors are close to the same, the competitive layer will classify the two input vectors into the same class [17][18]. figure 6 is an lvq architecture with two classes. the following are some of the steps in running lvq [19]: 1. initialization of initial weight (wj) and value of learning rate (α). the weights used are equal to the number of classes. where each weight represents its respective class. 2. determine the number of training iterations 3. find the closest distance (j) using equation 8. j = |x − wj| (8) 4. update the selected weight value as the minimum value. if the selected condition is the same as the target, an update is carried out using equation 9. if the selected weight is not the same as the target, then the update uses equation 10. wj = wj(old) + α(x − wj(old)) (9) wj = wj(old) − α(x − wj(old)) (10) 5. stop the training process until the specified number of iterations where : • wj = weight of lvq • wj(old) = old weight • j = distance value • x = training data • α = learning rate 2.5. hybrid knn-lvq the limitation of the knn classifier is a false classification of test images when the majority of the nearest neighbors have closely matched features[20]. the computational time of knn depends on the amount of training data used. the more training data, the longer it takes. to overcome this problem, knn could be combined with another classifier[21][22]. here we combine knn with 146 lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 lvq to classifying between floor and stairs down. where lvq has the advantage of speeding up the training and testing process. the idea is that the program runs knn to get 30 data from 200 training data that has the closest value to the test data so that there are only 30 selected training data to be continued in the lvq process. where training is carried out on the lvq to update the initial weight. the initial weight used before training is the average value of the glcm features of each class. two weights represent the class of stairs down and floor. the lvq training process was carried out 100 times. after the training process is complete, it is continued to test data testing with lvq using the latest weights from the training process. the knn-lvq hybrid concept is depicted in figure 7. 3. result 3.1. peformance measures there are 240 pieces of image data used in this study. where the image will be used for training data and partly used as test data. training and testing data use different images. in the training process using the knn-lvq hybrid algorithm, there are as many as 200 images consisting of images indicating the stairs down and images indicating the floor. in the testing process, 40 images consist of images of stairs down and floors. in the testing process to be carried out, we look for the accuracy value obtained using equation 11 [23].tp (true positive) shows the appropriate prediction results, namely the stairs down. tn (true negative) indicates an incorrect prediction result. where the test data is the stairs down, but the results of the floor prediction. fp (false positive) indicates the correct prediction result, namely the floor. fn (false negative) indicates an incorrect prediction result. where the test data is the floor, but the prediction results are stairs down. a = tp + tn tp + fp + tn + fn (11) where : • a = accuracy • tp = true positive • tn = true negative • fp = false positive • fn = false negative 3.2. testing for classification accuracy testing is carried out by comparing the accuracy results obtained from 3 classification methods. the first method is k nearest neighbor, then learning vector quantization. next is our proposed method, namely hybrid knn-lvq. this test is carried out with the same parameters. the glcm distance and angle parameters used are d = 1 and θ = 0◦. the glcm parameter is used when performing feature extraction. so that this test is carried out with the same test data and the same feature value. as for lvq, the training iterations carried out were 100 times and the learning rate used was α = 0.5. iteration and learning rate parameters are used during the lvq and hybrid knn-lvq classification processes. tests were carried out using 40 data consisting of 20 data features of stairs down and 20-floor feature data. this test is shown in table 1. from the tests’ results, the k nearest neighbor algorithm gets the lowest accuracy, which is 90%. the learning vector quantization algorithm gets an accuracy of 92.5%. while the method that we propose can get a better accuracy result that is 95%. these results indicate that the classification process carried out by learning vector quantization gets better results when the training data is selected using k nearest neighbor. by using the process of finding the nearest neighbor on k nearest neighbor, we can obtain a dataset for training that is more in line with the given testing data. 147 lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 table 1. result of accuracy testing method stairs down floor accuracy lvq 18 19 92.5% knn 18 18 90% hybrid knn-lvq 19 19 95% table 2. result of computation time testing no lvq knn hybrid lvq-knn 1 0.02600 (s) 0.02499 (s) 0.06601 (s) 2 0.02899 (s) 0.06100 (s) 0.07702 (s) 3 0.02599 (s) 0.05937 (s) 0.04302 (s) 4 0.03001 (s) 0.10656 (s) 0.11347 (s) 5 0.03000 (s) 0.02700 (s) 0.08907 (s) 6 0.02600 (s) 0.05902 (s) 0.05480 (s) 7 0.02900 (s) 0.03400 (s) 0.08600 (s) 8 0.02500 (s) 0.03100 (s) 0.08454 (s) 9 0.03200 (s) 0.02600 (s) 0.06385 (s) 10 0.02500 (s) 0.05001 (s) 0.04700 (s) average 0.02779 (s) 0.04789 (s) 0.07248 (s) 3.3. testing of computation time computational time testing is carried out to determine the average speed of each algorithm in classifying. this is quite influential on the comfort for users of the stair down detection system. it takes computing time as quickly as possible in the detection. this test uses ten pictures of the same stairs down. in table 2, it can be seen that lvq produces the fastest computation time of 0.02779 (s). while the knn-lvq hybrid produces the slowest computation time, which is 0.07248 (s). this is because the knn-lvq hybrid performs two processes, namely the knn process to obtain k-30 as training data for the training process and test on lvq. 4. conclusion tthis research aims to create a system that can detect the presence of stairs down. the glcm feature extraction method was used to generate six feature values. the six features are contrast, homogeneity, energy, angular second moment, correlation, and dissimilarity. we propose a combination of classification algorithms in determining the class on the test image, where there are two classes, namely stairs down and floors. the combined algorithms are k nearest neighbor and learning vector quantization. we call this merger hybrid knn-lvq, where knn works to get k-30. k-30 is the 30 data that is closest in value to the test data. furthermore, the lvq process conducts training on 30 selected data to update the weights and the testing process on the test data. from the results of the tests conducted, the hybrid knn-lvq method produced a better accuracy of 95%. however, the knn-lvq method has a longer computation time than the comparison algorithm, as shown in table 2. references [1] a. sen, k. sen, and j. das, “ultrasonic blind stick for completely blind people to avoid any kind of obstacles,” in 2018 ieee sensors, 2018, pp. 1–4. [2] a. grassi and c. guaragnella, “defocussing estimation for obstacle detection on single camera smartphone assisted navigation for vision impaired people,” in 2014 ieee international symposium on innovations in intelligent systems and applications (inista) proceedings, 2014, pp. 309–312. 148 lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 [3] a. w. s. bahari johan, f. utaminingrum, and t. k. shih, “stairs descent identification for smart wheelchair by using glcm and learning vector quantization,” in 2019 twelfth international conference on ubi-media computing (ubi-media), 2019, pp. 64–68. [4] r. yusof and n. r. rosli, “tropical wood species recognition system based on gabor filter as image multiplier,” in 2013 international conference on signal-image technology internetbased systems, 2013, pp. 737–743. [5] c. malegori, l. franzetti, r. guidetti, e. casiraghi, and r. rossi, “glcm, an image analysis technique for early detection of biofilm,” journal of food engineering, vol. 185, pp. 48–55, 2016. [6] m. saleck, a. elmoutaouakkil, and m. moucouf, “tumor detection in mammography images using fuzzy c-means and glcm texture features,” in 2017 14th international conference on computer graphics, imaging and visualization (cgiv). los alamitos, ca, usa: ieee computer society, may 2017, pp. 122–125. [7] z. khan and s. alotaibi, “computerised segmentation of medical images using neural networks and glcm,” in 2019 international conference on advances in the emerging computing technologies (aect). los alamitos, ca, usa: ieee computer society, feb 2020, pp. 1–5. [8] s. barburiceanu, r. terebes, and s. meza, “3d texture feature extraction and classification using glcm and lbp-based descriptors,” applied sciences, vol. 11, no. 5, 2021. [online]. available: https://www.mdpi.com/2076-3417/11/5/2332 [9] t. s. a. sukiman, m. zarlis, and s. suwilo, “feature extraction method glcm and lvq in digital image-based face recognition,” applied sciences, vol. 4, no. 1, 2019. [10] m. kenyhercz and n. passalacqua, “chapter 9 missing data imputation methods and their performance with biodistance analyses,” in biological distance analysis, m. a. pilloud and j. t. hefner, eds. san diego: academic press, 2016, pp. 181–194. [11] “chapter 9 object categorization using adaptive graph-based semi-supervised learning,” in handbook of neural computation, p. samui, s. sekhar, and v. e. balas, eds. academic press, 2017, pp. 167–179. [12] k. taunk, s. de, s. verma, and a. swetapadma, “a brief review of nearest neighbor algorithm for learning and classification,” in 2019 international conference on intelligent computing and control systems (iccs), 2019, pp. 1255–1260. [13] x. zhu and t. sugawara, “meta-reward model based on trajectory data with k-nearest neighbors method,” in 2020 international joint conference on neural networks (ijcnn), 2020, pp. 1–8. [14] a. k. gupta, “time portability evaluation of rcnn technique of od object detection — machine learning (artificial intelligence),” in 2017 international conference on energy, communication, data analytics and soft computing (icecds), 2017, pp. 3127–3133. [15] p. melin, j. amezcua, f. valdez, and o. castillo, “a new neural network model based on the lvq algorithm for multi-class classification of arrhythmias,” information sciences, vol. 279, pp. 483–497, 2014. [16] s. qiu, l. gao, and j. wang, “classification and regression of elm, lvq and svm for e-nose data of strawberry juice,” journal of food engineering, vol. 144, pp. 77–85, 2015. [17] e. subiyantoro, a. ashari, and suprapto, “cognitive classification based on revised bloom’s taxonomy using learning vector quantization,” in 2020 international conference on computer engineering, network, and intelligent multimedia (cenim), 2020, pp. 349–353. 149 lontar komputer vol. 12, no. 3 december 2021 doi : 10.24843/lkjiti.2021.v12.i03.p02 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 p-issn 2088-1541 e-issn 2541-5832 [18] i. m. a. s. widiatmika, i. n. piarsa, and a. f. syafiandini, “recognition of the baby footprint characteristics using wavelet method and k-nearest neighbor (k-nn),” lontar komputer : jurnal ilmiah teknologi informasi, vol. 12, no. 1, p. 41, mar 2021. [online]. available: https://doi.org/10.24843%2flkjiti.2021.v12.i01.p05 [19] k. j. devi, g. b. moulika, k. sravanthi, and k. m. kumar, “prediction of medicines using lvq methodology,” in 2017 international conference on energy, communication, data analytics and soft computing (icecds), 2017, pp. 388–391. [20] e. haerani, l. apriyanti, and l. k. wardhani, “application of unsupervised k nearest neighbor (unn) and learning vector quantization (lvq) methods in predicting rupiah to dollar,” in 2016 4th international conference on cyber and it service management. ieee, apr 2016. [21] o. r. de lautour and p. omenzetter, “nearest neighbor and learning vector quantization classification for damage detection using time series analysis,” structural control and health monitoring, 2009. [22] p. sonar, u. bhosle, and c. choudhury, “mammography classification using modified hybrid svm-knn,” in 2017 international conference on signal processing and communication (icspc), 2017, pp. 305–311. [23] r. j. a. kautsar, f. utaminingrum, and a. s. budi, “helmet monitoring system using hough circle and hog based on knn,” lontar komputer : jurnal ilmiah teknologi informasi, vol. 12, no. 1, p. 13, mar 2021. 150 lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 347 perancangan portal interoperabilitas e-government sebagai platform integrasi sistem informasi pemerintahan kota denpasar mochammad rizki romdoni program studi sistem informasi stt indonesia tanjungpinang e-mail: m_rizki_r@yacanet.com abstrak pemerintah kota denpasar telah melewati fase perkembangan e-government kedua yaitu interactive government. untuk mencapai fase ketiga integrated government yang memiliki ciri adanya multiple transaksi yang melibatkan antar berbagai lembaga pemerintahan; telah terkonsep pada program kerja diskominfo, namun belum terlaksana di lapangan. berdasarkan hal tersebut penelitian ini ditujukan untuk mengembangkan sebuah arsitektur berbasis soa (service oriented architecture) yang diberi nama pie (portal interoperabilitas e-government), yang akan digunakan oleh skpd (satuan kerja perangkat daerah) pemerintah kota denpasar dalam berintegrasi dan berbagi sumber daya antar skpd dengan mudah dan dapat diakses serta dimanfaatkan oleh masyarkat pengguna. hasil penelitian adalah mengintegrasikan sistem informasi pemerintahan melalui pie dengan mengikuti prinsip-prinsip dalam soa. kata kunci: interactive government, e-government, service oriented architecture abstract municipal city of denpasar has passed the second phase of development of e-government. today, the existing phase is interactive government. to reachthe third phase of integrated government where its characteristic is multiple transactions should involvevarious government agencies and until now diskominfo remains continue to design but has not been done. based on this research is aimed at developing soa (service oriented architecture) called pie (portalof e-government interoperability), which will be used by skpd (task force of government) to integrate and share resources between skpd easily and can be accessed and utilized by the community users. the results are to integrate the information systems of government through pie based on the principles of soa. keywords: interactive government, e-government, service oriented architecture 1. pendahuluan dinas komunikasi dan informatika kota denpasar telah memiliki program kerja rencana pengembangan e-government tahun 2011-2015 yang salah satunya adalah “terjalin komunikasi dan koordinasi antar instansi melalui jaringan komputer” [1]. salah satu hal yang belum tercapai dari program tersebut adalah belum adanya koordinasi pada level sistem informasi atau perangkat lunak diantara skpd (satuan kerja perangkat daerah) atau badan pemerintah kota denpasar [1], sehingga hal tersebut mengakibatkan duplikasi data kerap terjadi di setiap pengelola dan penyelenggara sistem informasi pemerintah (sumber daya yang overlap atau tidak terkoordinasi), sulitnya melakukan sinergi informasi digital, dan validasi data secara elektronis tidak dapat dilakukan untuk mendapatkan data yang akurat [2]. solusi yang diusulkan untuk mengatasi permasalahan diatas telah banyak dilakukan misalnya mengintegrasikan sistem informasi dua skpd yaitu dinas perijinan dan kependudukan menggunakan salah satu teknologi yang ada pada framewok .net yaitu wcf (windows communication foundation) [3], single database untuk setiap aplikasi [4], atau menggunakan lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 348 web service [5], dan lain-lain; namun kesemuanya itu masih menekankan pada satu teknologi interoperabilitas tertentu. hal tersebut memilikikelemahan yaitu bersifat tighly-couple, artinyaketika terjadi sebuah perubahan pada antar muka service-nya akan menimbulkan efek berantai ke perangkat lunak atau sistem informasi yang menjadi konsumernya untuk menyesuaikan dengan perubahan tersebut. integrasi sistem merupakan suatu keharusan, karena menjadi salah satu sasaran dari inpres [6] yaitu pembentukan jaringan organisasi pendukung (back-office) yang menjembatani portalportal informasi dan pelayanan publik dengan sistem pengolahan atau pengelolaan informasi yang terkait pada sistem manajemen dan proses kerja di instansi yang berkepentingan. sasaran ini mencakup pengembangan kebijakan pemanfaatan dan pertukaran informasi antar instansi pemerintah pusat dan daerah [6]. bila melihat tahap fase perkembangan e-government pemerintah kota denpasar, maka saat ini telah sampai pada tahap ke dua yaitu “interactive government”, yang bercirikan tersedianya isian formulir secara online dan dapat diunduh, kemudian dikembalikan melalui pos, fax, atau email; seperti situs bursa kerja online, eprocurement, dan lain-lain. oleh karena itu untuk peningkatan pelayanan publik terhadap masyarakat dan mengikuti prinsip-prinsip goodgovernance sekarang ini sudah saatnya untuk meningkat menjadi “integrated government” yang memiliki ciri adanya multiple transaksi yang melibatkan antar berbagai lembaga. proses dan sistem yang terdapat di pemerintah kota denpasar semakin besar, kompleks, dan heterogen. untuk mengintegrasikannya membutuhkan effort yang besar karena berhadapan dengan platform teknologi yang tidak seragam; satu skpd menggunakan java, yang lain php atau .net, dan lain-lain. berdasarkan hal tersebut, penelitian ini menawarkan sebuah solusi yaitu membentuk sebuah kanal yang dijadikan sebagai media pertukaran informasi dalam konteks antar portal atau sistem informasi pemerintahan, yang diberi nama dengan portal integrasi egovernment (pie). pie menyediakan mekanisme pengelolaan integrasi dan interkasi antar sistem informasi skpd atau badan yang efesien sehingga diperoleh penyederhanaan dalam proses integrasi. 2. arsitektur pie gambar 1 menjelaskan gambaran umum arsitektur sistem yang akan dibangun secara keseluruhan. arsitektur tersebut terdiri dari beberapa entitas yaitu skpd sebagai service providerdan consumer; masyarakat pengguna sebagai service consumer; dinas komunikasi dan informatika sebagai administrator;dan pie sebagai platform integrasi. masyarakat pengguna pie core pie web apps satuan kerja perangkat daerah (skpd) satuan kerja perangkat daerah (skpd) dinas komunikasi dan informatika gambar 1. arsitektur pie lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 349 2.1 pie web pie menyediakan antar muka berbasis web yang dikembangkan menggunakan bahasa pemrograman php sebagai titik akses untuk menghubungkan masyakarat pengguna ke eservicedansebagai tempat untuk mengelola e-service-nya masing-masing skpd pemerintah kota denpasar; khusus bagi dinas komunikasi dan informatika (diskominfo) digunakan untuk mengelola dan memelihara pie secara keseluruhan. 2.2 pie core pie memiliki komponen penting lain, yaitu pie core. pie core menyediakan interkonektivitas dan discovery capabilities e-serviceyang disediakan oleh skpd,di samping itu memfasilitasi location transparency, transport protocol conversion, message transformation, dan security.pie core merupakan enkapsulasi terhadap esb (enterprise service bus). untuk mempersingkat waktu pengembangan, pada penelitian ini digunakan esb open source yang sudah tersedia, yaitu mule esb versi ke 3.2 (community edition). 2.3 skpd pemerintah kota denpasar dalam menjalankan roda pemerintahanya didukung oleh perangkat alat daerah, diantaranya adalah delapan belas skpd dan sembilan badan pemerintah; sedangkan secara administratif pengelolaan kota di bagi menjadi empat kecamatan [7]. namun pada penelitian ini, tidak seluruh perangkat daerah pemerintah kota denpasar yang akan di integrasikan, tetapi hanya akan diambil beberapa sampel sebagai pilot project yaitu [1]: 1. dinas kesehatan (dinkes) 2. dinas kependudukan dan catatan sipil (capil) kedua skpd tersebut telah memiliki sistem informasi, namun masih parsial [1]; sedangkan diskominfo sendiri berperan sebagai pengelola, pemelihara, dan memberikan sosialisasi serta pelatihan mengenai arsitektur pie kepada skpd, masyarakat pengguna, atau badan pemerintah lainnya dalam rangka melaksanakan salah satu program e-government diskominfo. berikut adalah daftar sistem informasi setiap skpd di dalam tabel 1. tabel 1. sistem informasi setiap skpd skpd sistem informasi dinas kesehatan sistem informasi apotik pada rumah sakit dinas kependudukan dan catatan sipil sistem informasi administrasi kependudukan 2.4 masyarakat pengguna masyarakat pengguna adalah entitas dalam bentuk software yang mengkonsumsi e-serviceyang telah disediakan oleh skpd. entitas tersebut bisa dikembangkan oleh seorang pengembang mandiri, vendor software, rekanan proyek sistem informasi pemerintah, atau yang lainnya. setiap entitas dapat mengkonsumsi satu atau lebih e-serviceskpd; hal ini dikenal dengan istilah composite services. 3. metodologi penelitian gambaran secara garis besar mengenai langkah-langkah yang dilakukan dalam penelitian ini; mulai studi literatur sampai dengan memberikan kesimpulan dan saran. 1. studi literatur studi literatur, dimana literatur-literatur diambil dari penelitian sebelumnya, jurnal ilmiah baik dari dalam negeri maupun luar negeri, dan beberapa buku mengenai prinsip-prinsip soa; selanjutnya, di tambah dengan manual book atau panduan dari instrumen penelitian yang digunakan. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 350 2. investigasi & analisis sistem manfaat dari fase investigasi adalah untuk menentukan problem-problem atau kebutuhan yang timbul, sedangkan analisis digunakan untuk mendefinisikasikan dan mengevaluasi permasalahan, kesempatan, hambatan yang terjadi, kebutuhan yang diharapkan sehingga dapat diusulkan perbaikan. 3. perancangan sistem tahapan perancangan adalah tahapan mengubah kebutuhan yang masih berupa konsep menjadi spesifikasi sistem yang riil. dalam menentukan bentuk sistem riil yang akan dibangun, dibantu oleh metodelogi mdse. tahapan ini merupakan tahap yang sangat kritis, karena bila salah menentukan spesifikasi atau format sistem akan berujung pada kegagalan. 4. implementasi implementasi merupakan tahap penerapan rancangan supaya siap dioperasikan. tahap ini meliputi kegiatan penulisan kode program pieweb dan core. pie web menggunakan bahasa pemrograman php dengan pustaka prado; sedangkan pie core menggunakan bahasa java dengan pustaka mule esb. 5. pengujian pengujian dilakukan untuk mengetahui komponen-komponen sistem telah berfungsi dengan baik. dalam menguji perancangan dilakukan dengan cara mengimplementasikannya ke dalam bentuk software yang diberi nama pie. selanjutnya pie di uji dengan pendekatan black-box. 6. kesimpulan & saran terakhir adalah melakukan evaluasi arsitektur sistem pie secara keseluruhan; kemudian diikuti dengan memberikan kesimpulan terhadap hasil penelitian yang telah dilakukan dan mengajukan saran-saran yang diperlukan untuk penelitian selanjutnya pada bidang software enginereeng pada domain soa. 4. kajian pustaka 4.1 soa (service-oriented architecture) sebagian orang mengartikan soa dengan nada sarkasme “same old architecture”, tetapi ini jauh dari sebuah kebenaran [8]. soa adalah sebuah konsep yang digunakan ketika akan membangun sistem yang besar dan terdistribusi dengan variasi platform teknologi yang berbedabeda. soa adalah sebuah paradigma atau cara berpikir yang berdasarkan pada tiga konsep utama yaitu service, interoperability melalui enterprise service bus (esb), dan loose coupling[9]. soa bukanlah sebuah arsitektur yang konkrit; soa adalah sesuatu yang mengarah pada arsitektur yang kongkrit (‘..architectural paradigm for dealing with business processes..’); soa bisa dipanggil dengan sebuah style, paradigma, konsep, prespektif, filosofi, atau gambaran. artinya, soa bukan sebuah tools atau framework nyata yang bisa kita beli, jadi ini adalah sebuah pendekatan, cara berpikir, value system (moral code) yang mengarah pada keputusan-keputusan tertentu saat merancang sebuah arsitektur software[9]. menurut[9], konsep teknis dari soa terdiri dari tiga yaitu services, interoperability, dan loose coupling. 4.1.1 services secara teknis service adalah sebuah antarmuka (interfaces) untuk sebuah atau beberapa messages yang mengembalikan informasi dan/atau merubah sebuah state suatu entitas yang terkait (backend) [9]. tujuan utama dari services adalah untuk merepresentasikan langkahlangkah fungsionalitas bisnis, artinya sebuah services harus mewakili fungsionalitas mandiri yang sesuai dengan kegiatan dunia bisnis di dunia nyata [9]. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 351 4.1.2 interoperability tujuan utama soa adalah menghubungkan sistem-sistem yang heterogen dengan mudah, dikenal dengan ‘high interoperability’. ide ini tidak baru, sebelumnya telah dikenal dengan enterprise application integration (eai). penjelasan terperinci mengenai konsep interoperability dapat dilihat di subbab 4.2. 4.1.3 loose coupling loose couple dalam pengembangan aplikasi mengacu pada ukuran tingkat ketergantungan komponen software satu sama lain [10], dalam konteks soa loose coupling adalah sebuah prinsip dimana consumers dan services terisolasi dari perubahan teknologi dan lingkungan yang mendasarinya; dalam beberapa hal tertentu, prinsip loose coupling mendeskripsikan pemisahan logis sebuah permasalahan. artinya, consumer secara sengaja dipisahkan koneksinya secara fisik atau langsung dengan services yangmaksudnya adalah untuk melindungi integritas consumers atau providerdan menghindari ketergantungan fisik diantara services [11]. 4.2 enterprise service bus (esb) esb terkadang disebut sebagai “messaging middleware” tidak lebih dari sebuah platform yang dapat menghantarkan data antara berbagai aplikasi yang berlainan. data dibawa ke dan dari serangkaian pemberhentian, yang dikenal sebagai “endpoint”. internal sebuah esb berisi mekanisme routing yang mengetahui bagaimana mengarahkan data tertentu dari titik a ke titik b [12]. gambar 4, mengilustrasikan sebuah esb dengan bentuk sebuah saluran logic yang menjangkau masing-masing endpoint, yang memungkinkan data dapat dikirim atau diterima dari berbagai aplikasi melalui bus. data ditransfer ke atau dari masing-masing endpoint menggunakan protokol tertentu, misalnya koneksi tcp atau http. namun esb lebih dari sekedar protokol atau kanal komunikasi; tetapi merupakan sebuah messaging framework[12].intinya sebuah esb adalah sebuah produk teknis untuk memecahkan permasalahan integrasi sistem. 5. perancangan terdapat dua perancangan yaitu, arsitektur service pie core dan pie web. pie core merupakan sebuah layer yang berfungsi sebagai jembatan atau kanal sistem informasi skpd berinteroperabilitas; sedangkan pie web bertugas sebagai interfaces dalam mengelola pie. 5.1. proses bisnis pie core gambar 2 menjelaskan proses bisnis konsumermengkonsumsi e-service yang disediakan oleh provider. proses diawali oleh permintaan token dengan mengirimkan message payload yang berisi caid (consumer apps id). caid diotentikasi, yang secara otomatis mendeteksi jenis transpor message payload dan menyesuaikan prosesnya; bila proses otentikasi berhasil, token di-generate menggunakan fungsi md5 dan disimpan kedalam database. selanjutnya token dikirimkan kepada konsumer. token tersebut digunakan untuk memelihara sesi komunikasi antara konsumer dan pie core. menimbang faktor keamanan usia token dibatasi dalam waktu menit yang lamanya ditentukan oleh admin pie. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 352 c o n s u m e r p ie c o re request token :caid authentication process send error response [no][no] :failedresponse send token [yes][yes] :token place message payload :message payload exchangemes sagein p ro v id e r : message payload process message payload : message payload exchangemess ageout receive message payload :message payload check mode appsid productionproduction get the number request sandboxsandbox send error response number request >= provider defined number request >= provider defined :limitaccessexceeded counting new request number request <= provider defined number request <= provider defined generate token gambar 2.proses bisnis konsume rkonsumsi e-service provider (diagram bpmn) konsumer dalam mengkonsumsi e-service yang disediakan provider, tidak secara langsung ke provider tetapi melalui pie core. pie core disini bertindak sebagai broker. konsumer mengirimkan message payload ke pie core dengan meletakannya pada transpor tertentu, misalnya http, ftp, jms dan lain-lain. pie core melakukan pengecekan terhadap e-service untuk mengetahui modenya; bila “sandbox” maka task “get number request” dieksekusi untuk mengetahui jumlah permintaanselama satu hari, seandainya hasilnya lebih besar dari yang telah di tetapkan oleh provider maka konsumsi e-service dihentikan. mode caid bertipe “production” atau jumlah request kurang dari yang telah ditetapkan, maka proses “exchangemessagein” dieksekusi yang hasilnya dikirimkan ke provider; message payload tersebut diproses, yang hasilnya dikirimkan kembali ke pie core; pie core pada “exchangemessageout” mengirimkan hasilnya kembali ke konsumer. task “exchangemessagein” dan “exchangemessageout” dilakukan oleh mule esb yang meliputi transformasi message payload dari satu format ke format lainnya, misalnya jms ke json atau json ke jms. mule esb juga mengatur rute transpor untuk aliran message payload dari konsumer ke provider atau sebaliknya. 5.2. proses bisnis pie web didalam pie web terdapat proses bisnis yaitu pengelolalaan e-service yang di ilustrasikan pada gambar 3. proses bisnis tersebut terdiri dari tiga partisipan yaitu “konsumer”, “provider”, dan “pie web”. didalam gambar diagram bpmn tersebut, “konsumer” dan “provider” di asumsikan telah terdaftar di dalam pie web. proses ini, dimulai dari log on ke dalam pie web; setelah berhasil, provider menginputkan sistem informasi yang dibagi dengan entitas lain. provider membuat dan mengkonfigurasi e-service yang merupakan perwakilan satu fungsionalitas dari setiap sistem informasi. setiap sistem informasi dapat memiliki e-service lebih dari satu. pie web memproses e-service baru dengan menyimpannya ke dalam database pie. konsumer disaat membutuhkan informasi e-service untuk dikonsumsi, melakukan query melalui pie web ke dalam database pie. hasil dari query tersebut tergantung pada jenis konsumernya; jika “skpd” maka e-service di-filter berdasarkan mode protected dan public; jika “masyarakat pengguna” yang bertipe public. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 353 c o n s u m e r log-on pie web p ro v id e r get list eservies p ie w e b log-on pie web prepare new eservices process new eservices decide consumer query eservices mode=”protected & public” skpdskpd query eservices mode=”public” masyarakat penggunamasyarakat pengguna pie db new eservicesnew eservices eserviceseservices eserviceseservices send list eservices register to eservices approving request eservies nono configuring request eservices yesyes process request eservices input skpd information system deploy eservices deployment eservices select integration scenario generate caid gambar 3. proses bisnis pie pengelolaan e-service (diagram bpmn) konsumer melakukan registrasi pada e-service yang telah diperoleh, kemudian “provider” memberikan persetujuan apakah diterima atau ditolak; bila diterima provider mengkonfigurasi eservice yang diminta oleh konsumer dan pie web menyimpan konfigurasi tersebut; terakhir konsumer memilih skenario integrasi dan men-deploy e-service, yang kemudian dieksekusi oleh pie core. pie web men-generate caid yang menjadi inputannya adalah appsid e-service dan id registrasi. 5.3. use case pie web diagram use case adalah deskripsi kemampuan atau lingkungan sistem dari sisi setiap entitas (organisasi, divisi, software, dan lain-lain). bagi developer sistem, usecase adalah sebuah alat yang digunakan untuk mengumpulkan kebutuhan dari sistem dari sudut pandang user yang terlibat. gambar 4 diagram use case pie web. gambar 4. diagram use case pie web lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 354 6. implementasi imlementasi adalah perwujudan atau realisasi dari rencana ide, model, spesifikasi desain, atau kebijakan. dalam implementasi digunakan bahasa pemrograman java, bahasa visual basic .net, dan php; sedangkan untuk pustaka program menggunakan mule esb pada dan prado (php rapid application development object-oriented). 6.1 antar muka pie web antar muka merupakan bagian yang paling penting dari sebuah sistem. antar muka merupakan tempat dimana komponen visual dan non visual diletakan untuk membentuk sebuah aplikasi. setiap user (masyarakat pengguna, skpd, admin) memiliki antar mukanya masing-masing. 6.2.1 halaman admin halaman admin terdiri dari beberapa menu penting yaitu “skenario integrasi, “skpd”. gambar 5, menunjukan daftar skenario integrasi yang telah di inputkan. skpdberperan sebagai provider atau konsumer. data skpd tersebut ditambahkan oleh admin. gambar 5.daftar skenario integrasi 6.2.2 halaman provider (skpd) provider adalah pihak yang menyediakan e-service untuk di konsumsi oleh konsumer. pada pie yang bertindak sebagai provider adalah skpd. antar muka pada halaman provider dikaitkan dengan proses bisnis “prepare new eservices”. dalam proses bisnis tersebutdimulai dengan memilih sistem informasi skpd yang sebelumnya telah di inputkan oleh provider. gambar 6 menampilkan halaman untuk mengatur skenario integrasi yang digunakan oleh konsumer (skpd dan masyarakat pengguna). disamping itu terdapat informasi mengenai data e-service, seperti nama e-service, alamat, dan lain-lain. gambar 6.halaman pengaturan skenario integrasi untuk konsumer lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 355 gambar 7 menampilkan daftar konsumer yang mendaftar pada e-service. provider sebelum menyetujui, mengatur mode e-service yang dikonsumsi oleh konsumer apakah sandbox atau production. antar muka ini sesuai dengan proses bisnis “configuring request eservices”. gambar 7.provider menyetujui request e-service dari konsumer provider menentukan jumlah request yang dapat diakses oleh konsumer perharinya. provider pada halaman tersebut juga dapat mengubah mode e-servicesandbox atau production. 6.2.3 halaman konsumer konsumer (masyarakat pengguna dan skpd), sebelum memanfaatkan sebuah e-service harus terlebih dahulu mendaftar pada e-service (gambar 8). antar muka ini berkaitan dengan proses bisnis “register to eservices” dan “deploy eservices”. gambar 8.skpd mendaftar pada e-service skpd lainnya setelah proses registrasi e-servicedisetujui oleh provider, maka selanjutnya konsumer memilih skenario integrasi yang sesuai dengan proses bisnis internalnya masing-masing (gambar 9). konsumer mendapatkan caid. caid digunakan untuk mendapatkan token dari pie. terakhir konsumer, men-deploye-service tersebut. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 356 gambar 9.konsumer memilih skenario integrasi dan men-deploye-service 7. pengujian integrasi sistem test case utama dalam penelitian ini menggunakan dua buah prototipe sistem informasi (gambar 10). gambar tersebut mengilustrasikan test case pertukaran data dan protokol oleh partisipan pie. platform teknologi untuk berintegrasi yang digunakan oleh partisipan, menggunakan teknologi yang populer di pakai pada saat ini yaitu jms dengan apache activemq dan web service. apache activemq pie siaksiars uri request json response produce messages consume messages consume messages produce messages gambar 10.skenario integrasi siars dan siak melalui pie sistem informasi apotik rumah sakit (siars) adalah sistem yang digunakan untuk membantu apoteker dalam mengelola apotik. siars dikembangkan menggunakan bahasa pemrograman visual basic .net. salah satu program pemerintah kota denpasar adalah menggratiskan biaya pengobatan beserta resepnya di rumah sakit pemerintah. program ini memiliki syarat dan ketentuan yaitu hanya berlaku bagi warga kota denpasar yang dibuktikan dengan cara menunjukan ktp. supaya program ini tepat sasaran maka diperlukan verifikasi keabsahan ktp ke siak (sistem informasi administrasi kependudukan) di dinas catatan sipil. siak (sistem informasi administrasi kependudukan) dikembangkan menggunakan bahasa pemrograman java dengan netbeans ide. sesuai skenario, siak mempublis e-servicedalam bentuk jms ke apache activemq. dalam rentang waktu tertentu (detik) pie mengkonsumsi message dari active mq yang selanjutnya dikirimkan kembali ke siak melalui protokol http dengan format data json. pengujian integrasi sistem siak dan siars dilakukan dengan cara pemanggilan e-service siak oleh siars yang secara umum dilakukan untuk mengetahui apakah pie core berhasil mentrasnformasikan dan mengirimkan message payload dari konsumer ke provider dan sebaliknya. dalam pengujian ini dikembangkan prototipe siars seperti gambar 11 dan siak seperti gambar 12. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 357 gambar 11.form input data pasien gambar 12.form daftar master penduduk sesuai proses bisnis konsumsi e-service (gambar 3), siars melakukan otentikasi dengan melakukan request menggunakan protokol http ke alamat dan format berikut “http://192.168.55.1:8081/authentication/caid” yang nilai kembaliannya adalah sebuah token. langkah selanjutnya siars mengkonsumsi e-service, dengan cara menyertakan token dalam setiap request-nya ke alamat dan format berikut “http://192.168.55.1:8000/token/noktp”; informasi alamat e-service dan port-nya diperoleh dari data e-service (gambar 9). petugas apoteker di rumah sakit menginputkan data pasien melalui form data pasien. didalam form tersebut terdapat beberapa isian diantaranya nomor pasien, nomor ktp, nama pasien, jenis kelamin, dan lain-lain. di saat petugas menekan tombol save maka siars menghubungi pie untuk mendapatkan validitas no. ktp yang outputnya bila gagal, tampil sebuah message box seperti gambar 13. pie core mentransformasi message payload melalui transpor http menjadi jms, kemudian mengirimkannyake activemq. secara random siak melakukan pengecekan queue di activemq, bila terdapat message diqueue maka akan di konsumsi; hasilnya dikirimkan kembali ke activemq, selanjutnya pie melakukan transformasi ke dalam bentuk json. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 358 gambar 13.message box no. ktp tidak terdaftar di siak melalui dua prototipe tersebut validitas fungsional pie diuji yaitu dengan mengintegrasikan sistem informasi yang berbeda platform telah memberikan hasil yaitu respon kegagalan untuk proses validasi no ktp dengan nilai input bertipe string yang di request dari siars ke siak; hal ini disebabkan karena no ktp yang di request tidak terdaftar di siak. 8. simpulan berdasarkan hasil uji coba yang telah dilakukan dapat disimpulkan hal-hal sebagai pie berhasil mengintegrasikan dua sistem informasi pemerintahan yang berbeda platform yaitu siars (dinkes) dan siak (capil). pemilihan pustaka mule esb sebagai coredari pie berperan dengan baik dalam mendukung arsitektur pie. prado sebagai framework php dapat mempercepat proses pengembangan pie web. daftar pustaka [1] ketut agus indra diatmika, s.kom., staf pos dan telematika dinas komunikasi dan informatika kota denpasar. (komunikasi pribadi, 02 januari 2012). [2] http://biogen.litbang.deptan.go.id/wp/terbitan/presentasi-herry%20abdul%20aziz.pdf, [diakses tanggal 24 september 2012] [3] nofian adi prasetyawan, rancang bangun framework berbasis .net framework menggunakan konsep soa studi kasus: e-government pada dinas perijinan dan dinas kependudukan, tugas akhir, institut teknologi sepuluh november, http://www.aptika.kominfo.go.id/forumegov2011/unduh.php?name=pengelolaan+integra si+informasi+dan+pertukaran+data.pdf, [diakses tanggal 30 september 2012] [4] ali nasrun, rully agus hendra, muhammad priandi,urgensi integrasi sistem informasi akuntansi instansi pemerintah, jurnal teknik its. volume 1, 2012. [5] franco arcieri, elettra cappadozzi, enrico nardelli, maurizio talamo. sim : a working example of an e-government service infrastructure for mountain communities. database and expert systems applications (dexa). munich, 2001: 407-41. [6] instruksi presiden ri no. 3 tahun 2003 tentang kebijakan dan strategi nasional pengembangan e-government. [7] http://www.denpasarkota.go.id/instansi/?cid===wn&s=menu&id=563, [diakses tanggal 5 januari 2012]. [8] http://tutorials.jenkov.com/soa/soa.html, diakses tanggal 22 nopember 2011 [9] nicolai m. josutti, soa in practice: the art of distributed system design. california: o’rielly media, inc, 2007. [10] . tom yuan gao, the complete reference to professional soa with visual studi 2005 (c# & vb 2005) .net 3.0. us: lulu press, 2007. [11] james bean, soa and web services interfaces design: principles, techniques, and standars. burlington : elseveir, 2010. [12] peter delia, antoine borg, ricston ltd. mule 2 a developer’s guide. appress, 2008. lontar template lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 102 offline signature identification using deep learning and euclidean distance made prastha nugrahaa1, adi nurhadiyatnab1, dewa made sri arsaa2 adepartment of information technology, udayana university badung, indonesia bfaculty of electrical engineering and computing, university of zagreb zagreb, croatia 1nmadeprastha@gmail.com (corresponding author) 2adi.nurhadiyatna@fer.hr 3dewamsa@unud.ac.id abstract hand signature is one of the human characteristics that humans have since birth, which can be used for identity recognition. a high accuracy signature recognition is needed to identify the correct owner of the signature. this study presents signature identification using a combination method between deep learning and euclidean distance. this study uses three different signature datasets are used in this study which consists of sigcomp2009, sigcomp2011, and private dataset. first, signature images are preprocessed using binary image conversion, region of interest, and thinning. the preprocessed image then has its feature extracted using densenet201 and further identified using euclidean distance. several testing scenarios are also applied to measure proposed method robustness, such as using various pretrained deep learning, dataset augmentation, and dataset split ratio modifiers. the best accuracy achieved is 99.44%, with a high precision rate. keywords: hand signature, sigcomp2009, sigcomp2011, thinning, region of interest, identification, deep learning, euclidean distance 1. introduction signature is human identifier biometrics that is well known and recognized as a tool for identifying a person [1]. a signature is a handwriting or hand stroke with a unique writing style, such as a line of stroke that resembles the name of the signature owner or symbol used as proof of an individual's identity. the signature was recognized as a biometric feature after uncitral established the first digital signature law in the early 90s. signature recognition can be classified into two main groups, which consist of online signature and offline signature. online signature recorded by using touch screens panels like smartphones or tablets. the recorded signature then has its feature extracted, such as pressure points and the path or steps taken while creating the signature. offline signature only needs scanning process on the signature image and remove the needed feature based on the scanned image [2]. offline signature identification is considered more difficult than online signature since offline signature does not have a dynamic feature that is present on online signature [1]. offline signatures depend only on the capture signature shape available from the signature image, while online signatures can use various features such as pressure points and velocity of the drawn signature [3]. signature is used as identity when making a transaction on an online market or e-commerce. signature is also used as an attendance mark on the high amount of workspace, which is why research on signature identification has recently gotten a lot of attention. various methods are used to identify a signature, such as research [3] conducted using binary image conversion and image morphology which consist of erosion and dilation as image preprocessing. convolutional lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 103 neural network is used as both training and identification methods. this study offers a 92% accuracy average as the final result using the dataset from sigcomp2011. this study used convolutional neural networks as feature extraction and identification methods. convolutional neural network is also used in this study [4], where the study used median filter, extracted signature line, and centering as image preprocessing. the highest result achieved in this study is 73% accuracy in predicting grayscale signature by using 7:3 training data and testing split data ratio. study [5] conducted a study using a random forest classifier to identify handwritten signature and binary image conversion as image preprocessing. this study also implemented various classification methods by using the sigcomp2009 dataset. the highest accuracy obtained is 60%. the problem in this study is that the proposed method is too flexible and has a high chance of false results. study [6] used combination methods for signature recognition, such as principal components analysis (pca) as feature extraction and euclidean distance as classification methods. image preprocessed by using gray level thresholding. study [6] achieved a 95% accurate result. this is achieved by using a private dataset that consists of two writer classes. the dataset used is too small and need more writer classes six years later, study [7] continued the previous study [6] and conducted a similar study using different methods and datasets. this study used ten writer classes as its dataset and used gray scaling as image preprocessing. the preprocessed image then has its dimension changed into 100x100 px and 50x50px, which further has its feature extracted using gray level co-occurrence (glcm). the extracted feature is used as an identification process with euclidean distance. study [7] obtained 67.5% accuracy as the study's highest result by splitting the dataset by 3:2 ratio of training and testing data. this study still needs further improvement for a better result, both on the feature extraction process and the amount of dataset used. the proposed study used the combined method from previous studies, starting from image preprocessing consisting of image conversion, region of interest area, and image thinning. one of the signature dataset used is sigcomp2011 that is also used in the study [3], while feature extraction is done by using pretrained deep learning, and image classifier using euclidean distance similar to study [6] and [7]. the result of this study is a better performance signature identification system using the combined method from a previous study and its performance in several testing scenarios. 2. research methods this study focused on improving system performance by combining several methods mentioned or tested in the previous study. these methods include using densenet201 as a feature extraction method while using euclidean distance as an identification method, with various image preprocessing steps to increase the system's final performance further. the general process of the proposed methods is shown in figure 1. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 104 figure 1. general process signature identification was done by doing two separate processes, such as making a training signature feature database and the actual identification process. both training signatures and testing signatures went through the same image preprocessing and feature extraction. feature extraction is done by using densenet201. input picture is set into 100x120 pixels, while extracted feature is adjusted into 17280 rows. flatten 17280 feature extracted feature preprocessed image densenet201 feature adjustment reshape 100x120 figure 2. feature extraction using densenet201 extracted training signatures feature saved as feature database and as comparison with test signature features for signature identification. the final result will show the predicted signature class or owner. 2.1. datasets this study used three different datasets that were also used by the previous research, which consist of icdar 2009 signature verification competition (sigcomp2009) [8], icdar 2011 signature verification competition (sigcomp2011) [9], and private dataset. details of used datasets are shown in table 1. table 1. dataset details testing signature image signature class prediction signature identification (euclidean distance) training data feature training signature images image preprocessing feature extraction (pretrained deep learning) testing data feature lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 105 datasets will be divided into training signatures dataset and testing signatures dataset. the private dataset is divided into ten training signature images and five testing signature images per class. sigcomp2009 consists of 4 training signature images and eight testing signature images on each class, while sigcomp2011 consists of 15 training signature images and nine testing signature images. different proportion on the dataset is applied to find out the impact of modified dataset total to system performance. 2.2. image preprocessing both training and testing signature images will go through various image preprocessing methods. image preprocessing needed to be done since original signature images are affected by the different conditions when captured, such as different lighting and noises from the scanning device [10]. image preprocessing steps are shown in figure 3. figure 3. preprocessing steps the result of image preprocessing is shown in figure 4. original signature image (a) will be converted into grayscale image (b), then further converted into a binary image (c). the region of interest (roi) method is applied to the binary signature image to reduce the background image (d). roi can remove unused background from the image for the system to do better and faster processing [11]. figure 4. image preprocessing process image preprocessing then continued into thinning (e). thinning is one of the morphological image operations used to remove foreground pixels from the binary image. thinning can also be defined as reducing the image to some extend and preserved the points needed for image processing [12]. 2.3. feature extraction the preprocessed image gets its feature extracted using pretrained deep learning. pretrained deep learning is a series of neural networks used to classify the object. pretrained deep learning is also called transfer learning and can save time since researchers do not need to train the models from scratch like traditional convolutional neural networks (cnn) [13]. cnn consists of neural networks with untrained weights and bias, which makes cnn take longer time to do the identification process [14]. there are various pretrained deep learning architecture model, such as inception [15], xception [16], vgg [17], resnet [18], mobilenet [19], and densenet [20]. the numbers behind pretrained deep learning architecture said behind the model used to show the dataset total image writer classes sigcomp2009 936 78 sigcomp2011 480 20 private 750 50 original image (a) grayscale image (b) binary image (c) roi image (d) thinned image (e) lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 106 value of layers used, as, in densenet201, the model architecture used is densenet [20]. it has 201 layers of deep convolutional neural network. preferred pretrained deep learning model must be loaded first so the model can extract the feature within images. feature extraction steps are shown in figure 5. figure 5. feature extraction steps the output of feature extraction is a difference based on the initial input. training signature images will get their feature extracted and saved on a single folder as a csv file, which will be used in the identification process. testing signature images will get their feature extracted and directly compared with saved training signature features. 2.4. signature identification testing signature image feature will be compared to training signature feature that has been saved. euclidean distance will be used to calculate the similarity between both features. the identification process will be shown in figure 6. figure 6. identification process euclidean distance is a method to calculate distance between 2 points. euclidean distance draws a straight line between these 2 points [7] euclidean distance equation used in this study is shown below. 𝐷 = √(𝑋1 − 𝑌1) 2 + (𝑋2 − 𝑌2) 2+. . . . +(𝑋𝑛 − 𝑌𝑛 ) 2 (1) equation (1) is a multidimensional euclidean distance calculation. the equation is used if two compared points have an n-dimension vector. d is the value of euclidean distance, while x and y represent the vector value of two points being compared respectively. lower euclidean distance value means the compared points or data have high similarity. the predicted signature class will be shown as the lowest distance of the respective training signature feature class. proposed methods performance is also measured by using receiver operation characteristic (roc). roc shows the value of false acceptance rate (far) and false rejection rate (frr) on a graph. 𝐹𝐴𝑅 = 𝑇𝑜𝑡𝑎𝑙 𝑣𝑎𝑙𝑢𝑒 𝑜𝑓 𝑠𝑖𝑔𝑛𝑎𝑡𝑢𝑟𝑒 𝑖𝑚𝑎𝑔𝑒 𝑖𝑑𝑒𝑛𝑡𝑖𝑓𝑖𝑒𝑑 𝑎𝑠 𝑤𝑟𝑜𝑛𝑔 𝑤𝑟𝑖𝑡𝑒𝑟 𝑐𝑙𝑎𝑠𝑠 𝑡𝑜𝑡𝑎𝑙 𝑡𝑒𝑠𝑡 𝑖𝑚𝑎𝑔𝑒𝑠 (2) false acceptance rate (far) is calculated by dividing the total value of identified signature image but the wrong writer class (false positive) with total test images. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 107 𝐹𝑅𝑅 = 𝑇𝑜𝑡𝑎𝑙 𝑣𝑎𝑙𝑢𝑒 𝑜𝑓 𝑟𝑒𝑗𝑒𝑐𝑡𝑒𝑑 𝑠𝑖𝑔𝑛𝑎𝑡𝑢𝑟𝑒 𝑖𝑚𝑎𝑔𝑒 𝑡𝑜𝑡𝑎𝑙 𝑡𝑒𝑠𝑡 𝑖𝑚𝑎𝑔𝑒𝑠 (3) false rejection rate (frr) is calculated by dividing the rejected signature image (false negative) value by total test images. image is rejected if the result value is not within the threshold. 𝐺𝐴𝑅 = 1 − 𝐹𝑅𝑅 (4) frr is used to calculate the genuine acceptance rate value (gar). genuine acceptance rate (gar) is the percentage value of a signature that is identified correctly [21]. figure 7. roc graph figure 6 shows the receiver operation characteristic (roc) graph. intersections of far and frr is called equal error rate (eer). 3. result and discussion this study conducts several tests on different scenarios to measure the robustness and real case problems. the proposed method is tested using augmented training images, different ratio applications on the used dataset, and comparing three datasets mentioned in section 2.1. the first test is conducted using the sigcomp2011 [9] dataset to evaluate each pretrained deep learning model. there are 11 pretrained deep learning used on this test, which is shown in table 2. table 2. pretrained deep learning trial result based on table 2, vgg16, vgg19, and mobilenet offer a much shorter time used on feature extraction and identification steps. both vgg only needs 38 seconds to finish the identification process, while mobilenet is not far behind, with the time required is 51 seconds. this result varies from each pretrained deep learning architecture because the value of networks on those models differs. pretrained deep learning feature extraction time used (s) identification time used (s) accuracy xception 21.84 79.64 73.68% vgg19 15.16 22.59 96.59% vgg16 15.00 22.19 66.48% resnet50 24.71 106.15 96.59% mobilenetv2 19.19 46.57 93.75% mobilenet 15.72 36.75 98.86% inceptionv3 28.89 34.02 76.14% inceptionresnetv2 46.69 48.36 78.41% densenet201 57.59 90.26 99.43% densenet169 39.52 72.4 92.05% densenet121 31.92 51.76 96.02% lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 108 for accuracy, the best pretrained deep learning to use for this study is densenet201, which has 99.43% accuracy. mobilenet and vgg are not far behind, with 98.86% and 96.59% accuracy values, respectively. densenet201 provides the best result as densenet architecture has additional inputs from all preceding layers, making the network compact and thinner. this is beneficial since the signature dataset used is not a high-resolution image. the next test is to add several distance-based measurements to compare with densenet201 as a feature extraction method. the distance method used are manhattan distance, minkowski distance, and cosine distance. table 3. augmented image result the test result shows that only manhattan distance has a different result. this result is because manhattan distance is only optimized for integer calculation, while the extracted feature has a float number. the third test is using the augmentation dataset, which consists of brightness and rotation modification. these augmentations are used because these are the most relevant on signature real case problems. brightness modifications have five values between the range of 0.5 to 0.9 of the original image brightness, while rotation modifications have ten values between the range of -10 to 10. the original dataset used on this test is sigcomp2011 [9]. table 4. augmented image result the test result on augmented training signature image is underwhelming since its lower than the normal test result, not to mention the amount of time consumed to augment the images and extract its feature. the highest accuracy was achieved by brightness augmentation, which gives a 99.43% accuracy value, the same as the highest accuracy achieved on the normal dataset. the fourth test is to modify the split data ratio. ratio split is used on all signature images of the used datasets to divide signature images into training data and testing data. the range of ratio split starts from 0.1 to 0.9, with a 0.1 increase value on each iteration. the dataset used on this test is a private dataset consisting of 400 images in 50 writer classes, while the pretrained deep learning model used densenet201. this test is carried to find out the effect of different value data training and data testing used on system performance. table 5. data split result as table 5 shown, the higher the training signature image ratio is used, the higher accuracy grows. but the accuracy results do not prove that higher training images offer higher accuracy. in this test, the incorrectly identified signature testing images are moved into training images as the ratio increases, affecting the accurate result. the final test is a comparison to the various dataset, which mentioned in section 2.1. this test evaluates the proposed method's performance on different datasets with different intraclass and interclass signatures values. distance method accuracy euclidean 99.43% manhattan 97.73% minkowski 99.43% cosine 99.43% augmentation total training image accuracy brightness 298 99.43% rotation 1800 86.93% brightness + rotation 37800 85.23% split ratio total training image total testing image accuracy 0.7 280 120 99.17% 0.8 320 80 100.00% 0.9 360 40 100.00% lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 109 table 6. datasets detail table 6 show the detail of multiple datasets that used in this study. sigcomp2009 has 78 writer classes which consist of 4 training signature images and eight testing signature images, while sigcomp2011 has 20 writer classes which consist of 10 training signature images and four testing images. the private dataset has 50 classes and consists of 10 training signature images and five testing signature images. figure 8 sigcomp2009 roc figure 8 represent sigcomp2009 receiver operation characteristic (roc) graph. roc shows false acceptance rate (far) and false rejection rate (frr), and the intersections point of far and frr, which is called equal error rate (eer). eer from sigcomp2009 dataset is obtained on threshold 76 with 0,089 value and genuine acceptance rate acquired is 91%. figure 9 sigcomp2011 roc figure 9 represents the sigcomp2011 roc graph. equal error rate is obtained on threshold 90 with 0,0057 value, and genuine acceptance rate acquired is 99%. sigcomp2011 has better results compared to sigcomp2009 since sigcomp2011 has fewer writer classes. 0 0.5 1 1 11 21 31 41 51 61 71 81 91 101 111 va lu e threshold far frr 0 0.2 0.4 0.6 0.8 1 1 11 21 31 41 51 61 71 81 91 101 111 va lu e threshold far frr dataset writer classes total training image total testing image sigcomp2009 78 4 8 sigcomp2011 20 15 4 private 50 10 5 lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 110 figure 10 private dataset roc figure 10 represents the private dataset roc graph. equal error rate is obtained on threshold 61 with 0,09 value, and genuine acceptance rate acquired is 91%. table 7. multiple dataset result table 7 represents the result of the signature identification test using the receiver operation characteristic (roc) approach. sigcomp2011 dataset has 99% genuine acceptance rate (gar) value, while both sigcomp20009 and private dataset has gar with 91% value. this result shows that the number of classes, used training, and testing signature images significantly impact identification accuracy. 4. conclusion this study proposed an offline signature identification using combination methods between pretrained deep learning and euclidean distance. pretrained deep learning is used as feature extraction, while euclidean distance is used as an identification method. various pretrained deep learning such as densenet, inception, resnet, vgg, xception, and mobilenet are evaluated as a comparison for finding the best result. several scenarios of testing are also conducted to measure the robustness of the proposed method in various conditions. the highest accuracy was measured using densenet201 as a feature extraction method, which gives a 99.43% accuracy value. this pretrained deep learning is also used on other databases, such as sigcomp2009 and private databases. the result of the test using those databases are both 91.00% references [1] h. saikia and k. chandra sarma, “approaches and issues in offline signature verification system,” international journal of computer applications, vol. 42, no. 16, pp. 45–52, mar. 2012, doi: 10.5120/5780-8035. [2] m. taskiran and z. g. cam, “offline signature identification via hog features and artificial neural networks,” in 2017 ieee 15th international symposium on applied machine intelligence and informatics (sami), jan. 2017, pp. 000083–000086, doi: 10.1109/sami.2017.7880280. [3] m. a. djoudjai, y. chibani, and n. abbas, “offline signature identification using the histogram of symbolic representation,” 2017 5th international conference on electrical engineering boumerdes (icee-b), vol. 2017-janua, pp. 1–6, 2017, doi: 10.1109/icee-b.2017.8192092. [4] t. sultan rana, h. muhammad usman, and s. naseer, “static handwritten signature 0 0.2 0.4 0.6 0.8 1 1 11 21 31 41 51 61 71 81 91 101 111 va lu e threshold far frr dataset threshold eer gar sigcomp2009 76 0.089 91% sigcomp2011 90 0.0057 99% private 61 0.09 91% lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 111 verification using convolution neural network,” 3rd international conference on innovative computing (icic), no. icic, 2019, doi: 10.1109/icic48496.2019.8966696. [5] m. thenuwara and h. r. k. nagahamulla, “offline handwritten signature verification system using random forest classifier,” 17th international conference on advances in ict for emerging regions (icter) 2017, vol. 2018-janua, pp. 191–196, 2017, doi: 10.1109/icter.2017.8257828. [6] e. utami and r. wulanningrum, “use of principal component analysis and euclidean distance to identify signature image,” iptek-kom, vol. 16, no. 1, pp. 1–16, 2014, [online]. available: https://jurnal.kominfo.go.id/index.php/iptekkom/article/viewfile/505/327. [7] g. d. angel and r. wulanningrum, “machine learning untuk identifikasi tanda tangan menggunakan glcm dan euclidean distance,” prosiding semnas inotek (seminar nasional inovasi teknologi), pp. 297–301, 2020. [8] v. l. blankers, c. e. van den heuvel, k. y. franke, and l. g. vuurpijl, “the icdar 2009 signature verification competition,” proceeding 10th international conference on document analysis and recognition, icdar, pp. 1403–1407, 2009, doi: 10.1109/icdar.2009.216. [9] m. liwicki et al., “signature verification competition for online and offline skilled forgeries (sigcomp2011),” proceeding international conference on document analysis and recognition, icdar, pp. 1480–1484, 2011, doi: 10.1109/icdar.2011.294. [10] x. yan, l. wen, l. gao, and m. perez-cisneros, “a fast and effective image preprocessing method for hot round steel surface,” mathematical problems in engineering, vol. 2019, 2019, doi: 10.1155/2019/9457826. [11] a. h. pratomo, w. kaswidjanti, and s. mu’arifah, “implementasi algoritma region of interest ( roi ) untuk meningkatkan performa algoritma deteksi dan klasifikasi kendaraan,” jurnal teknologi informasi dan ilmu komputer, vol. 7, no. 1, pp. 155–162, 2020, doi: 10.25126/jtiik.202071718. [12] abhisek and k. lakshmesha, “thinning approach in digital image processing,” last accessed april, pp. 326–330, 2018. [13] a. foroozandeh, a. askari hemmat, and h. rabbani, “offline handwritten signature verification and recognition based on deep transfer learning,” international conference on machine vision and image processing. mvip, vol. 2020-janua, 2020, doi: 10.1109/mvip49855.2020.9187481. [14] i. m. mika parwita and d. siahaan, “classification of mobile application reviews using word embedding and convolutional neural network,” lontar komputer jurnal ilmiah teknologi informasi, vol. 10, no. 1, p. 1, 2019, doi: 10.24843/lkjiti.2019.v10.i01.p01. [15] j. a. gliner, g. a. morgan, n. l. leech, j. a. gliner, and g. a. morgan, “measurement reliability and validity,” research methods in applied settings, pp. 319–338, 2021, doi: 10.4324/9781410605337-29. [16] s.-h. tsang, “no title,” review: xception with depthwise separabale convolution, better than inception-v3, 2018. review: xception with depthwise separabale convolution, better than inception-v3 (accessed may 18, 2021). [17] o. sudana, i. w. gunaya, and i. k. g. d. putra, “handwriting identification using deep convolutional neural network method,” telkomnika (telecommunication computing electronics and control), vol. 18, no. 4, pp. 1934–1941, 2020, doi: 10.12928/telkomnika.v18i4.14864. [18] k. he, x. zhang, s. ren, and j. sun, “deep residual learning for image recognition,” proceeding ieee conference on computer vision and pattern recognition (cvpr), vol. 2016-decem, pp. 770–778, 2016, doi: 10.1109/cvpr.2016.90. [19] y. harjoseputro, i. p. yuda, and k. p. danukusumo, “mobilenets: efficient convolutional neural network for identification of protected birds,” international journal on advanced science, engineering and information technology, vol. 10, no. 6, pp. 2290–2296, 2020, doi: 10.18517/ijaseit.10.6.10948. [20] g. huang, z. liu, l. van der maaten, and k. q. weinberger, “densely connected convolutional networks,” proceeding 30th ieee conference on computer vision and pattern recognition, cvpr 2017, vol. 2017-janua, pp. 2261–2269, 2017, doi: 10.1109/cvpr.2017.243. [21] y. adiwinata, a. sasaoka, i. p. agung bayupati, and o. sudana, “fish species recognition with faster r-cnn inception-v2 using qut fish dataset,” lontar komputer jurnal ilmiah teknologi informasi, vol. 11, no. 3, p. 144, 2020, doi: 10.24843/lkjiti.2020.v11.i03.p03. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 128 the comparison of svm and ann classifier for covid19 prediction ditha nurcahya aviantya1, i gede pasek suta wijayaa2, fitri bimantorob3 dept informatics engineering,faculty of engineering, university of mataram jl. majapahit no.62, mataram, lombok ntb indonesia 1dithanurcahya55@email.com 2,3[gpsutawijaya,bimo]@unram.ac.id abstract coronavirus 2 (sars-cov-2) is the cause of an acute respiratory infectious disease that can cause death, popularly known as covid-19. several methods have been used to detect covid19-positive patients, such as rapid antigen and pcr. another method as an alternative to confirming a positive patient for covid-19 is through a lung examination using a chest x-ray image. our previous research used the ann method to distinguish covid-19 suspect, pneumonia, or expected by using a haar filter on discrete wavelet transform (dwt) combined with seven hu moment invariants. this work adopted the ann method's feature sets for the support vector machine (svm), which aim to find the best svm model appropriate for dwt and hu moment-based features. both approaches demonstrate promising results, but the svm approach has slightly better results. the svm's performances improve accuracy to 87.84% compared to the ann approach with 86% accuracy. keywords: x-ray image, covid-19, classification, support vector machine, artificial neural network 1. introduction the covid-19 disease's first outbreak in wuhan, china, in december 2019 [1] is a respiratory infectious disease caused by coronavirus 2 (sars-cov-2). this disease is highly contagious and can be transmitted through the droplet, spreading quickly and widely [2]. the pcr (polymerase chain reaction) swab test is a highly recommended method for detecting covid-19 patients [3], but it requires health personnel resources and expensive equipment, and a lengthy analysis process [4]. another method is a rapid antigen that requires a fast time but can only detect suspected covid-19. the delay in test outcomes and the deficiency of test kits create it challenging to determine the number of positive possibilities of covid-19 so that the spread of the infection is more expansive and can worsen the situation [4] [5]. other techniques to detect covid-19 are examining clinical symptoms, epidemiological records, computed tomography (ct) images or chest x-rays, and positive pathogen tests [6]. radiographic images obtained via x-rays can be used to examine suspected cases of covid-19 through analysis of pneumonia. chest x-rays were chosen for examination because they are cheaper, have minor radiation exposure, and have more comprehensive use coverage than ct scans [9][10]. based on who data, that covid-19 patients generally suffer from severe pneumonia [7]. the ref [7] is in line with research in china, which showed that 91.1% of 1099 patients diagnosed with covid-19 developed pneumonia [8]. the similarities between covid-19 and pneumonia make it difficult for radiologists to distinguish between them, leading to misdiagnosis. misdiagnosis of disease can result in delays and incorrect treatment resulting in mental and material losses. artificial intelligence (ai) can be developed to assist doctors in diagnosing patients, such as the diagnosis of chest radiographs. one of them uses the support vector machine (svm). svm is a learning machine that can be used for image classification of more than two classes. multiclass svm can currently classify data into several classes (more than two). previous studies related to the classification of covid-19 based on x-ray images using the convolution neural network lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 129 (cnn) approaches succeeded in providing an accuracy of 83.4% and 93.2% [11]. while the cnn variation model called cvdnet has succeeded in classifying x-ray images into covid-19, pneumonia, and normal categories, which has an accuracy of 96.69% [12]. another radiographic image study based on the artificial neural network (ann) for classifying six categories was also successfully developed and gave the best accuracy of 88.5% [13]. the moment invariant feature of mri image application for classifying alzheimer's disease[14] has been successfully carried out and provides 91.4% accuracy for the knn technique and 100% accuracy for the svm technique. application of features based on discrete wavelet transforms (dwt) and ann to classify brain images with an accuracy of 94.8% [15]. another study that applied dwt and ann haar filters to view cracks under the support of scaleinvariant feature transformation and k-means clustering has achieved an accuracy of 93.4% [16]. furthermore, the application of dwt feature extraction and principal component analysis with ann classifier to detect minor chronic brain hemorrhage resulted in 88.43% accuracy. another work to classify weeds based on moment invariant features and ann classification techniques has achieved an accuracy of 92.5%[17]. based on the background outlined above, the author intends to conduct a study to create a model to predict covid-19 by comparing the svm and ann methods. the comparison is made because the two calculation methods have similarities in the information to be considered, distinguishing them in the settlement process. additionally, this study is a development of the dwt and moment invariant-based features of chest x-ray images[18] and covid-19 prediction based on dwt and moment invariant features and ann classifier[19]. the main aim of this work is to find the best svm model appropriate for mentioned features. 2. research methods 2.1. dataset and tools this research utilizes a dataset of chest radiography images [20] consisting of three categories, namely covid-19, pneumonia, and normal. each class has 1345 images with a resolution of 1024x1024 pixels and is saved in jpg format. the hardware tool used to complete the research is a computer with specifications intel 8th gen core i7 processor, nvidia geforce gpu, and 8 gb ram. while the software running in this work is windows 10 64-bit, python 3.8.5, jupyterlab, and visual studio code. 2.2. research processes the research was completed through four main processes: literature study, data preparation, and modeling and testing. the literature study examined the primary sources of research, especially journals and proceedings related to radiographic images, dwt methods, invariant moments, and svm. the study is in the form of analyzing the advantages and disadvantages of the methods associated with this research. data preparation is data selection for the training and testing process. the dataset is a collection of chest radiography images from a research team from qatar university and the university of dhaka bangladesh and collaborators from pakistan and malaysia. in this case, the data were randomly selected from a dataset consisting of 15153 images [20]. based on the query, it turns out that the number of samples of the image is not balanced per category, which can generate issues associated with the achievements of the machine learning model that was built. this issue is solved by resampling the dataset in two manners: under-sampling and over-sampling. in the case of covid classification, the primary item to remark is the number of false negatives because this fallacy is the most harmful compared to false positives. so, under-sampling is done to reduce the large class size so that the data is proportional. examples of chest radiographic images for the three classes from the data preparation process are presented in figures 1, 2, and 3. figures 2 and 3 show the class data for covid-19 and pneumonia, which have characteristic white marks on the lungs with particular intensity levels. however, the white mark intensity level on the covid-19 chest radiograph is different in brightness. this pattern will be extracted and made into a model for its classification. while figure lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 130 4 is a chest radiograph image of the normal class, which is dominated by black color in the lungs, which shows the air content in the lungs. figure 1. covid-19 image samples figure 2. pneumonia image samples figure 3. normal image samples modeling and testing require several sub-processes, such as pre-processing, feature extraction, and svm creation, which will be explained in the following subsection. 2.3. model construction in simple terms, there are two main processes, namely training and testing, for developing a covid-19 prediction model, which is presented in figure 4. figure 4. training and testing process lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 131 the training process's first stage is image resizing, grayscale conversion, and normalization, which aims to speed up the process and avoid data inconsistency problems. the second stage is the feature extraction process, which uses the dwt and moment invariant methods, which are then used to train svm. the third stage is to do svm testing using validation data taken from training data. finally, the best training svm model is stored for the testing data prediction process. the testing process is carried out using the first and second stages of the training process for each testing image. furthermore, the best training svm model is used for the classification of testing image features. confusion matrix, precision, and recall are used to assess the performance of the proposed prediction system. 2.3.1. pre-processing at this stage, the input image dataset with a resolution of 1024x1024 pixels is converted to grayscale, resized to 128x128 pixels, and finally normalized. an illustration of the pre-processing process is presented in figure 5. figure 5. pre-processing illustration 2.3.2. feature extraction each pre-processed image will have its features extracted using the dwt method and invariant moment. feature extraction was performed using a first-order daubechies wavelet filter (haar). the implementation process to get four sub-image called average, detail-horizontal, detailvertical, and detail-diagonal of the input image are done by applying the "pywavelets" library. furthermore, the mean, variance, and statistical energy values were calculated from each of the approximation, horizontal, vertical, and diagonal sub-images. an illustration of the feature extraction process with dwt is given in figure 6. figure 6. the illustration of dwt's feature extraction the moment invariant value, which represents the change in value for translational and rotational variations, is extracted from the approximation component (c_a) of the dwt results. this component was chosen because it is the most similar component to the input image. the illustration of moment invariant feature extraction is given in figure 7. figure 7. the illustration of invariant moment feature extraction. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 132 2.3.3. training the initial process of the training stage is to load the features from the feature extraction stage. the features will be trained with the svm method. the multiclass support is handled according to a one-vs-one scheme. the one-vs-one strategy splits a multiclass classification into one binary classification problem per each pair of classes. the training process results are stored in the form of a struct for later use in the testing process. 2.3.4. testing the confusion matrix shown in table 1 is a tool to assess the result of the model's achievements. true covid-19 (tc) is the actual data of the covid-19 category correctly predicted covid-19. false covid-19 (fc) is pneumonia or normal category data incorrectly predicted as covid-19. true pneumonia (tp) is pneumonia category data correctly predicted as pneumonia. false pneumonia (fp) is another category incorrectly predicted as pneumonia. true normal (tn) is a normal category correctly predicted as a normal category. false normal (fn) is another category incorrectly predicted as a normal category. table 1. confusion matrix tool for model evaluation predicted category covid-19 pneumonia normal actual category covid-19 tc fp fn pneumonia fc tp fn normal fc fp tn the confusion matrix will calculate three quantities: accuracy, precision, and recall. accuracy is calculated using equation 1. 𝑎𝑐𝑐𝑢𝑟𝑎𝑐𝑦 = (𝑇𝐶)+(𝑇𝑃)+(𝑇𝑁) 𝑇𝑜𝑡𝑎𝑙 (1) the precision calculated using equation 2 is the level of correctness of the instance to forecast the category that matches the actual category. the accuracy is very valuable for specifying the effect of false positives. the model detects a non-covid category as covid-19, implying that the instance lacks precision. 𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 = (𝑇𝐶) (𝑇𝐶)+(𝐹𝐶) (2) the recall calculated using equation 3 is valuable for defining the effect of false negatives. the instance incorrectly predicts covid-19 data as non-covid, meaning recall is of low value. the covid prediction system becomes very dangerous if the system has a low recall. 𝑟𝑒𝑐𝑎𝑙𝑙 = (𝑇𝐶) (𝑇𝐶)+(𝐹𝑃)+(𝐹𝑁) (3) 2.3.5. testing mechanism testing is accomplished with several phases to obtain the best model. the first phase is to choose 1345 images randomly from the dataset. furthermore, the selected data is split under the ratio of 80% versus 20% for the training and testing set, respectively. the svm model is tested to find the best parameters using grid search: 1) c (0.1, 1, 10, 100, 1000) 2) kernel (linear, polynomial, sigmoid, and radial basis function (rbf)) 3) gamma (1, 0.1, 0.01, 0.001, 0.0001) the initial parameters applied in the model test are the value of c=0.1, gamma=1, and the linear kernel. the initial parameter values are selected from the first-order value of each test parameter. finally, the best model is evaluated by k-fold cross-validation utilizing the k = 2~10 to validate and keep away bias in data sharing. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 133 3. result and discussion 3.1. testing on the value of c this test aims to determine the best value of the c parameter of the svm model. it is well known that the values of c and gamma depend on the case of the image being handled. the test results for variations in the value of c are presented in table 2. table 2. the value of c versus the performance indicator c accuracy precision recall 0.1 47% 35% 48% 1 58% 55% 56% 10 63% 62% 62% 100 67% 67% 66% 1000 77% 77% 76% according to table 4, the best achievement was obtained at the value of c=1000. the c parameter tells the svm optimizer how much we want to avoid misclassifying each training instance. in this case, the larger the value of c, the higher the model's performance. for larger c values, the optimization will select a hyperplane with less margin if that hyperplane provides all training data classified correctly. furthermore, the value of c=1000 will be employed in the following evaluation. 3.2. testing the kernel type a kernel is a way of adding more features to the data to make it linearly separable. the kernel variations will also produce different performances depending on the data. polynomial, rbf, and sigmoid kernels are popular, especially for non-linear data. the achievement of each variation on the kernel type is shown in table 3. table 3. the type of kernel versus the performance indicator kernel accuracy precision recall linear 77% 77% 76% polynomial 86% 86% 86% rbf 81% 81% 81% sigmoid 16% 10% 15% the experimental result in table 3 shows that the best achievement of the svm model is given when the polynomial kernel type is applied. furthermore, the polynomial kernel type will be employed for the next evaluation. 3.3. testing on the value of gamma similar to the c parameter, the variations values of gamma will deliver different interpretations depending on the image obstacle being addressed. in this work, five gamma variations were evaluated, and the experimental results are presented in table 4. table 4. the gamma variations versus the performance indicator gamma gamma accuracy precision recall 1 86% 86% 86% 0.1 72% 72% 71% 0.01 46% 37% 47% 0.001 30% 10% 33% 0.0001 30% 10% 33% lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 134 table 4 shows that the gamma=1 gives the best achievement. it can be seen that the gamma value significantly affects the accomplishment of the svm model. the achievement of the svm model decreases along with the smaller gamma value. finally, it can be concluded that the three best parameters for the svm model are c=1000, gamma=1, and polynomial kernel type, which provides the highest performance. hence, the best svm model is evaluated for the data test, and the confusion matrix in table 5 represents the test results. table 5. the best svm model achievements predicted class covid-19 pneumonia normal actual class covid-19 257 15 13 pneumonia 16 203 27 normal 11 32 233 based on the data in table 5, the best model of svm performs well for a chest radiography image prediction, indicated by 86.87% accuracy, 85.68% precision, and 85.71% recall. 3.4. data sharing test the next test was conducted to evaluate the variation of data splitting using k-fold cross-validation on the best svm model. the splitting technique in the previous test data was hold-out validation which had the weakness of bias between training data and testing data because of a sharing process. thus, testing using k-fold cross-validation, which divides the data into several k groups and ensures that each group is used as testing data, can overcome the weaknesses of the previous test. variations in the k value or fold value used in this test are 2, 3, 4, 5, 6, 7, 8, 9, and 10. for each variation in the value of k, one-fold will be taken as testing data and the rest as training data. the test results are presented in table 6. table 6. the experimental result on data-splitting k accuracy precision recall 2 83.91% 83.75% 83.67% 3 83.91% 83.98% 83.88% 4 85.40% 85.32% 85.56% 5 83.91% 83.85% 83.80% 6 82.88% 83.16% 82.87% 7 83.37% 83.28% 83.31% 8 85.11% 85.76% 85.20% 9 85.86% 85.87% 85.96% 10 87.84% 87.80% 87.96% table 6 shows that the k = 10 delivers the most increased accuracy, precision, and recall (87.84% accuracy rate, 87.8% precision, and 87.96% recall) when the ratio of training and testing data sharing is 9:1. it means the best model of svm could deliver a good performance for k= 10, which is the best data sharing with low bias. 3.5. model comparison the comparison of the model is based on the best results from the predictions proposed using svm with the previous predictions using the method[19]. based on the experimental results, it is known that the success of the two models is slightly different. however, the prediction model using svm gave a slightly better performance with 87.84% accuracy, 87.8% precision, and 87.96% recall, as presented in table 7. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 135 table 7. model comparison method accuracy (%) precision (%) recall (%) svm 87.84 87.80 87.96 ann 86.32 86.35 86.26 our proposed svm model's accuracy, precision, and recall are slightly better than our previously reported ann method[19]. the excellent optimization and similarity treatment of both the svm and ann methods allowed us to analogize these computational approaches. the svm method slightly outperforms ann for the chest radiographic images for our application using the current data set. the exact reason for this improvement is difficult to determine and may be due to better or varying-parameter selection and non-linear nature of the dataset, or both. it could also be because svm converges on a global minimum and allows for better noise tolerance; therefore, it may be more robust for a large set of features [21]. nevertheless, both ann and svm could be used to identify covid-19 suspects, pneumonia, or normal from chest radiographic images. compared to the most related method, cvdnet[12], which provided an accuracy of 96.69%, our proposed svm shows a lack of performance; however, the svm model requires much fewer parameters than the commonly cnn-based method (cvdnet)[12]. 4. conclusion and future works the best svm prediction model with statistical features of dwt results and moment invariance has been successfully developed with good performance, as evidenced by 86% accuracy, 86% precision rate, and 86% recall rate. the best parameters of the svm prediction model for chest radiography image prediction are c=1000, gamma=1, and polynomial kernel type. based on the k-fold cross-validation test conducted to verify the model's achievement, the best accuracy rate is 87.84%, the precision level is 87.8%, and the recall rate is 87.96% for the best k value is 10. when compared to the model ann prediction, the svm prediction model gives slightly outperformed ann results for the chest radiographic images for our application using the current data set. other models still need to be developed in the future, considering the performance is not yet optimal. deep learning will likely improve predictive performance, considering that deep-learning assesses many features in the prediction process. references [1] world health organization, “q&a on coronaviruses (covid-19).” . [2] world health organization, “pesan dan kegiatan utama pencegahan dan pengendalian covid-19 di sekolah,” 2020. [3] a. susilo et al., “coronavirus disease 2019: tinjauan literatur terkini,” jurnal penyakit dalam indonesia, vol. 7, no. 1, p. 45, 2020, doi: 10.7454/jpdi.v7i1.415. [4] t. yang, y.-c. wang, c.-f. shen, and c.-m. cheng, "point-of-care rna-based diagnostic device for covid-19," diagnostics, vol. 10, no. 3. 2020, doi: 10.3390/diagnostics10030165. [5] a. news, "india's poor testing rate may have masked coronavirus cases," 2020. [6] m. e. h. chowdhury et al., "can ai help in screening viral and covid-19 pneumonia?," ieee access, vol. 8, pp. 132665–132676, 2020, doi: 10.1109/access.2020.3010287. [7] world health organization, "clinical management of severe acute respiratory infection (sari) when covid-19 disease is suspected.". [8] w. guan et al., “clinical characteristics of coronavirus disease 2019 in china,” new england journal of medicine, vol. 382, no. 18, pp. 1708–1720, feb. 2020, doi: 10.1056/nejmoa2002032. [9] w. h. self, d. m. courtney, c. d. mcnaughton, r. g. wunderink, and j. a. kline, "high discordance of chest x-ray and computed tomography for detection of pulmonary opacities in ed patients : implications for diagnosing pneumonia," the american journal of emergency medicine, vol. 31, no. 2, pp. 401–405, 2013, doi: 10.1016/j.ajem.2012.08.041. [10] g. d. rubin et al., "the role of chest imaging in patient management during the covid19 pandemic a multinational consensus statement from the fleischner society," no. july, pp. 106–116, 2020, doi: 10.1016/j.chest.2020.04.003. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 136 [11] n. science, c. phenomena, s. hassantabar, m. ahmadi, and a. sharifi, "diagnosis and detection of infected tissue of covid-19 patients based on lung x-ray image using convolutional neural network approaches," chaos , solitons & fractals, vol. 140, 2020, doi: 10.1016/j.chaos.2020.110170. [12] c. ouchicha, o. ammor, and m. meknassi, "cvdnet : a novel deep learning architecture for detection of coronavirus ( covid-19 ) from chest x-ray images," chaos , solitons & fractals, vol. 140, 2020, doi: 10.1016/j.chaos.2020.110245. [13] c. z. basha, g. rohini, a. v. jayasri, and s. anuradha, "enhanced and effective computerized classification of x-ray images," in 2020 international conference on electronics and sustainable communication systems (icesc), 2020, pp. 86–91, doi: 10.1109/icesc48915.2020.9155788. [14] a. mohammed, f. al azzo, and m. milanova, "classification of alzheimer disease based on normalized hu moment invariants and multiclassifier," international journal of advanced computer science and applications (ijacsa), vol. 8, pp. 10–18, jan. 2017, doi: 10.14569/ijacsa.2017.081102. [15] c. m. n. kumar, b. ramesh, and j. chandrika, "design and implementation of an efficient level set segmentation and classification for brain mr images," in dash s., bhaskar m., panigrahi b., das s. (eds) artificial intelligence and evolutionary computations in engineering systems. advances in intelligent systems and computing, springer, new delhi, 2016, pp. 559–568. [16] c. basha, t. padmaja, and g. balaji, "an effective and reliable computer automated technique for bone fracture detection," eai endorsed transactions on pervasive health and technology, vol. 5, p. 162402, jul. 2018, doi: 10.4108/eai.13-7-2018.162402. [17] a. bakhshipour and a. jafari, "evaluation of support vector machine and artificial neural networks in weed detection using shape features," computers and electronics in agriculture, vol. 145, pp. 153–160, 2018, doi: https://doi.org/10.1016/j.compag.2017.12.032. [18] i. g. p. s. wijaya, d. n. avianty, f. bimantoro, and r. lestari, “ekstraksi fitur citra radiografi thorax menggunakan dwt dan moment invariant,” journal of computer science and informatics engineering (jcosine), vol. 5, no. 2, pp. 158–166, 2021. [19] d. n. avianty, i. g. p. s. wijaya, f. bimantoro, r. lestari, and t. d. cahyawati, "covid-19 prediction based on dwt and moment invariant features of radiography image using the artificial neural network classifier," in proceedings of the 2nd global health and innovation in conjunction with 6th orl head and neck oncology conference (orlhn 2021), 2022, pp. 152–162, doi: https://doi.org/10.2991/ahsr.k.220206.030. [20] t. rahman et al., "covid-19 chest radiography database," 2020. [21] h. bisgin et al., "comparing svm and ann based machine learning methods for species identification of food contaminating beetles," sci rep, vol. 8, no. 1, p. 6532, 2018, doi: 10.1038/s41598-018-24926-7. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 112 dempster shafer algorithm for expert system early detection of anxiety disorders finanta okmayuraa1, vitriania2, melly novaliaa3 ainformatics education, university of muhammadiyah riau pekanbaru, indonesia 1finantaokmayura@umri.ac.id (corresponding author) 2vitriani@umri.ac.id 3mellynovalia@umri.ac.id abstract anxiety is an excessive anxiety disorder that is often found in psychology. some people generally do not realize that they may have symptoms of this anxiety disorder. if ignored and continued continuously, it can interfere with one's activities, reduce academic achievement, and disrupt psychological conditions that affect their lives. this expert system for early detection of anxiety disorders is carried out using forward chaining tracing techniques to explore the knowledge base, and the inference motor is the dempster shafer algorithm. dempster shafer calculation is done by combining symptom pieces to calculate the possibility of the anxiety disorder. this anxiety disorder detection system is built on the web. then the test is carried out by comparing the value generated by the system with the value generated by two experts. the test results prove that the value generated by the system has a similarity of 85% to the value produced by the two experts. it can be concluded that implementing the dempster shafer algorithm for this expert system in the early detection of anxiety disorders is feasible. keywords: anxiety disorders, expert system, dempster-shafer, foward chaining 1. introduction at this time, so many people, in general, do not realize that they may have symptoms of anxiety disorders so that if ignored and sustained continuously, can interfere with one's activities [1], can reduce academic achievement, and disrupt psychological conditions that result in a standard of living that person [2]. to overcome the various problems that occur, it takes a diagnosis of anxiety disorders to solve the disorder. diagnosing anxiety disorders requires a person's expertise. a psychologist can only have this expertise. this diagnosis is carried out by transferring the knowledge possessed by a psychologist, which is realized into an expert system. this is not to replace the role of humans as experts but to transfer human knowledge into a system form so that it can be used by other people who need it as a tool to check whether the person has an anxiety disorder or not, without having to see a psychologist again. artificial intelligence is one part of computer science that makes machines (computers) able to do work as well as humans [3]. an expert system application is one component of artificial intelligence that has a knowledge base in a particular field and uses inference reasoning to solve problems initiated on a computer device. the expert system can be used in several fields such as health, government, and any field that utilizes decision-making to obtain the desired results [4]. one of the expert systems that can perform early detection of anxiety disorders is the dempstershafer algorithm. the name of this algorithm is taken from its inventors, namely arthur p. dempster and glenn shafer. this algorithm serves to find evidence-based belief and thought functions, then combines pieces of information to calculate the probability of an anxiety symptom. the symptoms used are derived from the information provided in the form of symptoms of anxiety disorders [5]. mailto:1finantaokmayura@umri.ac.id mailto:2vitriani@umri.ac.id mailto:3mellynovalia@umri.ac.id lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 113 several cases that have applied the dempster-shafer method, among others, prove that the contribution of the dempster shafer theory has proven to be a good decision-making tool for early diagnosis of gastric disease [6] and can diagnose disease in toddlers aged 0-60 months [7]. in addition, the dempster-shafer method has succeeded in providing disease information on chili plants [8]. then the damage to the motorcycle can also be diagnosed early with this expert system of the dempster shafer algorithm [9]. 2. research methods 2.1. dempster shafer algorithm dempster shafer algorithm is a mathematical theory to find proofs based on belief functions and rational thinking. this algorithm serves to unite separate pieces of information by calculating all the possibilities of a phenomenon. in general, this algorithm is stated as follows [10]: [belief, plausibility] belief (bel) is the possibility of information supporting a set of propositions. if it is 0, it shows no evidence, and if it is 1, it shows certainty. plausibility (pl) is stated as follows : [11]: 𝑃𝑙(𝑠) = 1 – 𝐵𝑒𝑙 (~𝑠) (1) explanation : pl : plausibility bel : belief plausibility can also be worth 0 to 1. in this dempster shafer algorithm, there is a frame of discrement, namely the universe of conversation from a set of hypotheses. this frame is denoted by θ (theta). furthermore, m3, which is a combined function of m1 and m2, can be expressed as follows [12]: 𝑚3 = 𝛴 𝑋 ∩ 𝑌 = 𝑍𝑚1(𝑋). 𝑚2(𝑌) 1 − 𝛴 𝑋 ∩ 𝑌 = 𝜃𝑚1 (𝑋). 𝑚2(𝑌) (2) explanation : m1 : probability density 1 m2 : probability density 2 m3 : probability density 3 𝑋 ∩ 𝑌 : disease x slice disease y θ : frame of discrement 2.2. anxiety disorder anxiety is a state of tension which is an impulse like hunger, only it does not arise from tissue conditions in the body but is originally caused by external causes. when anxiety arises, it will motivate the person to do something [13]. anxiety is a human character in the form of tension or shock to something that threatens accompanied by physiological changes [14]. there are several anxiety disorders, namely [15] : a. panic attack (r1) b. agoraphobia (r2) c. specific phobia (r3) d. social phobia (r4) e. obsessive-compulsive disorder (r5) f. post traumatic stress disorder (r6) g. acute stress disorder (r7) h. generalized anxiety disorder (r8) before implementing, we must first design the rules in this expert system [16]; one of them is with a decision tree. the design of the decision tree in this expert system is shown in figure 1 below. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 114 k1 k7 k15 k48k13 k14 k5 k4 k21 k20 r2 r4 r3r1 k27 k17 k16 k6 k8 k9 k10 k3 k51 k50 k49 r8 k54 k53 k52 k11 k45 k44 k43 k12 r7 k46 k2 k23 k19 k18 k22 k25 k26k24 k36 k29 k28 k30 k34 k33 k32 k31 r5 k37 k41 k40 k39 k38 r6 k42 k35 k47 figure 1. decision tree in figure 1, the decision tree shows that there are 54 symptoms with eight types of anxiety disorders. each symptom has its density value obtained from the expert. after designing the decision tree, the next step is to design an inference engine. the preparation of the inference motor in this expert system uses the forward chaining tracing technique. the reasoning starts from the facts to test the truth of the hypothesis and the dempster shafer algorithm, namely by matching the facts in the knowledge base with the accumulation of probability density symptoms. the inference engine design is shown in figure 2 below. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 115 login valid? knowledge base inference with forward chaining and dempster-shafer calculations symptom matching and inference assessment results with dempster-shafer calculations start answering questions about symptoms the result of consultation yes yes login finish no no figure 2. inference engine design 3. result and discussion 3.1. implementation of the dempster shafer algorithm to further analyze the dempster shafer algorithm, manual calculations with the following symptoms of anxiety disorders can be done. the following symptoms are taken by one of the sufferers : k1 : excessive anxiety (r1, r2, r3, r4, r5, r6, r7, r8) k4 : heart pounding (r1, r2, r3, r4, r5, r6, r7, r8) k6 : difficult to concentrate (r1, r2, r3, r4, r5, r6, r7, r8) k8 : often feel worried and uncomfortable (r1, r2, r3, r4, r5, r6, r7, r8) k7 : excessive sweating (r2, r3, r4) k2 : fear of losing control (r2, r3, r4) k23 : have you ever admitted that your fear is unwarranted (r3, r4) k25 : experiencing fear for more than six months (r3, r4) k22 : fear of particular objects (r3) lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 116 the following will calculate the dempster shafer algorithm based on formula (1) to determine the user's probability of an anxiety disorder. the method is as follows. a. determine the plausibility value of the first and second symptoms k1 : excessive anxiety 𝑚1 {r1, r2, r3, r4, r5, r6, r7, r8} = 0,2 and 𝑚1 { θ } = 1 – 0,2 = 0,8 k4 : heart pounding 𝑚2 {r1, r2, r3, r4, r5, r6, r7, r8} = 0,4 and 𝑚2 { θ } = 1 – 0,4 = 0,6 b. finding the intersection of the plausibility values and the density values of k1 and k4 after knowing the density values of k1 and k4, the next step is to find the intersection (𝑚3) of the plausibility and density values of k1 and k4. the slice intersection table for 𝑚3 can be seen in table 1 below. table 1. intersection for 𝑚3 belief plausibility {r1,r2,r3,r4,r5,r6,r7,r8} (0,4) θ (0,6) {r1,r2,r3,r4,r5,r6,r7,r8} (0,2) {r1,r2,r3,r4,r5,r6,r7,r8} (0,08) {r1,r2,r3,r4,r5,r6,r7,r8} (0,12) θ (0,8) {r1,r2,r3,r4,r5,r6,r7,r8} (0,32) θ (0,48) based on table 1, the new 𝑚3 value can be calculated based on formula (2). the 𝑚3 value is as follows. 𝑚3 {r1, r2, r3, r4, r5, r6, r7, r8} = (0,2 𝑥 0,4) + (0,2 𝑥 0,6) + (0,8 𝑥 0,4) 1 − 0 = 0,08 + 0,12 + 0,32 1 − 0 = 0,52 1 − 0 = 0,52 type equation here. 𝑚3 { θ } = 0,8 𝑥 0,6 1 − 0 = 0,48 1 − 0 = 0,48 c. find the value of plausibility and density of k6 and then slice it with 𝑚3 k6 : difficult to concentrate 𝑚4 {r1, r2, r3, r4, r5, r6, r7, r8} = 0,4 dan 𝑚4 { θ } = 1 – 0,4 = 0,6 after the new 𝑚3 value is obtained, then the 𝑚3 value is then subtracted by 𝑚4. the results of the 𝑚3 and 𝑚4 the intersection is shown in table 2. table 2. intersection for 𝑚5 belief plausibility {r1,r2,r3,r4,r5,r6,r7,r8} (0,4) θ (0,6) {r1,r2,r3,r4,r5,r6,r7,r8} (0,52) {r1,r2,r3,r4,r5,r6,r7,r8} (0,208) {r1,r2,r3,r4,r5,r6,r7,r8} (0,312) θ (0,48) {r1,r2,r3,r4,r5,r6,r7,r8} (0,192) θ (0,288) lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 117 based on table 2, the results of the intersection of 𝑚3 and 𝑚4 produce 𝑚5, so the new 𝑚5 value can be calculated. the 𝑚5 value is as follows. 𝑚5 {r1, r2, r3, r4, r5, r6, r7, r8} = (0,52 𝑥 0,4) + (0,52 𝑥 0,6) + (0,48 𝑥 0,4) 1 − 0 = 0,208 + 0,312 + 0,192 1 − 0 = 0,712 𝑚5 { θ } = 0,48 𝑥 0,6 1 − 0 = 0,288 1 − 0 = 0,288 d. look for the plausibility and density values of k8 and then slice them with 𝑚5 k8 : often feel worried and uncomfortable 𝑚6 {r1, r2, r3, r4, r5, r6, r7, r8} = 0,4 dan 𝑚6 { θ } = 1 – 0,4 = 0,6 after obtaining the new 𝑚5 value, then the 𝑚5 value is intersection by 𝑚6. the results of the intersection produce 𝑚7 as shown in table 3 below. table 3. intersection for 𝑚7 belief plausibility {r1,r2,r3,r4,r5,r6,r7,r8} (0,4) θ (0,6) {r1,r2,r3,r4,r5,r6,r7,r8} (0,712) {r1,r2,r3,r4,r5,r6,r7,r8} (0,284) {r1,r2,r3,r4,r5,r6,r7,r8} (0,427) θ (0,288) {r1,r2,r3,r4,r5,r6,r7,r8} (0,115) θ (0,172) based on table 3. above, the results of the intersection of 𝑚5 and 𝑚6 produce 𝑚7, so the new 𝑚7 value can be calculated. the 𝑚7 value is as follows. 𝑚7 {r1, r2, r3, r4, r5, r6, r7, r8} = (0,712 𝑥 0,4) + (0,712 𝑥 0,6) + (0,288 𝑥 0,4) 1 − 0 = 0,284 + 0,427 + 0,115 1 − 0 = 0,826 𝑚7 { θ } = 0,288 𝑥 0,6 1 − 0 = 0,172 1 − 0 = 0,172 after the m9 value is obtained, the next step is to do the same for k7, k2, k23, k25, and k22, so that the results of the dempster shafer calculation way can be obtained as follows. table 4. density value no. symptoms new density value (m) (m) new value 1 k1 dan k4 𝑚3 {r1,r2,r3,r4,r5,r6,r7,r8} 𝑚3 { θ } 0,520 0,480 2 k6 𝑚5 {r1,r2,r3,r4,r5,r6,r7,r8} 𝑚5 {θ} 0,712 0,288 3 k8 𝑚7 {r1,r2,r3,r4,r5,r6,r7,r8} 𝑚7 {θ} 0,826 0,172 lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 118 no. symptoms new density value (m) (m) new value 4 k7 𝑚9 {r1,r2,r3,r4,r5,r6,r7,r8} 𝑚9 {r2,r3,r4} 𝑚9 {θ} 0,580 0,300 0,120 5 k2 𝑚11 {r1,r2,r3,r4,r5,r6,r7,r8} 𝑚11 {r2,r3,r4} 𝑚11 {θ} 0,464 0,440 0,096 6 k23 𝑚13 {r1,r2,r3,r4,r5,r6,r7,r8} 𝑚13 {r2,r3,r4} 𝑚13 {r3,r4} 𝑚13 {θ} 0,186 0,176 0,600 0,038 7 k25 𝑚15 {r1,r2,r3,r4,r5,r6,r7,r8} 𝑚15 {r2,r3,r4} 𝑚15 {r3,r4} 𝑚15 {θ} 0,075 0,070 0,840 0,015 8 k22 𝑚17 {r1,r2,r3,r4,r5,r6,r7,r8} 𝑚17 {r2,r3,r4} 𝑚17 {r3,r4} 𝒎𝟏𝟕 {r3} 𝑚17 {θ} 0,014 0,014 0,168 0,800 0,004 based on table 4. above, the calculation results of the calculation of the highest probability density value are owned by 𝑚17 (r3) with a value of 0.800. so the results of the assessment concluded that the user tends to have an anxiety disorder, namely a specific phobia (r3) with a percentage of 80.00%, and can be seen in figure 5. 3.2. the implementation of expert system the application of the dempster shafer algorithm for the expert system in diagnosing anxiety disorders will result in an assessment that shows the sufferer tends to have an anxiety disorder or not. it is based on “yes” answers to symptom questions provided by the system. figure 3. inference data figures 3, 4, and 5 are the page when the user accesses the expert system. the display of the user registration page before consulting the expert system is shown in figure 3. in figure 3. users can register by filling in their data. after that, the user logs in using the username and password. then the user can use the consultation menu, such as consulting and expert, in this case, a psychologist. every user who wants to do early detection of anxiety disorders against himself can choose this menu. then, the system gives some questions to get the detection results here. in figure 4. the following is the initial view after the consultation menu is selected. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 119 figure 4. the first question when the user selects the consultation menu if all questions have been answered, the system will automatically display the early detection results of anxiety disorders and the dempster shafer calculation to determine the probability that the patient tends to have anxiety disorders. then the system will also display the solution, as shown in figure 5. below. figure 5. the results of expert system consultation in figure 5, the system displays the results of the dempster shafer calculation, which concludes that the patient has a specific phobic anxiety disorder (f3) of 80.00%. 3.1. testing expert system results with both experts after implementation, the two experts tested the results of the expert system as performed in table 5 and table 6 below. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 120 tabel 5. comparison of the test results of first expert with the expert system patient symptoms results with expert 1 results with expert system conclusion 1 k8, k9, k5, k14, k10, k3, k13, k15, k16 r1 r1 suitable 2 k8, k9, k5, k14, k10, k3, k48, k49 r8 r8 suitable 3 k8, k9, k7, k2, k18, k23, k25, k22, k24 r3 r3 suitable 4 k8, k9, k5, k14, k10, k3, k48, k49, k50, k51 r8 r8 suitable 5 k8, k9, k7, k28, k29, k30, k31, k32 r5 r5 suitable 6 k8, k9, k5, k14, k10, k3 r1 r8 not suitable 7 k8, k9, k7, k2, k18, k23, k25, k22, k26 r4 r4 suitable 8 k8, k9, k7, k2, k18, k23, k25, k22 r3 r4 not suitable 9 k8, k9, k5, k14, k10, k3, k48, k49, k50, k51, k52, k53 r8 r8 suitable 10 k8, k9, k7, k2, k18, k19, k20 r2 r2 suitable based on the tests carried out ten times by the system on the first expert, there are differences in the detection results in the 6th and 8th patients, so it is necessary to calculate the accuracy value, namely the suitability of the system value with the expert. this is because experts understand the patient's typical condition better than the system. the first calculation of the accuracy value is the suitability of the system results with the first expert as follows: (3) [17]. 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 𝑣𝑎𝑙𝑢𝑒 1 = ∑𝑠𝑢𝑖𝑡𝑎𝑏𝑙𝑒 𝑟𝑒𝑠𝑢𝑙𝑡 𝑎𝑛𝑎𝑙𝑦𝑠𝑖𝑠 ∑𝑛𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑝𝑎𝑡𝑖𝑒𝑛𝑡 𝑥 100 % 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 𝑣𝑎𝑙𝑢𝑒 1 = 8 10 𝑥 100 % = 80,00 % table 6. comparison of the test results of second expert with the expert system patient symptoms results with expert 2 results with expert system conclusion 1 k8, k9, k5, k14, k10, k3, k13, k15, k16 r1 r1 suitable 2 k8, k9, k5, k14, k10, k3, k48, k49 r8 r8 suitable 3 k8, k9, k7, k2, k18, k23, k25, k22, k24 r3 r3 suitable 4 k8, k9, k5, k14, k10, k3, k48, k49, k50, k51 r8 r8 suitable 5 k8, k9, k7, k28, k29, k30, k31, k32 r5 r5 suitable 6 k8, k9, k5, k14, k10, k3 r1 r1 suitable 7 k8, k9, k7, k2, k18, k23, k25, k22, k26 r3 r4 not suitable 8 k8, k9, k7, k2, k18, k23, k25, k22 r4 r4 suitable 9 k8, k9, k5, k14, k10, k3, k48, k49, k50, k51, k52, k53 r8 r8 suitable 10 k8, k9, k7, k2, k18, k19, k20 r2 r2 suitable (3) lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 121 based on table 6. there are differences in the results of the system's detection of the expert on the 7th patient. this is because the expert understands the specifics of the symptoms experienced by the patient more than the system. the second accuracy value calculation results from comparing the values obtained by the system with the second expert. the system accuracy value is obtained by using equation (3) as follows. 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 𝑣𝑎𝑙𝑢𝑒 1 = 9 10 𝑥 100 % = 90,00 % setelah didapat perbandingan hasil sistem dengan pakar pertama dan pakar kedua, maka dilakukan perhitungan rerata nilai akurasi kedua pakar tersebut dengan rumus (4) berikut. 𝐴𝑣𝑒𝑟𝑎𝑔𝑒 𝑎𝑐𝑐𝑢𝑟𝑎𝑐𝑦 𝑣𝑎𝑙𝑢𝑒 = 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 𝑣𝑎𝑙𝑢𝑒 1 + 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 𝑣𝑎𝑙𝑢𝑒 2 2 𝐴𝑣𝑒𝑟𝑎𝑔𝑒 𝑎𝑐𝑐𝑢𝑟𝑎𝑐𝑦 𝑣𝑎𝑙𝑢𝑒 = 80,00 + 90,00 2 = 85 % based on the average value of accuracy made by the two experts on the expert system, which showed a result of 85%, it can be concluded that this expert system is acceptable and feasible to use for the early detection of anxiety disorders. 4. conclusion after analyzing and testing the implementation of the web-based dempster shafer algorithm for the expert system for early detection of anxiety disorders, several inferences can be obtained; namely, dempster shafer algorithm provides the latest breakthroughs in the world of psychology or psychiatry and can assist psychologists in diagnosing anxiety disorders based on the symptoms faced by the patient and can provide solutions to the problems experienced. then based on the average value of accuracy carried out by the two experts on the expert system, the result was 85%, which means that this expert system is acceptable and feasible to use for early detection of anxiety disorders. references [1] n. sevani and s. silvia, “web deteksi gangguan kecemasan dan depresi,” ultimatics : jurnal teknik informatika, vol. 7, no. 1, 2015. [2] a. asrori, “terapi kognitif perilaku untuk mengatasi gangguan kecemasan sosial,” jurnal ilmiah psikologi terapan (jipt), vol. 03, no. vol 3, no 1 (2015), 2015. [3] m. d. sinaga and n. s. b. sembiring, “penerapan metode dempster shafer untuk mendiagnosa penyakit dari akibat bakteri salmonella,” cogito smart journal, vol. 2, no. 2, 2016. [4] r. pratiwi, s. andryana, and a. gunaryati, “diagnosa hepatitis a menggunakan metode dempster shafer,” jurnal eltikom, vol. 4, no. 1, 2020. [5] m. hafizh and t. a. putra, “implementasi metode dempster shafer pada sistem pakar diagnosis penyakit ginjal berbasis web dengan menggunakan php dan mysql,” indonesian journal of computer science, vol. 7, no. 2, 2018. [6] r. ardiansyah, f. fauziah, and a. ningsih, “sistem pakar untuk diagnosa awal penyakit lambung menggunakan metode dempster-shafer berbasis web,” jurnal ilmiah teknologi dan rekayasa, vol. 24, no. 3, 2019. [7] s. 2019, “sistem pakar mendiagnosa penyakit pada balita usia 0 – 60 bulan menggunakan metode dempster-shafer,” jurnal komputer dan informatika, vol. 8, no. 1, pp. 45–52, mar. 2020. [8] m. muliadi, i. budiman, m. a. pratama, and a. sofyan, “fuzzy dan dempster-shafer pada sistem pakar diagnosa penyakit tanaman cabai,” klik kumpulan jurnal ilmu komputer, vol. 4, no. 2, 2017. (4) lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 122 [9] s. iswanti and r. n. anggraeny, “implementasi metode dempster-shafer pada sistem pakar pendiagnosa kerusakan sepeda motor,” informatika mulawarman : jurnal ilmiah ilmu komputer, vol. 14, no. 1, 2019. [10] m. h. basri, a. mahmudi, and n. vendyansyah, “perbandingan metode dempster shafer dan certainty factor untuk diagnosis penyakit tanaman terong (studi kasus dusun kejoren, desa gerbo, kec. purwodadi),” jati (jurnal mahasiswa teknik informatika), vol. 4, no. 1, 2020. [11] f. okmayura and n. effendi, “design of expert system for early identification for suspect bullying on vocational students by using dempster shafer theory,” circuit: jurnal ilmiah pendidikan teknik elektro, vol. 3, no. 1, 2019. [12] e. astuti, n. e. saragih, n. sribina, and r. ramadhani, “dempster-shafer method for diagnose diseases on vegetable,” in 2018 6th international conference on cyber and it service management, citsm 2018, 2019. [13] calvin s. hall & gardner lindzey, teori-teori psikodinamik. yogyakarta: kanius, 2009. [14] n. asma, “pengaruh konseling terhadap kecemasan menghadapi persalinan pada primigravida di wilayah kerja puskesmas buket hagu kecamatan lhoksukon kabupaten aceh utara.,” universitas sumatra utara., 2014. [15] a. p. association, diagnostic and statistical manual of mental disorders. arlington, 2004. [16] j. kanggeraldo, r. p. sari, and m. i. zul, “sistem pakar untuk mendiagnosis penyakit stroke hemoragik dan iskemik menggunakan metode dempster shafer,” jurnal resti (rekayasa sistem dan teknologi informasi), vol. 2, no. 2, 2018. [17] d. t. yuwono, “implementasi pakar diagnosa gangguan kepribadian menggunakan metode dempster shafer,” jurnal sistem informasi bisnis, vol. 9, no. 1, 2019. lontar komputervol. 4, no. 1, april 2013 issn: 2088-1541 201 otomatisasi klasifikasi buku perpustakaan dengan menggabungkan metode k-nn dengan k-medoids ni nyoman emang smrti sistem informasi, stmik bandung, bali e-mail:smrti_nyoman@yahoo.com abstrak klasifikasi buku perpustakaan sangatlah penting untuk memudahkan pengunjung dalam pencarian buku. dengan memanfaatkan metode yang ada pada data mining khususnya text mining, maka dalam penelitian ini akan dibangun program aplikasi untuk otomatisasi klasifikasi buku perpustakaan. metode yang akan digunakan untuk mengklasifikasi buku perpustakaan adalah metode k-nearest neighborhood (k-nn) digabungkan dengan metodek-medoids. program aplikasi otomatisasi klasifikasi buku perpustakaan ini dibangun dengan data latih dari buku perpustakaan stmik bandung bali dan data uji berasal dari beberapa toko buku online.aplikasi yang dibuat mampu mengklasifikasi buku perpustakaan dengan prosentase keberhasilan 84% dengan jumlah data latih 507 dan 50 data uji. kata kunci: klasifikasi, text mining, k-nearest neighborhood, k-medoids. abstract classification oflibrary’sbooksis an important effort tofacilitate visitorsin searching ofthe books. by using theexisting methodsindata mining, text miningin particular, it was constructedan automaticclassificationapplicationof library’s books. the methodswereutilizedto classifylibrarybooksarek-nearest neighborhood(k-nn) by combining withk-medoids. this applicationwas constructedwith training datafrom library of stmikbandung bali. testing datacome from severalonlinebookstores. the results showed that the applicationiscapable ofclassifyingthe library’sbooksby84%of successusing 507 trainingdata and 50testingdata. keywords:classification, text mining, k-nearst neighbor, k-medoids 1. pendahuluan perpustakaan adalah institusi yang menyediakan koleksi bahan pustaka tertulis, tercetak dan terekam sebagai pusat sumber informasi yang diatur menurut sistem aturan dan didayagunakan untuk keperluan pendidikan, penelitian serta rekreasi intelektual bagi masyarakat.perpustakaan berperan melakukan layanan informasi literal kepada masyarakat.karena tujuannya memberikan layanan informasi literal kepada masyarakat maka tugas pokoknya adalah: (1) menghimpun bahan pustaka yang meliputi buku dan nonbuku sebagai sumber informasi, (2) mengelola dan merawat pustaka, (3) memberikan layanan bahan pustaka [1]. klasifikasi adalah pengelompokan yang sistematis mengenai objek, gagasan, buku atau bendabenda lain ke dalam kelas atau golongan tertentu berdasarkan ciri-ciri yang sama. klasifikasi buku perpustakaan yang paling banyak dipakai adalah penggolongan berdasarkan isi atau subjek buku dengan menggunakan metode klasifikasi peresepuluh dewey. aturan klasifikasi buku perpustakaan ddc (dewey decimal classification) atau disebut dengan persepuluh dewey, pertama-tama membagi ilmu pengetahuan ke dalam 10 kelas utama. kemudian masing-masing kelas utama itu dibagi lagi ke dalam 10 divisi dan selanjutnya masing-masing divisi dibagi lagi ke dalam 10 seksi, sehingga dengan demikian ddc (dewey decimal classification) terdiri dari 10 kelas utama, 100 divisi dan 1000 seksi. meskipun demikian, ddc masih memungkinkan diadakannya pembagian lebih lanjut dari seksi menjadi sub-seksi, dari sub-seksi menjadi subsub-seksi dan seterusnya.pola perincian ilmu pengetahuan yang berdasarkan kelipatan sepuluh inilah maka ddc disebut klasifikasi persepuluh atau klasifikasi decimal [2].banyak metode yang lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 202 mendukung text mining salah satunya adalah algoritma k-nearest neighbor (k-nn).algoritma knn berdasarkan survey paper tahun 2006 termasuk dalam 10 algoritma terpopuler dalam data mining [3]. penelitian untuk proses klasifikasi dengan menggunakan algoritma k-nn tradisional dan dioptimalkan metode k-means telah dilakukan oleh zhou yong, dkk, yang pada intinya proses klasifikasi dengan metode k-nn yang besarnya jumlah sampel pelatihan akan meningkatkan kompleksitas perhitungan dan sementara satu klasifikasi memiliki kemiripan ciri, maka dengan menggunakan algoritma clustering, pengujian tidak dilakukan pada keseluruhan data latih. dari masalah tersebut klasifikasi teks dengan menggunakan k-nnakan ditingkatkan dengan menggunakan algoritma clusteringk-means [4]. k-medoids lebih kuat terhadap noise dibandingkan dengan k-means karena meminimalkan jumlah dari ketidaksamaan bukannya meminimalkan jumlah kuadrat jarak euclidean [5].berdasarkan penelitian terdahulu tentang text mining yang telah dipublikasikan, serta mempertimbangkan kelemahan dan kelebihan dari metode text mining yang telah digunakan oleh para peneliti terdahulu, maka dalam penelitian ini akan menggunakan metode k-nn dan digabungkan dengan menggunakan metode clusteringkmedoids. 2. metodelogi penelitian penelitian ini dilaksanakan di perpustakaan stmik bandung bali dengan jumlah buku yang berbahasa indonesia adalah 507 buah judul. buku-buku yang telah menjadi koleksi perpustakaan stmik bandung bali akan dijadikan sebagai data latih. gambar 1. gambaran umum sistem 2.1 data koleksi buku pada perpustakaan stmik bandung bali diklasifikasikan dengan menggunakan dcc (deweydecimal classification). data uji diperoleh dari toko buku online yaitu lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 203 gramediaonline.com, bukukita.com dan belbuk.com.tahapan secara langkap program aplikasi otomatisasi klasifikasi buku perpustakaan dapat dilihat pada gambar 1 tentang gambaran umum sistem. 2.2 tahapan penelitian sesuai dengan gambaran umum dari sistem yang akan dibuat dalam penelitian ini, tahapannya dapat dirinci sebagai berikut: 1. masukkan data latih yaitu judul dan sinopsis buku perpustakaan yang telah diklasifikasikan ke kategori tertentu sesuai dengan isi buku. 2. case folding adalah mengubah semua huruf dalam dokumen menjadi huruf kecil.hanya huruf ‘a’ sampai dengan ‘z’ yang diterima.karakter selain huruf dihilangkan dan dianggap delimiter. 3. tahap text mining terdiri dari a. tokenizing/parsing adalah tahap pemotongan string input berdasarkan tiap kata yang menyusunnya. b. tahap filtering adalah tahap mengambil kata-kata penting dari hasil token.algoritma yang digunakan bisanya adalah stoplist (membuang kata yang kurang penting) atau wordlist (menyimpan kata penting). c. tagging adalah tahap mencari bentuk awal/root dari tiap kata hasil stemming berdasarkan hasil dari tahap filtering. d. tahap analyzing merupakan tahap penentuan seberapa jauh keterkaitan antar katakata dari dokumen yang ada.tahap ini menghitung keterkaitankata-kata yang terdapat dalam judul danringkasan dibandingkan dengan kata kunci.kata kunci disini adalah kata-kata yangsering muncul dalam satu kategori buku. berikut akan disajikan proses text mining yang diawali dengan menyajikan data buku dapat dilihat pada tabel 1. tabel 1. data buku dokumen term yang mewakili dokumen d1 kamus umum lengkap d2 kamus indonesia inggris d3 kamus lengkap inggris-indonesia &indonesia inggris d4 kamus besar bahasa indonesia edisi 3 d5 apelatif cara praktis temukan 1100 entri istilah pengetahuan data buku yang disajikan pada tabel 1 akan dilakukan proses perhitungan tf (term frequency) banyaknya kata yang muncul di masing-masing dokumen (d1 sampai dengan d5). hasil perhitungan tf disajikan pada tabel 2 di bawah ini. tabel 2. hasil perhitungan tf lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 204 dari tabel 2 dapat dilihat bahwa kata “apelatif” hanya muncul pada dokumen 5 (d5) saja, “bahasa” hanya muncul pada dokumen 4 (d4) sampai dengan kata “umum” hanya muncul pada dokumen 1 (d1) saja. perhitungan selanjutnya adalah df(documentfrequency) diperoleh dari menghitung total kata yang muncul pada seluruh dokumen. lihat tabel 3 berikut ini kata “apelatif” hanya terdapat pada dokumen 5, jadi nilai df = 1.hasil perhitungan dfsecara lengkap dapat dilihat pada tabel 3 berikut ini. tabel 3. hasil perhitungan df dan idf dari tabel 3 dapat dilihat hasil perhitungan df dari setiap kata dan pada kolom terakhir merupakan perhitungan idf . contoh perhitungan idfdapat dilihat dari persamaan berikut ini. kata “aplatif” hanya terdapat pada dokumen 5 maka: nilaidf = 1 maka nilai idf = log(n/df) = log(5/1) = 0,69897 setelah didapatkan nilai df, perhitungan selanjutnya adalah menghitung bobot. kata “apelatif” pada masing-masing dokumen dapat dihitung sebagai berikut: w untuk dokumen 5 = 1 x 0,69897 = 0,69897 untuk hasil perhitungan secara lengkap dapat dilihat pada tabel 4 berikut ini. tabel 4. hasil perhitungan bobot (w) 4. buku perpustakaan telah diklasifikasi secara manual akan dijadikan data latih. data latih yang telah melalui tiga tahap di atas, disetiapklasifikasinya akan dikelompokan dengan menggunakan metode k-medoids. medoids yang didapatkan akan disimpan di dalam basis data. medoids ini nantinya akan dibandingkan dengan data uji. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 205 5. langkah berikutnya adalah masukkan data buku baru sebagai data uji.data buku baru juga harus melalui tahap case folding dan text mining seperti pada data latih yaitu di tahap ke-2 dan ke-3. 6. langkah berikutnya adalah menentukan klasifikasi buku baru yang akan menjadi koleksi perpustakaan dengan menggunakan algoritma k-nn. ada sebuah uji coba yang menarik dari penggunaan algoritma k-nn yang biasanya harus membandingkan semua data latih dengan data baru, namun disini berdasarkan hasil dari langkah ke-5, maka perbandingan hanya dilakukan pada medoids yang dihasilkan dari algoritma clustering.penjelasan mengenai algoritma k-nn adalah sebagai berikut. misalkan terdapat j kategori latih c1, c2,...,cj dan jumlah sampel latih n. setelahpreprosesing, masing-masing dokumen akan menjadi vektor fitur berdimensi m. selanjutnya langkah-langkah untuk penerapan metode ini adalah sebagai berikut : a. membuat dokumen x dari semua sampel latih menjadi bentuk vektor fitur yang sama (x1, x2, . . .xm). b. hitung kesamaan antara semua sampel latih dan dokumen x. ambil dokumen ke i di (di1, di2,. . ., dim) sebagai contoh, kesamaan sim (x,di) adalah sebagai berikut: ( , ) = (1) c. memilih k sampel yang lebih besar dari kesamaan n dari sim (x,di), (i = 1,2,...,n). dan memperlakukannya sebagai kumpulan k-nn dari x. kemudian hitung probabilitas x ke masing-masing kategori menggunakan persamaan 2 berikut: , = ( , ) . , (2) dimana, y(di, cj) adalah fungsi attribute kategori yang memenuhi persamaan 1. , = 1, 0, (3) d. uji dokumen x untuk mengetahui kategorinya dengan melihat p(x,cj) terbesar. 7. tahap terakhir adalah tahap pengujian yang akan memberikan kategori pada data tes dengan menggunakan model yang telah dibangun pada tahap memasukkan data latih. tahap pengujian ini dilakukan dua kali yang pertama pengujian data tes menggunakan metode k-nn murni dan yang kedua menggunakan metode k-nn yang digabungkan dengan metode k-medoids. 3. kajian pustaka 3.1 preprosesing dokumen sebelum proses klasifikasi dilakukan dengan menggunakan metode k-nn digabungkan dengan metode k-medoids, maka data latih maupun data uji yang berupa judul buku diolah terlebih dahulu menjadi data numerik. tahapan preprocessing ini merupakan tahapan dari text mining yang harus dilakukan, bila akan menambang informasi berupa teks.text mining merupakan menambang data yang berupa teks dimana sumber data biasanya didapatkan dari dokumen dan tujuannya adalah mencari kata-kata yang dapat mewakili isi dari dokumen sehingga dapat dilakukan analisa keterhubungan antar dokumen [6]. text mining merupakan proses mengesktrak petterns dan knowledge yang bersifat menarik dan penting dari dokumen-dokumen teks. pada intinya proses kerja text mining sama dengan proses kerja data mining pada umumnya hanya saja data yang di-mining merupakan text databases [7].di dalam knowledge discovery terdapat tahap data mining seperti yang telah lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 206 disebutkan diatas sebenarnya pada tahap data mining inilah text mining dijalankan.jadi pada intinya text mining adalah istilah yang dipakai oleh data mining yang mengekstrak data berupa teks.tahap-tahap text mining secara umum adalah: 1. tahap tokenizing adalah tahap pemotongan string input berdasarkan tiap kata yang menyusunnya. 2. tahap filtering adalah tahap mengambil kata-kata penting dari hasil token.algoritma yang digunakan adalah algoritma stoplist (membuang kata yang kurang penting) atau wordlist (menyimpan kata penting). 3. tahap stemming adalah tahap mencari root kata dari tiap kata hasil filtering. pada tahap ini dilakukan proses pengembalian berbagai bentukan kata ke dalam suatu representasi yang sama. tahap ini kebanyakan dipakai untuk teks berbahasa inggris dan lebih sulit diterapkan pada teks berbahasa indonesia. 4. tahap tagging adalah tahap mencari bentuk awal/root dari tiap kata hasil stemming. 5. tahap analyzing merupakan tahap penentuan seberapa jauh keterhubungan antara kata-kata antar dokumen yang ada. tahap ini menggunakan algoritma termfrequency(tf), invers document frequency (idf) dan kombinasi perkalian antara keduanya (tfxidf). 3.2 algoritma porter algoritma porter adalah algoritma stemming untuk bahasa inggris yang ditemukan oleh martin porter 1980. cara kerja algoritma ini adalah dengan membuang imbuhan (dalam bahasa inggris akhiran).berdasarkan algoritma porter, pada penelitian fadillah tala yang berjudul “a study of stemming e ects on information retrieval in bahasa indonesiastemming”mengadopsi cara kerja algoritma porter yang disesuaikan dengan karakteristik bahasa indonesia. langkah-langkah algoritma porter.adalah sebagai berikut[8]: 1. hapus particle. 2. hapus possesive pronoun. 3. hapus awalan pertama.jika tidak ada lanjutkan ke langkah 4a, jika ada cari maka lanjutkan ke langkah 4b. 4. (a) hapus awalan kedua, lanjutkan ke langkah 5, (b) hapus akhiran, jika tidak ditemukan maka kata tersebut diasumsikan sebagai root word. jika ditemukan maka lanjutkan ke langkah 5b. 5. (a) hapus akhiran. kemudian kata akhir diasumsikan sebagai root word, (b) hapus awalan kedua. kemudian kata akhir diasumsikan sebagai root word. 3.3 k-nearest neighborhood (k-nn) algoritma k-nn merupakan algoritma supervised learning di mana hasil klasifikasi data baru berdasar kepada kategori mayoritas tetangga terdekat ke-k. tujuan dari algoritma ini adalah mengklasifikasikan objek baru berdasarkan atribut dan data training.algoritma k-nn menggunakan klasifikasi ketetanggaan sebagai prediksi terhadap data baru.pada fase pembelajaran, algoritma ini hanya melakukan penyimpanan vektor-vektor fitur dan klasifikasi dari data pembelajaran. pada fase klasifikasi, fitur-fitur yang sama dihitung untuk data tes (yang klasifikasinya tidak diketahui). jarak dari vektor yang baru ini terhadap seluruh vektor data pembelajaran dihitung, dan sejumlah k buah yang paling dekat diambil.titik yang baru klasifikasinya diprediksikan termasuk pada klasifikasi terbanyak dari titik-titik tersebut. nilai k yang terbaik untuk algoritma ini tergantung pada data, pada umumnya nilai k yang tinggi akan mengurangi efek noise pada klasifikasi, tetapi membuat batasan antara setiap klasifikasi menjadi lebih kabur. nilai k yang bagus dapat dipilih dengan optimasi parameter, misalnya dengan menggunakan cross-validation. kasus khusus dimana klasifikasi diprediksikan berdasarkan data pembelajaran yang paling dekat (dengan kata lain, k = 1) disebut algoritma lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 207 nearest neighbor.ketepatan algoritma k-nn ini sangat dipengaruhi oleh ada atau tidaknya fiturfitur yang tidak relevan, atau jika bobot fitur tersebut tidak setara dengan relevansinya terhadap klasifikasi.riset terhadap algoritma ini sebagian besar membahas bagaimana memilih dan memberi bobot terhadap fitur, agar performa klasifikasi menjadi lebih baik.langkah-langkah algoritma k-nn: 1. tentukan parameterk= jumlahtetanggaterdekat. 2. hitungjarak antaradata yang akan ditentukan klasifikasinya dengansemuasampelpelatihan. 3. urutkanjarakdan tentukantetangga terdekatberdasarkanjarak minimumk. 4. kumpulkankategoritetanggaterdekat. 5. gunakanmayoritassederhana darikategoritetangga terdekatsebagai nilaiprediksidari data yang ditentutukan klasifikasinya. 3.4 k-medoids k-medoids adalah teknik partisi klasik untuk clustering yang melakukan clustering data dari n objek ke dalam cluster dikenal dengan apriori. k-medoids lebih kuat terhadap noise dan outliner dibandingkan dengan k-means karena meminimalkan jumlah dari ketidaksamaan bukannya meminimalkan jumlah kuadrat jarak euclidean. medoids dapat didefinisikan sebagai objek cluster, yang rata-rata perbedaan untuk semua objek dalam suatu cluster minimal yaitu merupakan titik paling pusat dari data yang diberikan. realisasi yang paling umum dari clustering k-medoids adalah partition around medoids (pam) dan algoritma adalah sebagai berikut: 1. inisialisasi: pilih secara acak k dari n data point sebagaimedoids. 2. asosiasikan setiap data point ke medoids yang terdekat (terdekat berarti menggunakan perhitungan jarak yang biasa digunakan adalah euclidean distance, manhattan distance atau minkowski distance) 3. untuk setiap medoidsm dan untuk setiap data non medoidso tukarkan m dan o dan hitung berapa totalcost dari setiap konfigurasi (penukaran m dan o) 4. pilih konfigurasi dengan cost paling sedikit. 5. ulangi langkah 2 sampai 5 dan hentikan jika sudah tidak terdapat perubahan medoids. 4. hasil dan pembahasan 4.1 uji coba tahapan uji coba aplikasi otomatisasi klasifikasi buku perpustakaan ini, seperti yang telihat pada gambar 1 yaitu gambaran umum sistem terdiri dari 13 tahapan. tahapan uji coba tersebut akan dijelaskan berikut ini: 1. input data latih tahap ini adalah memasukkan data buku koleksi perpustakaan stmik bandung bali yang telah diklasifikasi sesuai dengan judul buku tersebut. implementasi dari tahap input data latih dapat dilihat pada gambar 2.antramuka input data latih yang terlihat pada gambar 3 di atas memasukkan judul buku “teknik pemrograman delphi”. setelah seluruh field terisi pada pojok kanan bawah terdapat tombol “text mining” yang berfungsi untuk melanjutkan tahapan text mining dari data latih. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 208 gambar 2. input data latih 2. case folding tahapan yang kedua yaitu merubah field judul dan resensi yang telah dimasukkan menjadi huruf kecil. tahapan ini pada implementasi digabungkan dengan tahapan “text mining” pada proses token. 3. text mining proses text mining dari token sampai dengan analyzing dapat dilihat implementasinya pada gambar 3 berikut ini: gambar 3. hasil text miningdata uji 4. tahap ke 4 adalah menyimpan hasil proses text mining ke dalam basis data, pada gambar 3 dapat dilihat terdapat fasilitas untuk menyimpan dengan meng-klik button “simpan”. 5. tahap ke 5 mengambil data latih yang telah tersimpan di dalam basis data, kemudian setiap klasifikasi dari data buku tersebut dilakukan proses clustering. antar muka proses clustering dapat dilihat pada gambar 4. proses clustering seperti terlihat pada gambar 4 terdapat field “kategori”, disini dilakukan pemilihan kategori yang akan dilakukan proses clustering. pada gambar 4 terlihat proses clustering untuk kode kategori “001.42”. dibawah field “kategori” terdapat check list “semua kategori”, apabila ini dipilih, maka proses klasifikasi dilakukan pada seluruh kategori yang telah dimasukkan ke dalam basis data. field “presentase untuk medoids” digunakan untuk menetukan berapa persen dari data latih digunakan sebagai medoids. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 209 gambar 4. proses clustering 6. tahap ke 6 adalah menyimpan hasil proses clustering. pada gambar 4 terlihat button “generate medoids” yang berfungsi melakukan proses clustering sekaligus menyimpan ke dalam basis data. apabila proses clustering telah selesai, maka akan tampil pesan bahwa proses clustering telah sukses dilakukan seperti terlihat pada gambar 5 berikut ini: 7. gambar 5. proses clustering telah sukses dilakukan 8. tahap ke 7 merupakan proses uji coba klasifikasi buku terhadap data latih yang telah dimasukkan ke dalam basis data. tahap uji coba ini diawali dengan memasukkan data buku yang akan diklasifikasi. antramuka untuk memasukkan data buku untuk uji coba dapat dilihat pada gambar 6 berikut ini. gambar 6. input data uji pada gambar 6 terlihat telah dimasukkan data buku yang berjudul “akuntansi biaya (edisi 5)” dan untuk melanjutkan ke tahap case folding, maka langkah yang dilakukan adalah dengan mengklik button “text mining” yang terdapat pada pojok kanan bawah. 9. case folding tahapan kedelapan sama dengan tahap kedua, hanya saja tahapan ini merubah field judul dan resensi yang telah dimasukkan menjadi huruf kecil untuk data buku sebagai data uji. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 210 tahapan ini pada implementasi digabungkan dengan tahapan “text mining” pada proses token. 10. text mining proses text mining pada tahap ini sama dengan proses pada tahap ketiga, hanya saja proses text mining ini digunakan untuk data buku sebagai data uji. proses text mining mulai dari token sampai dengan analyzing dapat dilihat implementasinya pada gambar 7 berikut ini. gambar 7. proses text mining untuk data latih 11. tahap berikutnya adalah mengambil data latih yang tersimpan di dalam basis data, disini ada 2 tahapan yang sedikit berbeda yang pertama adalah mengambil data latih secara keseluruhan dan yang kedua adalah mengambil data latih yang telah di-cluster. 12. tahap ke 11 ini adalah proses klasifikasi. seperti yang telihat pada gambar 7 pada bagian bawah terdapat 2 button yaitu “k-nn murni” dan “k-nn+k-medoids”. apabila button “k-nn murni” dipilih, maka proses klasifikasi dengan menggunakan metode k-nn sedangkan button “k-nn+k-medoids”, maka proses klasifikasi dengan menggunakan metode k-nn digabungkan dengan k-medoids. 13. tahap ke 12 adalah tahap untuk menampilkan hasil klasifikasi dengan menggunakan metode k-nn, implementasinya dilihat pada gambar 8. gambar 8. hasil klasifikasi dengan metode k-nn pada gambar 8 terlihat bahwa judul “akuntansi biaya (edisi 5)” diklasifikasi dengan kode 567 yaitu kategori akuntasi dan k = 3. waktu yang diperlukan 2 menit 37 detik. apabila ingin mengetahui hasil klasifikasi dengan k = 4, maka langkah yang dilakukan dengan merubah varibel k pada pojok kiri atas dilanjutkan dengan menekan button “klasifikasi ulang”. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 211 14. tahap terakhir menampilkan hasil klasifikasi dengan menggunakan metode k-nn digabungkan dengan k-medoids. implementasi hasil klasifikasinya dapat dilihat pada gambar 9 berikut ini. gambar 9. hasil klasifikasi dengan metode k-nn digabung dengan k-medoids pada gambar 9 terlihat hasil klasifikasi dengan menggunakan metode k-nn digabung dengan k-medoids dengan hasil klasifikasi kode 657 yaitu kategori akuntansi dengan waktu yang diperlukan untuk proses klasifikasi adalah 38 detik. 4.2 evaluasi hasil uji coba pada sub bab 4.2 akan dihitung tingkat akurasinya, guna mengetahui seberapa kedekatan nilai hasil uji dengan nilai sebenarnya. hasil perhitungan akurasi data uji dengan menggunakan metodek-nn dapat dilihat pada tabel 5 dan gambar 10 berikut ini. tabel 5. akurasi hasil uji coba dengan metode k-nn kode kategori akurasi akurasi akurasi akurasi akurasi k = 3 k = 4 k = 5 k = 6 k = 13 200.1 60 % 60 % 60 % 60 % 60 % 657 80 % 80 % 80 % 80 % 80 % 658 80 % 80 % 80 % 80 % 80 % 005.262 60 % 60 % 60 % 60 % 80 % 005.3 80 % 80 % 80 % 80 % 80 % rata-rata 72% 72% 72% 72% 76% gambar 10. grafik akurasi hasil uji dengan menggunakan metode k-nn 0% 50% 100% 200.1 657 658 005.262 005.3 a ku ra si kode kategori k=3 k=4 k=5 k=6 lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 212 dari gambar 10 dapat dilihat tingkat akurasi dari hasil klasifikasi dengan menggunakan metode k-nn, untuk setiap kategori dengan k = 3, k = 4, k = 5 dan k = 6, hasilnya adalah sama. jadi dapat ditarik kesimpulan nilai ksampai dengank = 6, tidak mempengaruhi akurasi.hasil perhitungan akurasi hasil uji coba dengan menggunakan metoda k-nn digabungkan dengan metode k-medoids dengan jumlah medoids 10% dari data latih dapat dilihat pada tabel 6 berikut ini. tabel 6. akurasi hasil uji coba metode k-nn digabung dengan k-medoids dengan medoids 30% dari data kode kategori akurasi akurasi akurasi akurasi akurasi k = 3 k = 4 k = 5 k = 6 k = 13 200.1 60 % 60 % 60 % 60 % 50 % 657 20 % 20 % 20 % 20 % 20 % 658 100 % 90 % 90 % 90 % 90 % 005.262 80 % 80 % 80 % 70 % 70 % 005.3 70 % 70 % 70 % 70 % 80 % rata-rata 66% 64% 64% 62% 62% hasil perhitungan akurasi hasil uji coba dengan menggunakan metoda k-nn digabungkan dengan metode k-medoids dengan jumlah medoids 30% dari data latih ditambah dengan 1 anggota medoids yang terjauh dapat dilihat pada tabel 7 berikut ini. tabel 7.akurasi hasil uji coba metode k-nn digabung dengan k-medoids denganmedoids30% plus kode kategori akurasi akurasi akurasi akurasi akurasi k = 3 k = 4 k = 5 k = 6 k = 13 200.1 60 % 60 % 60 % 60 % 60 % 657 90 % 90 % 90 % 90 % 90 % 658 100 % 100 % 100 % 100 % 100 % 005.262 90 % 90 % 90 % 90 % 90 % 005.3 70 % 80 % 80 % 80 % 80 % rata-rata 82% 84% 84% 84% 84% hasil perhitungan akurasi hasil uji coba dengan menggunakan metoda k-nn digabungkan dengan metode k-medoids dengan jumlah medoids 50% dari data latih dapat dilihat pada tabel 10 berikut ini. tabel 8. akurasi hasil uji coba metode k-nn digabung dengan k-medoids denganmedoids 50% dari data kode kategori akurasi akurasi akurasi akurasi akurasi k = 3 k = 4 k = 5 k = 6 k = 13 200.1 50 % 50 % 50 % 50 % 50 % 657 50 % 50 % 50 % 60 % 60 % 658 100 % 100 % 100 % 100 % 100 % 005.262 90 % 90 % 90 % 90 % 90 % 005.3 60 % 60 % 70 % 70 % 70 % rata-rata 70% 70% 72% 74% 74% hasil perhitungan akurasi pada tabel 6,7 dan 8 dapat dilihat dengan menggunakan grafik pada gambar 11 berikut ini. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 213 gambar 11.grafik akurasi hasil uji metode k-nn digabungkan dengan k-medoids perbandingan waktu klasifikasi untuk metode k-nn dengan metode k-medoids dapat dilihat pada tabel 9 dan grafikpada gambar 12 berikut ini. tabel 9. rata-rata waktu untuk proses klasifikasi kode kategori rata-rata waktu metode k-nn metode k-nn + k-medoids 200.1 2 menit 50 detik 39 detik 657 2 menit 43 detik 38 detik 658 2 menit 44 detik 39 detik 005.262 2 menit 47 detik 40 detik 005.3 2 menit 58 detik 41 detik rata-rata waktu untuk proses klasifikasi dengan menggunakan metode k-nn lebih lama karena semua data uji harus dibandingkan dengan data latih yang akan diklasifikasi, sedangkan untuk rata-rata waktu proses klasifikasi dari hasil gabungan dua metode yaitu k-nn dan k-medoids memerlukan waktu 2 menit lebih cepat dari metode k-nn, hal ini disebabkan karena data uji hanya dibandingkan dengan data latih yang menjadi medoids. gambar 12. grafik rata-rata waktu klasifikasi 5. simpulan berdasarkan hasil uji coba yang telah dilakukan dapat disimpulkan beberapa hal, yaitu: program aplikasi otomatisasi klasifikasi buku perpustakaan berbahasa indonesia dengan menggunakan metode k-nn rata-rata akurasinya 72% dengan jumlah data uji 50 buah dan rata-rata waktu yang diperlukan untuk proses klasifikasi 2 menit 48 detik, bila menggunakan metode k0% 10% 20% 30% 40% 50% 60% 70% 80% 90% k = 3 k = 4 k = 5 k = 6 k = 13 a ku ra si 30% dari data 30%+ 50% dari data 0 0,5 1 1,5 2 2,5 3 200.1 657 658 005.262 005.3 w ak tu d al am m en it kode kategori k-nn k-nn+ lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 214 nndigabungkan dengan k-medoids rata-rata akurasinya 84% dengan 50 data uji dan waktu yang diperlukan untuk proses klasifikasi 39,4 detik.klasifikasi dengan menggunakan metode knn digabungkan dengan k-medoids menghasilkan akurasi yang lebih tinggi dan waktu yang lebih singkat dibandingkan hanya dengan menggunakan metode k-nn. daftar pustaka [1] wahyu supriyanto,“ahmad muhsin, informasi perpustakaan”, yogyakarta, kansius (anggota ikapi),2008. [2] tawa p. hamakonda, mls & j. n. b tairas, “pengantar klasifikasi persepuluhan dewey”, cetakan ke – 18. jakarta,2008. [3] xindong wu, dkk, “top 10 algorithms in data mining”, london, springer-verlag,2007. [4] zhou yong,“an improved k-nn text classification algorithm based on clustering”,2009. www.academypublisher.com/jcp/vol04/no03/ jcp0403230237.pdf[diunduh: tanggal 5 mei 2011] [5] helmi harniawati, “image clustering berdasarkan warna untuk identifikasi buah dengan metode valley tracing”,proyek akhir, surabaya: institut teknologi sepuluh nopember, 2007. [6] milkha harlian ch, text mining,2006.http://kesehatankerja.depkes.go.id/downloads/ 6text%20mining.pdf[diunduh: tanggal 30 nopember 2011] [7] kusrini, emha taufiq luthfi, “algoritma data mining”,yogyakarta, andi, 2009. [8] fadillah z. tala, “a study of stemming effect on information retrieval in bahasa indonesia, netherland, universiteit van amsterdam, http://ucrel.lancs.ac.uk/acl/p/p00/p00-1075.pdf[diakses: tanggal 25 juli 2009] lontar template lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 167 spatial based deep learning autonomous wheel robot using cnn eko wahyu prasetyoa1, hidetaka nambob2, dwi arman prasetyaa3, wahyu dirgantaraa4, hari fitria windi a5 ateknik elektro, universitas merdeka malang jalan terusan dieng no. 62-64 malang, jawa timur, indonesia 1prasetyoekowahyu7@gmail.com;3arman.prasetya@unmer.ac.id; 4wahyu.dirgantara@unmer.ac.id; 5harry.fw@unmer.ac.id; b artificial intelligence, kanazawa university kakumamachi, kanazawa, ishikawa, jepang 2nambo@blitz.ec.t.kanazawa-u.ac.jp; abstract the development of technology is growing rapidly; one of the most popular among the scientist is robotics technology. recently, the robot was created to resemble the function of the human brain. robots can make decisions without being helped by humans, known as ai (artificial intelligent). now, this technology is being developed so that it can be used in wheeled vehicles, where these vehicles can run without any obstacles. furthermore, of research, nvidia introduced an autonomous vehicle named nvidia dave-2, which became popular. it showed an accuracy rate of 90%. the cnn (convolutional neural network) method is used in the track recognition process with input in the form of a trajectory that has been taken from several angles. the data is trained using jupiter's notebook, and then the training results can be used to automate the movement of the robot on the track where the data has been retrieved. the results obtained are then used by the robot to determine the path it will take. many images that are taken as data, precise the results will be, but the time to train the image data will also be longer. from the data that has been obtained, the highest train loss on the first epoch is 1.829455, and the highest test loss on the third epoch is 30.90127. this indicates better steering control, which means better stability. keywords: autonomous wheel robot, nvidia, artificial intelligent, convolutional neural network, jupiter note book 1. introduction currently, the development of robotics is increasingly sophisticated, e.g., the use of a preprepared trajectory on the autonomous wheel robot. furthermore, the pre-prepared trajectory includes artificial intelligence (ai) [1] in the wheeled robot control system; therefore, it can move automatically. ai robot that was previously moving conventionally or driven by humans has started to be able to move automatically in this stage the robot can already be said machine learning. machine learning and artificial intelligent have a difference where ai aims to increase the chances of success and not the accuration, while machine learning(ml) focuses on improving efficiency and no matter the success. ai's goal is to simulate natural intelligence in solving complex problems, whereas ml's goal is to learn from data to maximize machine performance[2]. ai is about making decisions, while ml allows systems to learn new things from data. ai will create systems to mimic humans and respond and behave accordingly. other ml discs are involved in creating algorithms for self-learning. in previous research, [3] developed an autonomous wheel robot using raspberry pi3 as a mini pc to process the data resource. it is used because it has a low price, but sometimes packet loss appears during the transmission data process in real-time because the ram is only 1 gb. despite having a higher price, nvidia jetson nanobot is equipped with an 8 gb ram, so the probability of mailto:1prasetyoekowahyu7@gmail.com; mailto:arman.prasetya@unmer.ac.id mailto:4wahyu.dirgantara@unmer.ac.id mailto:5harry.fw@unmer.ac.id mailto:2nambo@blitz.ec.t.kanazawa-u.ac.jp lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 168 packet loss is smaller. in addition, the gpu owned by nvidia also supports data image processing, so it can be processed faster. the data that has been input and processed by the machine passes through two or more layers [4]. when more layers are used, the accuracy rate will also be increase [5]. this layer is a substitute for humans to make decisions independently without human assistance. one method of deep learning is the convolutional neural network or commonly abbreviated as cnn [6]. the cnn works by scan each section in the data to be used as a node. each number in nodes is the result of matrix calculation. the robot can follow the track avoiding obstacles and doing work more efficiently and optimally. research related to autonomous driving in artificial intelligence laboratories has been done before [7], by simulating it using a program called the carla simulator. it's an open-source one for autonomous car driving. aims to continue the development to the next stage, this research focuses on making a prototype of an autonomous car that has three wheels; two regular wheels and one omni wheel. the body is made of abs filaments that are printed using a 3d printer, the camera module as a place to pick up objects on the front. thus the robot is expected to be able to operate on the ground, reading the area of the path and obstacles obtained through camera capture. 2. research methods the method used in this study is the resnet model of convolutional neural network (cnn) as follows : camera pi v2 jupiter note book jetson nano drivers motor modul wifi pioled motor dc modul wifi personal computer jupiter note book figure 1. design of research system developed the design of the research system developed is illustrated in figure 1. the camera retrieves digital imagery data passed to nvidia jetson nanobot for processing, data from the received digital imagery will be processed with nvidia jetson nanobot using convolutional neural network method, this method is used to detect image data and train it, but this process is done separately in personal computer using jupiter lab. after nvidia jetson nano does training on the data that has been taken, the data will be reused as a reference to control the motor drivers who drive dc motors as actuators. 2.1. deep learning in the deep learning method, it is necessary to address significant problems in statistical machine learning [8]. the selection of a feature space that fits the representation learning approach becomes a problem in machine learning because the input space can be mapped to intermediate features. deep neural networks have some difficulties [9], especially with high dimensional input spaces, e.g., images. this problem then encourages researchers to adopt a deep architecture, consisting of several layers with non-linear processing to solve the problem. although there is already evidence of a successful case of a shallow network [10][11], the researchers found that lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 169 curse dimensionality becomes a problem in the case of multiple functions. also, it was found that increasing the number of layers in the neural network can reduce the impact of backpropagation on the first layer. the descent of the gradient then tends to stop within the local minima or plateaus. however, this problem was solved in 2006 [12][13] through the introduction of layerwise unattended pre-training. in 2011, the graphics processing unit (gpu) speed increased significantly, which made it possible to train convolutional neural networks based architectures. alexnet is won international competitions in 2011 and 2012. then, in the following order of the following year, with the advancement of cpu and gpu, deep learning and more for data-hungry deep learning techniques. the training and validation of motor sensor control models for urban driving in the real world were beyond the reach of most of the research groups [14]. therefore, simulation testing is an alternative that can be done. 2.2. neural networks the result of cross multiplication feedforward neural networks or multilayer perceptrons (mlps) [15] are the base of the deep learning model. the main objective of the feed-forward network is to define the mapping of input 𝑥 𝑡𝑜 𝑦, 𝑦 − 𝑓 (𝑥; 𝜃) categories and to estimate the value of the parameter θ, which is the result of the best function estimate [16][17]. figure 2. example of mlps with hidden layer a feed-forward neural network has a structure consisting of many different functions. for example, figure 2 consists of three different layer functions 𝑓(1), 𝑓(2), 𝑑𝑎𝑛 𝑓(3) , forming. 𝑓(𝑥) = f (3)(f (2) (f (1) (x))))for this case, 𝑓 (1) referred to as the input layer, 𝑓 (2) is the second layer, or the hidden layer, and then 𝑓 (3) is the output layer referred to in figure 2. the overall length of the chain is the depth of the model. from here, this process is called deep learning [18]. this can provide a feed-forward network as a transformation of a linear function 𝑥 into a nonlinear function of 𝑥, or it can be expressed as 𝜙 (𝑥), where 𝜙 is a non-linear transformation. so it can be said that 𝜙 has a feature that describes 𝑥 or provides a new representation of 𝑥. there are three general approaches [18]used to select 𝜙 mapping. that is: a. very generic based 𝜙 approach. b. manually engineered 𝜙. c. parametrization of 𝜙 with a representation of 𝜙(𝑥; 𝜃). the last third option uses the feed-forward network as an application to study deterministic mapping, stochastic mapping, functions with feedback, and probability distributions on a single vector [18]. most of the neural network models are designed using this principle. 2.3. convolutional neural network cnn, introduced by lecun, is mainly used to process data with a grid-like topology. it is simply neural networks that use convolutions instead of general multiplication. usually, a convolutional network is composed of three-phase. the first phase, the convolutional layer, carries out convolution to produce a series of linear activations. in the second phase, the convoluted features x1 x2 xn . . . y1 y2 yn . . . input layers hidden layers output layers lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 170 undergo a non-linear activation function, eventually, through the merged layer, which is called the downsampled feature [9][10][21]. x1 x2 xn . . . y1 y2 yn . . . input layers hidden layers output layers depth h e ig th figure 3. mlps and cnn architecture with the general availability of data and escalating computing power, deep learning approaches as convolutional neural networks (cnn), as evident, outperform traditional approaches.[22] cnn consists of multiple layers, each of which has an application program interface (api) or commonly called a simple application program interface. in figure 3, cnn, with the initial input of a threedimensional block, will be transformed into a three-dimensional output with several differentiation functions that have or do not have parameters. cnn forms its neurons into three dimensions (length, width, and height) in one layer. the proposed system performance was evaluated based on mean square error (mse) [23][24]. in cnn, there are two main processes, namely feature learning and classification 2.3.1. feature learning feature learning is the layers contained in feature learning, which is useful for translating input into features based on the characteristics of the input, which are in the form of numbers in vectors [25]. this feature extraction layer consists of a convolutional layer and a pooling layer. a. convolutional layer will calculate the output of neurons connected to the local area in the input [26]. b. the rectified linear unit (relu) will abolish off the lost gradient by adjusting the element activation function as f (x) = max f, 0 (0, x) [27] element activation will be performed when on the verge of 0. advantages and disadvantages of using relu can expedite the stochastic gradient compared with sigmoid / tanh function, relu is linear not using exponential operations such as sigmoid / tanh, by creating an activation matrix when the threshold is 0. relu training is carried out it becomes fragile and dies, a large gradient that flows through relu causes weight updates, neurons are no longer active on the data point. if this happens, the gradient that flows through the unit will forever be zero from that point. c. the pooling layer is a layer that reduces the dimensions of the feature map or better known as the step for down sampling [28], that speeds up computation. fewer parameters need to be updated, and overfitting is overcome. pooling that is commonly used is max pooling and average pooling. max pooling to determine the maximum value of each filter shift, while average pooling will determine the average value. 2.3.2. classification classification this layer is useful for classifying each neuron that features extracted previously. consists of: a. flatten is reshape feature map into a vector, and then it can be used as input for the fullyconnected layer [29]. b. fully-connected the fc layer calculates the class score. like a normal neural network and as the name suggests, every neuron in this layer will be connected to every number in the volume. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 171 c. softmax function calculates the probability of each target class over all possible target classes and will help to determine the target class for the input given. the advantage of using softmax is that the probability of output ranges from zero to one, and the number of all probabilities will be equal to one. the softmax function used for the multiclassification model will return the probability that each class and the target class will have a high probability [30]. in the convolution layer, the convolutional algorithm converts the image into a vector without losing spatial information, which mlps cannot do. mathematically, the discrete convolution operation between two functions f and g, denoted by the operator ∗, can be defined as: (𝑓 ∗ 𝑔)(𝑥) = ∑ 𝑓(𝑡)𝑔(𝑥 + 𝑡)𝑡 (1) for a 2-dimensional image as input, the formula can be written as follows (𝐼 ∗ 𝐾)(𝑖, 𝑗) = ∑ ∑ 𝐼(𝑚, 𝑛)𝐾(𝑖 + 𝑚, 𝐽 + 𝑛)𝑛𝑁 (2) since convolution is commutative, convolution can also be written as follows, (𝐾 ∗ 𝐼)(𝑖, 𝑗) = ∑ ∑ 𝐼(𝑖 + 𝑚, 𝑗 + 𝑛)𝐾(𝑚, 𝑛)𝑛𝑁 (3) from these equations (1 and 2), i is a two-dimensional input, while k is a two-dimensional convolutional kernel. figure 4. 2d convolution between 3 x 4 input and 2 x 2 kernel the principle of 2d convolution is to shift the convolutional kernel on the input. at each index position shown in figure 3, element-wise multiplications are computed, they are summed. then the result value is as follows: refer to figure 4, the kernel slides by the number of strides. this helps the user in downsampling the image. there is also a parameter called padding, which we can set up to control the size of the output. q= a.m + b.n + e.o + f.p r = b.m + c.n +f.o + g.p 𝑠 = 𝑐𝑚 + 𝑑𝑛 + 𝑔𝑜 + 𝑔𝑝 t = e.m + f.n + o.e + f.p u = f.m + g.n +j.o +k.p v = g.m + h.n + k.o +l.p lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 172 3. result and discussion this chapter will contain about testing the system on a device that is designed following the design to find out whether the tool is running as planned. testing is carried out to compare the results of the theoretical design with the experimental results. from the test results. 3.1. result of autonomous wheel robot the robots developed in this project are autonomous wheel robots that have three wheels, for more details can be seen in the following image. figure 5 autonomous wheel robot figure 5 is a robot developed using three wheels, one of its wheels uses an omni wheel that can move 360 degrees, and the other two wheels using conventional wheels connected to the dc motor as an actuator of the developed robot, in addition to being the robot's data receiver uses a camera on the front to capture the data received, for the brain to move the robot using nvidia jetson nanobot, to process data that has been stored using convolutional neural network method (cnn) so that the robot can move smoothly along the track. 3.2. result of camera module capture pi v2 the camera used is the pi v2 camera module with the resolution used to capture images is 256 x 256 pixels, which serve as an image capture of objects with detailed and bright results. this camera device is a track detector or track that will be processed on the nvidia jetson nanobot. figure 6. display of camera testing at jupiter lab lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 173 figure 6 is a camera device that is connected to the jetson nanobot, which is placed on the front as a trajectory detector in the digital image camera testing device that is captured by this device, shown in figure 6. a b c d figure 7. a, b, c, d, image display figure 7. (a) is the cut that is used, but this cut is only the right-turning part, figure 7. (b) is the cut used this cut is only a straight section but takes half the angle of the whole track, figure 7. (c) is the piece of track used but this track cut is only the left-turning part, figure 7. (d) is the cut of the straight track taken from the end of the track to the last point of the track display of the digital image captured by the camera as well as data to be processed using the convolutional neural network method to detect pathways. 3.3. data training in this test, using cnn resnet 34 method as described in the previous chapter in this process that determines how high the level of accuracy will be obtained in this research here is the training data process. figure 8. track used figure 8 shows a picture of the track used, after which the track is divided into parts. for example, see figure 9. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 174 a b c d figure 9. a, b, c, d, the marked path figure 9. (a) is the cut that is used, but this cut is only the right turning part, figure 9. (b) is the cut used, but this cut is only a straight section but takes half the angle of the whole track, figure 9. (c) is the cut used but this cut is only the left turning part, figure 9. (d) is a cut of a straight track taken from the end of the track to the last point of the track showing the result of the track that has been marked using the jupiter lab note book. the green pointer is the place where the track is marked as a point for nvidia to make a decision. 3.4. model test results loss function is a function in optimization problems to minimize the shortage or loss itself. the loss is damage or failure when training data, while the number of epoch is the number of a group of data repeatedly. figure 10. function loss using resnet 34 lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 175 figure 10. is a graph that shows the results of training data where training is carried out 70 times using the resnet_34 model, where the hidden layers used are 34 hidden layers, there is a comparison between training loss and test loss where if you want accurate accuracy results, the results of the test loss must be valuable equal to or higher than the training loss chart. it shows that for epoch less than ≤ 5, loss function obtained quite high with the peak point is around epoch = 3 and down monotone close to zero after passing epoch = 5. table 1. loss function resnet 34 epoch train_loss test_loss 1 1.829455 0.432907 2 1.19932 24.971218 3 0.193119 30.90127 4 0.121705 4.869393 5 0.059956 4.776933 6 0.062019 0.30119 7 0.05823 0.198895 8 0.049085 1.056565 9 0.053102 0.051256 10 0.056029 0.036103 based on table 1. above, it can be seen that the highest train loss is in the first epoch with a value of 1.829455, while the highest test loss is in the third epoch with a value of 30.90127 while the epoch value is below the third epoch on an average value between 0.1 to 4.8. in previous research[31], using carla to simulate how the cnn method works and obtained results training loss 0.00271 and validation loss 0.051. while the results of this study were obtained train loss 1.829455 and test loss 30.90127 this shows the results obtained in accordance with expectations. the value represents that, the model needs a more considerable amount of data so that train loss ~ test loss. 4. conclusion in this experiment, the convolutional neural network deep learning method was used with the resnet 34 models in the trajectory recognition process. to move smoothly, must take a picture of the trajectory from several angles not only take from one angle because the robot does not always move according to its path there must be a time when the robot moves out of the trajectory, and by the time it happens, the robot already has the data to make its own decision, the data image that has been stored next will be trained to get test loss and train loss values. from the data obtained, the highest train loss in the first epoch was 1.829455, and the highest test loss in the third epoch is 30.90127. the result obtained is then used by the robot to determine the path it will take. by adding the data, we want to train, we can reduce the level of loss that will be obtained, but the more data we train then, the longer it will take to train the data. references [1] d. a. prasetya, p. t. nguyen, r. faizullin, i. iswanto, and e. f. armay, "resolving the shortest path problem using the haversine algorithm," journal of critical reviews, vol. 7, no. 1, pp. 62–64, 2020, doi: 10.22159/jcr.07.01.11. [2] s. . chang et al., "resonant scattering of energetic electrons in the plasmasphere by monotonic whistler-mode waves artificially generated by ionospheric modification," annales geophysicae, vol. 32, pp. 507–518, 2014. [3] m. g. bechtel, e. mcellhiney, m. kim, and h. yun, "deeppicar: a low-cost deep neural network-based autonomous car," proc. 2018 ieee international conference on embedded and real-time computing systems and applications(rtcsa 2018), pp. 11–21, 2019, doi: 10.1109/rtcsa.2018.00011. [4] c. l. zhang and j. wu, "improving cnn linear layers with power mean non-linearity," pattern recognition, vol. 89, pp. 12–21, 2019, doi: 10.1016/j.patcog.2018.12.029. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 176 [5] d. a. prasetya and i. mujahidin, "2.4 ghz double loop antenna with hybrid branch-line 90degree coupler for widespread wireless sensor," in 2020 10th electrical power, electronics, communications, controls and informatics seminar (eeccis), aug. 2020, pp. 298–302, doi: 10.1109/eeccis49483.2020.9263477. [6] j. sun, y. fu, s. li, j. he, c. xu, and l. tan, "sequential human activity recognition based on deep convolutional network and extreme learning machine using wearable sensors," journal of sensors, vol. 2018, no. 1, 2018, doi: 10.1155/2018/8580959. [7] w. dharmawan and h. nambo, "end-to-end xception model implementation on carla self driving car in moderate dense environment," aiccc 2019: proceedings of the 2019 2nd artificial intelligence and cloud computing conference, pp. 139–143, 2019, doi: 10.1145/3375959.3375969. [8] z. q. zhao, p. zheng, s. t. xu, and x. wu, "object detection with deep learning: a review," ieee transactions on neural networks and learning systems, vol. 30, no. 11, pp. 3212– 3232, 2019, doi: 10.1109/tnnls.2018.2876865. [9] a. r. pathak, m. pandey, and s. rautaray, "application of deep learning for object detection," procedia computer science, vol. 132, no. iccids, pp. 1706–1717, 2018, doi: 10.1016/j.procs.2018.05.144. [10] n. akhtar and a. mian, "threat of adversarial attacks on deep learning in computer vision: a survey," ieee access, vol. 6, pp. 14410–14430, 2018, doi: 10.1109/access.2018.2807385. [11] n. f. ardiansyah, a. rabi’, d. minggu, and w. dirgantara, “computer vision untuk pengenalan obyek pada peluncuran roket kendaraan tempur,” jasiek (jurnal apl. sains, informasi, elektron. dan komputer), vol. 1, no. 1, 2019, doi: 10.26905/jasiek.v1i1.3142. [12] h. yu, d. c. samuels, y. yong zhao, and y. guo, "architectures and accuracy of artificial neural network for disease classification from omics data," bmc genomics, vol. 20, no. 1, pp. 1–12, 2019, doi: 10.1186/s12864-019-5546-z. [13] a. a. elsharif, i. m. dheir, a. soliman, a. mettleq, and s. s. abu-naser, "potato classification using deep learning," advances in animal biosciences, vol. 3, no. 12, pp. 1–8, 2019. [14] a. dosovitskiy, g. ros, f. codevilla, a. lopez, and v. koltun, "carla: an open urban driving simulator," 1st conference on robot learning (corl 2017), no. corl, pp. 1–16, 2017, [online]. available: http://arxiv.org/abs/1711.03938. [15] w. xiang, d. m. lopez, p. musau, and t. t. johnson, "reachable set estimation and verification for neural network models of nonlinear dynamic systems," safe, autonomous and intelligent vehicles, pp. 123–144, 2019, doi: 10.1007/978-3-319-97301-2_7. [16] a. a. heidari, h. faris, i. aljarah, and s. mirjalili, "an efficient hybrid multilayer perceptron neural network with grasshopper optimization," soft computing, vol. 23, no. 17, pp. 7941– 7958, 2019, doi: 10.1007/s00500-018-3424-2. [17] w. a. h. m. ghanem, a. jantan, s. a. a. ghaleb, and a. b. nasser, "an efficient intrusion detection model based on hybridization of artificial bee colony and dragonfly algorithms for training multilayer perceptrons," ieee access, vol. 8, pp. 130452–130475, 2020, doi: 10.1109/access.2020.3009533. [18] j. heaton, "ian goodfellow, yoshua bengio, and aaron courville: deep learning," genetic programming and evolvable machines, vol. 19, no. 1–2, pp. 305–307, 2018, doi: 10.1007/s10710-017-9314-z. [19] w. dharmawan, "end-to-end sequential input with time distributed model for carla self driving car in moderate dense environment," 2019. [20] c. zhao, b. ni, j. zhang, q. zhao, w. zhang, and q. tian, "variational convolutional neural network pruning," 2019 ieee/cvf conference on computer vision and pattern recognition (cvpr), vol. 2019-june, pp. 2775–2784, 2019, doi: 10.1109/cvpr.2019.00289. [21] y. liu, b. fan, s. xiang, and c. pan, "relation-shape convolutional neural network for point cloud analysis," 2019 ieee/cvf conference on computer vision and pattern recognition (cvpr), vol. 2019-june, pp. 8887–8896, 2019, doi: 10.1109/cvpr.2019.00910. [22] a. amidi, s. amidi, d. vlachakis, v. megalooikonomou, n. paragios, and e. i. zacharaki, "enzynet : enzyme classification using 3d convolutional neural networks on spatial representation," bioinformatics and genomics, pp. 1–11, 2017. [23] d. a. prasetya, t. yasuno, h. suzuki, and a. kuwahara, "cooperative control system of multiple mobile robots using particle swarm optimization with obstacle avoidance for tracking target," journal of signal processing, vol. 17, no. 5, pp. 199–206, 2013. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 177 [24] a. p. sari, h. suzuki, t. kitajima, t. yasuno, and d. a. prasetya, "prediction model of wind speed and direction using deep neural network," jeemecs (journal of electrical engineering, mechatronic and computer science), vol. 3, no. 1, pp. 1–10, 2020, doi: 10.26905/jeemecs.v3i1.3946. [25] a. dosovitskiy, j. t. springenberg, m. riedmiller, and t. brox, "discriminative unsupervised feature learning with convolutional neural networks," ieee transactions on pattern analysis and machine intelligence, vol. 1, no. january, pp. 766–774, 2014. [26] s. wang, j. sun, i. mehmood, c. pan, y. chen, and y. d. zhang, "cerebral micro-bleeding identification based on a nine-layer convolutional neural network with stochastic pooling," concurrency and computation practice and experience, vol. 32, no. 1, pp. 1–16, 2020, doi: 10.1002/cpe.5130. [27] a. f. agarap, "deep learning using rectified linear units (relu)," neural and evolutionary computing, no. 1, pp. 2–8, 2018. [28] l. jing, m. zhao, p. li, and x. xu, "a convolutional neural network based feature learning and fault diagnosis method for the condition monitoring of gearbox," measurement. journal of the international measurement confederation (imeko), vol. 111, pp. 1–10, 2017, doi: 10.1016/j.measurement.2017.07.017. [29] m. yu et al., "gradiveq: vector quantization for bandwidth-efficient gradient aggregation in distributed cnn training," advances in neural information processing systems 31 (nips 2018), vol. 2018-decem, no. neurips, pp. 5123–5133, 2018. [30] s. chen, c. zhang, m. dong, j. le, and m. rao, “chen_using_rankingcnn_for_cvpr_2017_paper.pdf,” cvpr, pp. 5183–5192, 2017. [31] c. science, "end-to-end spatial based deep neural network on self-driving car," 2020. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 104 pengujian dan analisa anti komputer forensik menggunakan shred tool budi rahardjoa1, i putu agus eka pratamab2 asekolah teknik elektro dan informatika (stei) institut teknologi bandung jl ganesha no 10, bandung, indonesia, telp.+62 222502260 1budi.rahardjo@paume.itb.ac.id bjurusan teknologi informasi, fakultas teknik, universitas udayana jalan raya kampus unud, bukit jimbaran, bali, indonesia, telp. +62 3617853533 2eka.pratama@unud.ac.id abstrak komputer forensik dan anti komputer forensik adalah dua bidang yang saling berlawanan. komputer forensik dilakukan oleh ahli komputer forensik guna memperoleh data dan bukti akurat dari kasus cyber crime untuk penyelidikan, sedangkan anti komputer forensik dilakukan oleh attacker untuk menghilangkan jejak sekaligus menyulitkan ahli komputer forensik dalam melakukan tugasnya. bagi attacker, pemilihan tool anti komputer forensik yang default di mesin target, dinilai lebih efektif dan cepat dibandingkan menginstalasi terlebih dahulu di mesin korban. untuk itu dipilihlah shred sebagai aplikasi anti komputer forensik pada mesin gnu/linux. jika anti forensik berhasil, ahli forensik akan sulit melakukan komputer forensik terhadap data yang menjadi barang bukti cyber crime. paper ini memaparkan mengenai anti forensik yang dilakukan oleh attacker terhadap mesin remote gnu/linux untuk kasus cyber crime di jaringan komputer. anti forensik dilakukan menggunakan shred terhadap file syslog untuk menghapus jejak kejahatan sekaligus menyulitkan proses forensik oleh ahli komputer forensik. pengujian dilakukan pada 3 buah komputer berbasis gnu/linux pada intranet lab sinyal sistem itb. masing masing bertindak sebagai mesin target (server), mesin firewall, dan mesin attacker. dilakukan proses anti komputer forensik dan komputer forensik di mesin server. hasil pengujian dicatat dan dianalisa untuk kemudian ditarik kesimpulan. kata kunci: anti forensik, shred, gnu/linux, network. abstract computer forensics and anti computer forensics are two opposing fields. computer forensics is done by a computer forensics expert in order to obtain accurate data and evidence of cyber crime cases for investigation, while the anti-computer forensics conducted by the attacker to remove traces at once difficult computer forensics expert in performing its duties. for the attacker, the selection of anti-computer forensics tool that default on the target machine, more effective and faster than installing it first on the victim machine. for this reason the author chose shred as anti computer forensics applications on gnu / linux machine. if anti forensic work, forensic experts would be difficult to perform computer forensics to data as evidence of cyber crime. this paper describes the anti-forensics performed by the attacker to remote machines gnu / linux for cyber crime cases in a computer network. anti forensic performed using shred the syslog file to remove traces of the crime at the same time make it difficult for the forensic process by computer forensics expert. tests performed on three pieces of computer-based gnu / linux on system signals lab intranet itb. each act as the target machine (server), firewall machine, and the machine attacker. doing the anti computer forensics and computer forensics at the server machine. the test results are recorded and analyzed in order to then be deduced. keywords: anti forensic, shred, gnu/linux, network. 1. pendahuluan sebagaimana halnya di dunia nyata, kejahatan di dunia komputer dan jaringan komputer, juga memerlukan adanya proses forensik. ilmu ini disebut dengan komputer forensik, yang lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 105 memadukan antara elemen hukum dan computer science. di sisi lain, pelaku kejahatan, dalam hal ini attacker, berusaha menutupi jejak kejahatannya dan menyulitkan proses komputer forensik. ilmu ini dikenal sebagai anti komputer forensik. komputer server pada umumnya menggunakan sistem operasi dari distribusi (distro) gnu/linux atau basis unix lainnya (misal bsd, solaris). pada umumnya, setiap os gnu/linux telah dipaketkan dengan aplikasi shred, yang berguna untuk melakukan over write berulang ulang terhadap isi suatu file atau folder, sehingga menyulitkan proses pembacaan file saat recovery. oleh attacker, tool ini disalah gunakan untuk melakukan anti komputer forensik. attacker cukup masuk ke mesin target dan menjalankan shred ke file atau direktori yang berpotensi menjadi barang bukti cyber crime (misal ke /var/log/syslog). shred amat cepat dan mematikan dalam hal menghapus suatu jejak dan bukti kejahatan dunia maya. di dalam paper ini, akan dijelaskan secara detail mengenai komputer forensik, anti komputer forensik, aplikasi shred, struktur file di gnu/linux, dan penggunaan shred sebagai aplikasi anti komputer forensik. sebelum dilakukan pengujian, dilakukan paper review terlebih dahulu, terhadap sejumlah referensi mengenai teknik teknik pengujian anti forensik, yang telah dilakukan oleh blunden [1], perklin [2], garfinkel [3], sporea [4], pajek [5], mrshl [6], peron [7], dan stuttgen [8]. dari referensi – referensi ini, dapat diketahui mengenai apa saja penelitian sebelumnya yang telah dilakukan (sebagai state of the art) sekaligus menjadi pedoman di dalam penelitian ini. selanjutnya,dilakukan proses pengujian di dalam penelitian ini, dengan menggunakan teknik pemanfaatan shred tool. selain itu, di dalam penelitian ini, juga dilakukan poc (proof of concept) terhadap tiga buah komputer berbasis gnu/linux, yang saling terhubung dalam suatu jaringan. masing – masing komputer diposisikan sebagai komputer target (server), komputer firewall, dan komputer attacker. selanjutnya, dilakukan proses anti komputer forensik menggunakan shred pada komputer korban (/var/log/syslog), secara remote melalui ssh. langkah selanjutnya adalah melakukan proses komputer forensik terhadap file syslog. parameter sukses tidaknya proses anti forensik yang dilakukan dilihat dari kemampuan untuk recovery file yang dihapus dengan shred maupun membaca kembali isi file hasil recovery tersebut. untuk bisa menguasai komputer target, attacker memiliki rincian metode penyerangan, sedangkan sysadmin memiliki rincian metode bertahan. keduanya menggunakan konsep 7 layer osi. penulis akan merinci langkah menyerang dan bertahan yang dilakukan oleh sysadmin dan attacker. hasil pengujian dicatat, dianalisa, lalu ditarik kesimpulan. dilanjutkan dengan pemberian saran untuk perbaikan ke depannya. diharapkan melalui paper ini, diperoleh gambaran mengenai salah satu teknik anti forensik menggunakan shred di jaringan komputer, sekaligus meningkatkan kesadaran mengenai keamanan sistem bagi para sysadmin. 2. metodologi penelitian perancangan skenario pengujian di dalam penelitian ini, menggunakan metodologi penelitian design science research method (dsrm) [9] yang terdiri atas tujuh langkah terurut. meliputi pemilihan masalah yang diangkat dan studi kasus berdasarkan topik penelitian, studi literatur dari berbagai sumber referensi (paper, web) mengenai topik yang diangkat, menyusun skenario pengujian, perancangan sistem dan pengujian sistem berdasarkan skenario yang dibuat, analisa dan kesimpulan, penyajian saran, serta dokumentasi. gambar di bawah ini, menunjukkan bagan dari metodologi penelitian yang digunakan. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 106 gambar 1. alur untuk metodologi penelitian selain itu, di dalam penelitian ini, juga digunakan metodologi systematic literature review (slr) [10], untuk membantu di dalam melakukan paper review terhadap sejumlah referensi, terkait dengan penelitian yang telah dilakukan sebelumnya oleh para peneliti sebelumnya tersebut. 2.1. skenario pengujian urutan skenario pengujian yang digunakan di dalam penelitian ini, yaitu sebagai berikut (dengan aktor terdiri dari attacker, sysadmin, dan ahli forensik) : a. attacker menguasai mesin target, namun lupa menghapus jejak di file syslog. b. sysadmin melakukan pengamanan pada 7 layer osi untuk mencegah terulangnya kembali penyerangan tersebut. c. attacker mencoba menguasai kembali mesin target, agar dapat melakukan anti forensik terhadap file syslog. attacker memanfaatkan shred yang terdapat secara default di mesin target. d. sysadmin meminta bantuan ahli forensik untuk melakukan forensik ke mesin target setelah attacker melakukan anti forensik pada file syslog. di dalam skenario pengujian pada penelitian ini, diuji coba sebagai sysadmin, attacker, dan ahli forensik, menggunakan 2 buah komputer gnu/linux ubuntu 9.10 dan 1 buah notebook gnu/linux ubuntu 9.04 di jaringan lab sinyal sistem (lss) itb. 2.2. kebutuhan hardware dan software untuk mendukung jalannya penelitian ini, dibutuhkan adanya sejumlah perangkat keras komputer (hardware) dan perangkat lunak komputer (software) yang akan diujikan. adapun hardware dan software yang dibutuhkan di dalam penelitian ini, antara lain sebagai berikut : 1. untuk mesin attacker, digunakan sebuah notebook toshiba m300, dengan spesifikasi : intel p8400, vga ati radeon, ram 1024 mb, wifi, dan lan card. software yang digunakan d dalamnya berupa: sistem operasi gnu/linux ubuntu 9.04, shred, terminal, rm, open ssh server dan open ssh client. untuk mesin server dan mesin firewall, lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 107 masing – masing menggunakan sebuah komputer dengan spesifikasi: intel pentium 5, ram 512 mb, vga onboard intel, dan lan card. software yang digunakan pada masing – masing komputer ini berupa sistem operasi gnu/linux ubuntu 9.10, openssh server, open ssh client, terminal, rm, dan shred. 2. untuk media jaringan komputer, digunakan intranet itb di lab sinyal system (lss) itb. mesin attacker menggunakan media wireless, sedangkan mesin server dan mesin firewall menggunakan media wired pada switch 16 port. pengalamatan yang digunakan untuk semua komputer adalah secara statis. rincian pengalamatan (ip address) disampaikan pada point 4,5, dan 6. 3. untuk pengalamatan pada mesin attacker, digunakan ipv4 167.205.16.119, bcast 167.205.16.255, subnet mask 255.255.255.0, dan gateway 167.205.67.65. untuk pengalamatan pada mesin server (target), digunakan ipv4 167.205.67.78, bcast 167.205.67.127, subnet mask 255.255.255.192, dan gateway 167.205.67.65. untuk pengalamatan pada mesin firewall, digunakan ipv4 167.205.67.107, bcast 167.205.67.127, subnet mask 255.255.255.192, dan gateway 167.205.67.65. 4. semua komputer menggunakan perangkat mouse, keyboard, dan lcd monitor standar. 5. proses dokumentasi di dalam penelitian ini, menggunakan aplikasi open source berupa open office w riter 3.0 dan lyx gui latex 1.6.2. sedangkan untuk desain bagan sistem, mengggunakan aplikasi open source berupa dia diagram 0.96.1. 3.1. kajian pustaka 3.2. struktur file system di gnu/linux filesystem adalah metode dan struktur data yang digunakan oleh sistem operasi untuk menjaga track suatu file pada disk atau partisi dan merupakan cara untuk mengorganisasikan file pada disk[ 11]. gnu/linux memiliki banyak jenis filesystem, namun yang terkenal adalah ext (terutamanya ext4 [12]) dan reiserfs. file sistem di gnu/linux ada yang bersifat journaling (ext4, ext3, reiserfs) maupun tidak. sebagaimana filesystem lainnya di os berbasis unix lainnya, gnu/linux memiliki struktur direktori hirarki tunggal yang diawali dengan root (dilambangkan dengan /). di dalam root terdapat sub direktori dengan fungsi masing masing. untuk mengetahui semua sub direktori pada sistem operasi gnu/linux ubuntu 9.04, digunakan perintah berikut ini : root@my-machine:/# ls -la total 108 drwxr-xr-x 2 root root 4096 2010-08-02 08:33 bin drwxr-xr-x 3 root root 4096 2010-08-02 08:34 boot drwxr-xr-x 17 root root 4320 2011-04-06 17:10 dev drwxr-xrx 168 root root 12288 2011-04-06 17:08 etc drwxr-xr-x 5 root root 4096 2010-08-02 17:19 home lrwxrwxrwx 1 root root 33 2010-05-30 01:33 initrd.img -> boot/initrd.img-2.6.28-11-generic drwxr-xr-x 21 root root 4096 2010-11-13 12:11 lib drwx-----2 root root 16384 2010-05-30 01:19 lost+found drwxr-xr-x 3 root root 4096 2011-04-06 17:08 media drwxrxr-x 2 root root 4096 2009-04-13 16:33 mnt drwxr-xr-x 4 root root 4096 2010-07-21 12:13 opt dr-xr-xr-x 172 root root 0 2011-04-06 11:01 proc drwx----22 root root 4096 2011-04-02 15:18 root drwxr-xr-x 2 root root 4096 2010-08-02 08:33 sbin drwxr-xr-x 3 root root 4096 2010-05-30 22:01 srv drwxrwxrwt 18 root root 4096 2011-04-06 17:47 tmp drwxr-xr-x 14 root root 4096 2010-0530 22:58 usr drwxr-xr-x 16 root root 4096 2010-07-14 13:11 var sub direktori yang penting dalam root yaitu /bin, /boot, /dev, /etc, /home, /initrd, /lib, /lost+found, lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 108 /media, /mnt, /opt, /proc, /root, /sbin, /usr, /var, /srv, dan /tmp. penulis hanya membahas 2 saja yaitu /home dan /var, sesuai dengan cakupan paper ini. /home adalah rumah untuk setiap user. gnu/linux dan os berbasis unix lainnya adalah sistem operasi multi user environment, sehingga setiap user memiliki /home masing masing dengan semua privillege (rea d, write, delete, dan sebagainya). misalkan user putu-shinoda dengan lokasi /home/putu-shinoda. /var berisi variabel data berupa system logging files, mail, printer spool directories, serta transient dan temporary file. untuk mengetahuii isi dari sub direktori /var, digunakan perintah berikut : root@my-machine:/home/putu-shinoda# cd /var root@mymachine:/var# ls -la total 56 drwxr-xr-x 18 root root 4096 2011-04-06 11:08 log drwxrwsr-x 2 root mail 4096 2009-04-20 20:59 mail drwxr-xr-x 2 root root 4096 2009-04-20 20:59 opt drwxr-xrx 21 root root 800 2011-04-06 18:10 run drwxrwxrwt 4 root root 4096 2011-04-05 19:50 tmp drwxrwxrwx 19 root root 4096 2011-02-23 11:56 www salah satu bagian yang terpenting adalah /var/log/syslog, yang merupakan tempat sistem mengirimkan log. untuk mengecek log, dapat dilakukan secara real time dengan menggunakan perintah tail -f /var/log/syslog. pada paper ini, anti forensik dilakukan di file syslog. pada linux dan os basis unix lainnya, setiap file dan direktori memiliki info index node (inode), termasuk juga status dari file atau direktori tersebut. hal ini sangat penting pada saat forensik, untuk mengetahui keadaan suatu file. termasuk juga dalam hal ini proses recovery, jika yang terhapus adalah nomor inode itu (bukan isi file maupun file secara keseluruhan). inode merupakan alamat dari sebuah blok disk. informasi dari suatu inode dapat dilihat dengan mengetikkan perintah ls dan stat. perintah ls akan menampilkan alamat pertama suatu file. suatu file memiliki format dan struktur berupa nama, konten, dan informasi administratif (permission, waktu modifikasi). informasi administratif ini disimpan di inode beserta data lainnya. terdapat tiga kali penyimpanan di inode, yaitu saat konten terakhir kali dimodifikasi (written), terakhir kali digunakan (read, executed), dan perubahan pada inode itu sendiri (saat mengeset permission). nomor inode dan keterangan yang lebih lengkap dapat dilihat dengan mengetikkan perintah stat nama_file. untuk lebih memahami tentang inode, maka perlu dilakukan sebuah pengujian sederhana (sebelum pengujian utama di dalam paper ini). berikut merupakan langkah pengujian yang dilakukan pada sistem operasi gnu/linux ubuntu 9.04. pertama – tama, dibuat sebuah file teks bernama manual.txt dengan menggunakan perintah berikut : putu-shinoda@my-machine:~$ touch manual.txt selanjutnya, dilakukan proses pengecekan keberadaan file manual.txt yang telah dibuat tersebut, dengan menggunakan perintah berikut : putu-shinoda@my-machine:~$ ls -l manual.txt -rw-r--r-1 putu-shinoda putu-shinoda 0 2011-04-16 00:20 manual.txt langkah selanjutnya adalah melihat inode dari file manual.txt yang telah dibuat, dengan menggunakan perintah berikut : putu-shinoda@my-machine:~$ ls -i manual.txt 3691951 manual.txt selanjutnya, dilakukan proses penggalian keseluruhan informasi dari file tersebut, dengan menggunakan perintah berikut ini : putu-shinoda@my-machine:~$ stat manual.txt file: `manual.txt' lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 109 size: 0 blocks: 0 io block: 4096 file kosong biasa device: 801h/2049d inode: 3691951 links: 1 access: (0644/-rw-r--r--) uid: ( 1000/putu-shinoda) gid: ( 1000/putu-shinoda) access: 2011-04-16 00:20:31.000000000 +0700 modify: 2011-04-16 00:20:31.000000000 +0700 change: 2011-04-16 00:20:31.000000000 +0700 setelah pengujian dilakukan terhadap suatu berkas file baru, kemudian dicoba untuk dilakukan pengujian serupa pada direktori dan sub direktori. untuk itu dibuatlah sebuah direktori baru bernama berkas, untuk kemudian digali informasi inode dan informasi keseluruhan dari folder tersebut, dengan menggunakan perintah berikut : putu-shinoda@my-machine:~$ mkdir kotak putu-shinoda@mymachine:~$ ls -di kotak/ 9947429 kotak/ putu-shinoda@my-machine:~$ stat kotak/ file: `kotak/' size: 4096 blocks: 8 io block: 4096 direktori device: 801h/2049d inode: 9947429 links: 2 access: (0755/drwxr-xr-x) uid: ( 1000/putu-shinoda) gid: ( 1000/putu-shinoda) access: 2011-04-16 00:22:26.000000000 +0700 modify: 2011-04-16 00:22:16.000000000 +0700 change: 2011-04-16 00:22:16.000000000 +0700 dari kedua buah pengujian yang telah dilakukan di atas (untuk berkas file dan folder), dapat diperoleh informasi mengenai nilai inode masing – masing. file manual.txt dan folder bernama kotak, masing – masing memiliki nilai inode 3691951 dan 9947429. 3.3. komputer forensik menurut cert di dalam dokumentasinya [13], disebutkan bahwa komputer forensik adalah ilmu yang menggabungkan hukum dan computer science untuk mengumpulkan dan menganalisa data dari sistem komputer, jaringan, wireless communications, dan media penyimpanan, untuk dijadikan barang bukti di pengadilan untuk kasus cyber crime. integritas dan stabilitas infrastruktur jaringan dapat tetap terjaga dengan adanya komputer forensik. dengan pengetahuan mengenai hukum dan teknis komputer forensik, capture informasi penting dapat dengan mudah dilakukan di jaringan saat compromize terjadi. hal ini akan memudahkan menuntut pelaku cyber crime yang tertangkap secara hukum. keuangan perusahaan juga dapat dihemat dari anggaran untuk menyewa jasa computer security jika setiap staf perusahaan paham dan tanggap mengenai komputer forensik. 3.4. anti komputer forensik berlawanan dengan komputer forensik, anti komputer forensik adalah ilmu yang memadukan berbagai teknik untuk menyulitkan proses komputer forensik. awal mulanya ilmu ini dibentuk sebagai bagian dari proses riset dan pembelajaran komputer forensik yang sedang dikembangkan saat itu. sayangnya ilmu ini justru disalah gunakan oleh oknum yang tidak bertanggung jawab untuk menghilangkan jejak dalam kasus cyber crime. dalam dunia komputer, bukti digital adalah berkas berupa kumpulan data elektronik. seorang attacker berusaha menyulitkan pekerjaan ahli forensik dalam mengidentifikasi, mengumpulkan, memeriksa, atau melakukan validasi terhadap bukti digital dengan cara menghancurkan, menyembunyikan, memanipulasi, atau mencegah ditemukannya bukti adanya suatu cyber crime. hal ini dilakukan oleh attacker untuk menghapus jejaknya agar terhindar dari tuntutan hukum. ada banyak tool yang bisa digunakan untuk melakukan anti forensik. salah satunya adalah shred, yang ada secara default di setiap distribusi gnu/linux. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 110 4. hasil dan pembahasan 4.1. penguasaan kembali mesin target sesuai skenario, asumsi, dan batasan masalah yang telah dikemukakan, terdapat proses bertahan dan menyerang yang dilakukan oleh pemilik sistem (sysadmin) dan attacker. teknikal mengenai prinsip menyerang dan bertahan ini, telah diteliti sebelumnya oleh pseudoanonymous [14], jianxin [15], kapoor [16], dan ganggan [17]. sysadmin menerapkan pola pengamanan pada 7 osi layer, untuk melindungi mesin dan jaringannya dari serangan attacker. yaitu sebagai berikut : a. pada physical layer, pengamanan secara fisik pada mesin dan hardware pendukungnya sesuai iso 27001/2 mengenai keamanan fisik (physical security). b. pada data link layer, pengamanan terhadap intranet menggunakan ips/nips. c. pada network layer, dilakukan pemasangan firewall, memperbolehkan akses dari ip address dan mac address tertentu saja. d. pada transport layer, menggunakan ids (instrusion detection system) dan ips/nips. e. pada session layer, menggunakan vpn dial up dan ips/ni f. pada presentation layer, menggunakan ssl dan ips/nips. g. pada application layer, menggunakan deny host pada akses ssh (preventing ssh dictionary attack) dan ips/nips. selain pengamanan pada ketujuh layer osi tersebut, dilakukan juga patch dan update terhadap sistem. untuk topologi jaringannya, sysadmin meletakkan sebuah mesin firewall di depan mesin server, sehingga mesin server hanya bisa terhubung keluar melalui mesin firewall saja. attacker melakukan penetration testing untuk pemetaan akses setiap layer, termasuk menguasai mesin firewall agar bisa mengakses mesin server. beberapa cara yang dilakukannya unuk setiap layer, antara lain adalah: a. pada physical layer: social engineering untuk memperoleh akses fisik ke sistem untuk kendali sistem. b. pada data link layer: arp cache poisoning mitm, content adressable memory table flooding mitm, vlan hoping attack double tagging, vlan trunking protocol attack, rapid spanning tree protocol attack. c. pada network layer: ip spoofing attack, ip fragmentation aattack, icmp smurfing denial of service, bgp internet scale mitm, bgp network layer reachability information injection route poisoning, label distribution protocol injection overwrite mpls label, gre traffic tunneling mitm, ipsec vulnerability attack. d. pada transport layer: syn flooding, ip spoofing, dos/ddos, ack flooding, udp flooding, syn/ack scanning service, sctp scanning enumerated ss7/sigtran. e. pada session layer: l2tp attack, dos attack , replay attack, netbios user enumeration. f. pada presentation layer: ssl mitm attack. g. pada application layer: kaminsky attack dns poisoning, http slowris dos attack, dns amplification attack, snmpv3 hmac authentication bypass, ssh ncrack, snmp guessing brute force attack. setelah memperoleh kembali akses root di mesin firewall dan mesin server, attacker segera melakukan anti forensik pada file syslog guna menghapus jejak sekaligus menyulitkan kerja ahli forensik. pertama – tama, attacker melakukan remote ssh ke mesin firewall dengan menggunakan perintah berikut ini : root@my-machine:/home/putu-shinoda# ssh lsslantai3machine2@167.205.67.107 lsslantai3-machine2@167.205.67.107's password: linux lsslantai3-machine2 2.6.31-14-generic #48-ubuntu smp fri oct 16 14:04:26 utc 2009 i686 lsslantai3-machine2@lsslantai3-machine2:~$ selanjutnya, dari mesin firewall, attacker melanjutkan proses koneksi ssh ke mesin target (server). untuk itu, attacker menggunakan perintah berikut ini : mailto:machine2@167.205.67.107 mailto:lsslantai3-machine2@lsslantai3-machine2:~$ lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 111 lsslantai3-machine2@lsslantai3-machine2:~$ ssh lsslantai3machine1@167.205.67.78 the authenticity of host '167.205.67.78 (167.205.67.78)' can't be established. rsa key fingerprint is f8:f7:64:b8:9c:b8:bb:cb:38:c2:90:36:ae:a7:86:72. are you sure you want to continue connecting (yes/no)? yes warning: permanently added '167.205.67.78' (rsa) to the list of known hosts. lsslantai3-machine1@167.205.67.78's password: linux lsslantai3-machine1 2.6.31-14-generic #48-ubuntu smp fri oct 16 14:04:26 utc 2009 i686 lsslantai3-machine1@lsslantai3-machine1:~$ setelah attacker masuk ke mesin target, selanjutnya attacker mencoba mengecek file syslog yang menjadi target untuk anti forensik. attacker menggunakan perintah berikut untuk melakukan pengecekan : lsslantai3-machine1@lsslantai3-machine1:~$ tail -f /var/log/syslog apr 27 12:42:40 lsslantai3-machine1 kernel: [13.210155] cpu1 attaching null sched-domain. apr 27 12:42:40 lsslantai3-machine1 kernel: [13.224075] cpu0 attaching sched-domain: apr 27 12:42:40 lsslantai3-machine1 kernel: [13.224080] domain 0: span 0-1 level mc apr 27 12:42:40 lsslantai3-machine1 kernel: [13.224084] groups:01 apr 27 12:42:40 lsslantai3-machine1 kernel: [13.224090] cpu1 attaching sched-domain: apr 27 12:42:40 lsslantai3-machine1 kernel: [13.224093] domain 0: span 0-1 level mc apr 27 12:42:40 lsslantai3-machine1 kernel: [13.224095] groups:10 apr 27 12:42:43 lsslantai3-machine1 kernel: [15.688006] eth0: no ipv6 routers present lsslantai3-machine1@lsslantai3-machine1:~$ setelah perintah dijalankan, komputer target akan menampilkan informasi. attacker kemudian mencari tahu nilai inode dari file syslog. untuk itu, attacker menggunakan perintah berikut : lsslantai3-machine1@lsslantai3-machine1:~$ stat /var/log/syslog file: `/var/log/syslog' size: 252306 blocks: 496 io block: 4096 regular file device: 805h/2053d inode: 125 links: 1 access: (0640/-rw-r-----) uid: (101/syslog) gid: (4/ adm) access: 2011-04-27 13:12:24.127224088 +0700 modify: 2011-04-27 13:17:01.226597858 +0700 change: 2011-04-27 13:17:01.226597858 +0700 lsslantai3-machine1@lsslantai3-machine1:~$ mailto:lsslantai3-machine2@lsslantai3-machine2:~$ mailto:machine1@167.205.67.78 mailto:lsslantai3-machine1@lsslantai3-machine1:~$ mailto:lsslantai3-machine1@lsslantai3-machine1:~$ mailto:lsslantai3-machine1@lsslantai3-machine1:~$ mailto:lsslantai3-machine1@lsslantai3-machine1:~$ mailto:lsslantai3-machine1@lsslantai3-machine1:~$ lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 112 informasi yang dihasilkan oleh perintah di atas, adalah nilai inode file syslog, yaitu125. berdasarkan kepada informasi inode tersebut, attacker kemudian menjadi root di mesin server, untuk kemudian melakukan anti forensik menggunakan shred ke file syslog, memanfaatkan perintah berikut: lsslantai3-machine1@lsslantai3-machine1:~$ sudo su [sudo] password for lsslantai3-machine1: root@lsslantai3-machine1:/home/lsslantai3-machine1# shred -randomsource=/dev/urandom -u /var/log/syslog root@lsslantai3-machine1:/home/lsslantai3-machine1# attacker berusaha memastikan dan mengecek, apakah file syslog benar – benar telah terhapus. hal ini bertujuan untuk menyulitkan ahli forensik saat dilakukan proses forensik. untuk itu, attacker menggunakan perintah berikut: root@lsslantai3-machine1:/home/lsslantai3-machine1# ls -la /var/log/syslog ls: cannot access /var/log/syslog: no such file or directory root@lsslantai3-machine1:/home/lsslantai3-machine1# stat syslog stat: cannot stat `syslog': no such file or directory root@lsslantai3-machine1:/home/lsslantai3machine1# dari keluaran perintah di atas, terlihat bahwa file syslog sudah terhapus dengan aman. 4.2. komputer forensik di komputer target oleh attacker setelah proses anti forensik dilakukan, attacker mencoba mengembalikan (recovery) file syslog menggunakan lsof, tool recovery di gnu/linux. hal ini dilakukan untuk menguji apakah anti forensik yang dilakukan telah berjalan dengan baik atau tidak. berbekal info nilai inode filesyslog di mesin server yaitu 125, proses pemetaan path pun dilakukan oleh attacker, dengan menggunakan perintah berikut : root@lsslantai3-machine1:/home/lsslantai3-machine1# lsof | grep 125 rsyslogd 489 syslog 5w reg 8,5 0 125 /var/log/0 (deleted) root@lsslantai3machine1:/home/lsslantai3-machine1# dari perintah di atas, diperoleh info nilai inode 125, pid (process id) 489, dan file descriptor 5 (dari 5w). informasi ini diperlukan pada proses recovery file syslog. kemudian attacker mencoba melakukan recovery dengan mengkopi kembali syslog dari lokasi pseudo-filesystem. root@lsslantai3-machine1:/home/lsslantai3-machine1# cp /proc/489/fd/5 syslog selanjutnya, attacker melakukan pengecekan, apakah file syslog bisa terbaca setelah proses recovery tersebut, dengan menggunakan perintah berikut : root@lsslantai3-machine1:/home/lsslantai3-machine1# tail -f /var/log/syslog tail: cannot open `/var/log/syslog' for reading: no such file or directory tail: no files remaining root@lsslantai3-machine1:/home/lsslantai3-machine1# tail -f syslog root@lsslantai3-machine1:/home/lsslantai3-machine1# file syslog syslog: empty dari perintah di atas, terlihat informasi di mana file tidak dapat dibaca. selanjutnya, attacker melakukan proses pengecekan penghapusan dengan menggunakan pemetaan path sebagai berikut ini : root@lsslantai3-machine1:/var/log# ls -l /proc/489/fd/5 l-wx----- 1 root root 64 2011-04-27 13:23 /proc/489/fd/5 -> mailto:lsslantai3-machine1@lsslantai3-machine1:~$ mailto:root@lsslantai3-machine1: mailto:root@lsslantai3-machine1: lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 113 /var/log/0 (deleted) berdasarkan kepada perintah yang dijalankan tersebut, diperoleh informasi bahwa info penghapusan file syslog tanggal 27 april 2011 pkl 13.23. selanjutnya dilanjutkan pengecekan status file syslog dari /proc. -machine1:/var/log# file /proc/489 root@lsslantai3/fd/5 /proc/489/fd/5: broken symbolic link to `/var/log/0 (deleted)' attacker kemudian mengecek isi di dalam file syslog, dengan menggunakan perintah berikut : root@lsslantai3-machine1:/var/log# tail -f /var/log/syslog root@lsslantai3-machine1:/var/log# file /var/log/syslog syslog: empty dari perintah di atas, terlihat informasi bahwa file syslog hasil recovery isinya telah kosong. hal ini menandakan bahwa proses anti forensik telah berjalan dengan sukses. attacker kemudian keluar dari mesin remote (mesin server dan mesin firewall). sesuai dengan skenario pengujian, sampai di sini, attacker telah berhasil melakukan proses anti forensik dengan baik. 4.3. komputer forensic di komputer target oleh ahli forensic melanjutkan skenario pengujian, kemudian syadmin yang menyadari mesinnya dikuasai kembali oleh attacker, akhirnya memanggil ahli forensik. ahli forensik mencoba melakukan proses forensik seperti yang dilakukan oleh attacker di atas, namun tidak berhasil, karena file syslog yang ada isinya kosong sehingga tidak dapat dibaca. berikut adalah perintah yang dijalankan oleh ahli forensik, beserta dengan informasi yang ditampilkan (mengenai kegagalan proses forensik) : root@lsslantai3-machine1:/var/log# tail -f /var/log/syslog root@lsslantai3-machine1:/var/log# file /var/log/syslog syslog: empt 5. kesimpulan berdasarkan kepada pemaparan praktek pengujian anti forensik yang telah disampaikan di atas dengan menggunakan shred oleh attacker, dapat dilihat bahwa proses anti forensik berjalan dengan baik. file syslog terhapus dengan aman. meski attacker telah mencoba melakukan recovery file syslog, namun isi di dalamnya kosong atau tidak bisa dibaca. hal ini akan menyulitkan ahli forensik di dalam melakukan proses komputer forensik. dari hasil pengujian dan analisa yang telah dilakukan, dapat disimpulkan bahwa dengan menggunakan shred, bukti forensik dapat dihapus dengan aman dan sulit untuk dikembalikan. bahkan jika dilakukan recovery, isi di dalamnya kosong atau tidak dapat dibaca. hal ini menjadi parameter kesuksesan proses anti forensik. terbukti bahwa shred merupakan salah satu tool anti forensik yang ampuh dan praktis untuk digunakan, karena sudah ada di setiap mesin gnu/linux secara default. pengujian sederhana ini, sekaligus menjadi peringatan bagi sysadmin, untuk menggunakan shred tool dengan bijak, agar tidak disalah gunakan oleh attacker. daftar pustaka [1] b. blunden, “anti forensic : the rootkit connection,” 2009. [2] m. perklin, “anti forensic and anti anti forensic,” 2011. [3] s. garfinkel, “anti-forensics : techniques, detection and countermeasures,” in 2nd international conference on i-warfare and security, 2012. [4] i. sporea, “on the availability of anti-forensic tools for smartphones,” international journal of security (ijs), vol. 6, no. 4, pp. 58-64, 2012. [5] pajek, p., “computer anti forensics methods and their impact on computer forensic investigation,” university of east london, united kingdom, 2009. [6] j. mrshl, “anti forensic seek and destroy,” echo community, 2010. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p04 e-issn 2541-5832 114 [7] c. s. j. peron and m. legary, “digital anti-forensics : emerging trends in data transformation techniques,” seccuris labs, 2011. [8] j. stuttgen, anti forensic resilient memory acquisition. elsevier digital, 2013. [9] c. armstrong, “modelling forensic evidence system using design science,” curtin university of technology bentley, wa, australia., 2010. [10] g. cairns, “systematic literature review of the evidence for effective national immunisation schedule promotional communications,” ecdc stock., 2012. [11] b. nguyen, “linux filesystem hierarchy,” 2011. [12] a. mathur, m. cao, s. bhattacarrya, a. dilger, a. tomas, and l. vivier, “the new ext4 filesystem : current status and future plan,” 2011. [13 ]cert, “computer forensics,” usa, 2011. [14] pseudoanonymous, “network hack philosopy,” kecoak elektronik, 2010. [15] j. y. jianxin, “denial of service : another example,” 2011. [16] s. kapoor, “session hijacking : exploiting tcp, udp, and http sessions,” 2011. [17] s. ganggan, “the review of man in the middle attack.” lontar template lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 155 data security for school service top-up transactions based on aes combination blockchain technology modification abdul fadlil1, imam riadi2, achmad nugrahantoro3 1department of electrical engineering, ahmad dahlan university 2department of information systems, ahmad dahlan university 3department of informatics engineering, ahmad dahlan university jl. prof. dr. soepomo, s.h, janturan, warungboto, umbulharjo, yogyakarta, indonesia 1fadlil@mti.uad.ac.id 2imam.riadi@is.uad.ac.id 3achmad1907048001@webmail.uad.ac.id (corresponding author) abstract the application of blockchain technology has begun to be widely accommodated in industrial and business practitioner environments as a safeguard of transaction security so that now including the education sector, non-business institutions enjoy the use of this technology to support the learning process. information on the protected blockchain can be in the form of transactions, assets, identities, and other information packaged in digital form. information is collected in the form of blocks that are interrelated by using the hash function as cryptographic encryption. this research uses blockchain for online pocket money top-up transactions for students. the use of a centralized blockchain is centralized to reduce server procurement costs, but to increase the security of transaction information, modification of each block series is carried out using the aes cryptographic approach. the results showed that the attack by inserting a cross-site scripting (xss) script if you want to know the value of the top-up transaction amount, you must be able to hack the cryptographic process. this is supported by chain validation testing to determine how many block changes have been changed. keywords: blockchain, cryptography, aes, transaction, education 1. introduction blockchain is a technology that involves third parties in the process of exchanging information. information on the blockchain can be in the form of data entry in transactions form, assets, identities, and other information that is packaged in digital form [1]. the form of blockchain information is easy to find, tends to be transparent and permanent, allowing users to monitor the history of information that occurs [2][3]. blockchain technology is an alternative with a centralized technology architecture to support the disruption era. conceptually, blockchain is a technology with a distributed database that is stored and then shared with authorized users [3][4]. this concept is to replace the role of third parties such as financial institutions or other institutions, but on the literal side, blockchain technology is considered as a collection of interrelated blocks of information by utilizing the hash function as encryption in the field of cryptography [5][6]. cryptography has become a science that has been widely used to maintain information security with mathematical calculation techniques [7][8]. this technique can convert plaintext using keys into random messages or ciphertext. there are several algorithms for data security, one of which is the advanced encryption standard (aes), which is known as the standard crypto algorithm data encryption standard (des) [9][10]. aes is known to be resistant to differential attacks, namely conventional cryptographic cracking. blockchain is not a new technology this is involving old combinations with renewable means. for example, the relationship involving 3 (three) technologies such as the internet, cryptography, and protocols from software, to produce strong security but still be able to interact or transact digitally. the relationship between blockchain technology and cryptography where the cryptography use keys as an authentication tool in terms of ownership of an authorized person. so that maintaining lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 156 the confidentiality and content of the transaction prevents hacking. besides, the cryptographic process is required to maintain the validity of broadcasting the contents of transaction information correctly, reducing failure and the risk of fraud to remain on the blockchain protocol path. the application of blockchain technology has begun to be widely accommodated in industrial and business practitioners' environments as a safeguard of transaction security so that now including the education sector as non-business institutions enjoy the use of this technology to support the learning process. in the school system in indonesia, there are several learning contracts for students that are required to pay for school needs, such as school fees that are billed periodically every month, an obligation to save, and other transactions. financial transactions are charged to students as the support for the sustainability of the school so that it requires the use of the internet in its digital interactions. the importance of recording risky financial transactions with costly data theft needs to present blockchain technology as a solution. not only that, blockchain can reduce the involvement of many parties in online transactions because it allows building your network, thus reducing costs both administratively and operationally. research with blockchain in an educational environment is used to protect many useful assets such as digital document management, such as in nugraha's research [11]. however, the research to be carried out involves financial transactions that occur in the school environment, namely with the online top-up pocket case studies. putra's research combines blockchain with rsa cryptography for data security on the network, the use of the rsa method affects the number of keys, and its implementation cannot be directly applied to several devices [12]. in this research, it is implemented on mobile android, and blockchain technology will be applied with aes, which does not affect the size of the key. in the world of education, blockchain technology is usually in the form of block certificates, book copyrights, and e-portfolios to avoid file forgery [13], as in winarno's research using it for case studies of e-transcript publishing. each application of blockchain technology makes the attacker has to challenge the system for the formation of a longer blockchain, including for etranscript cases. so this study will modify each series of blocks by utilizing the aes cryptographic approach to better maintain the integrity of stored messages, but applied to financial transactions that occur in the school environment. another study conducted by perdana [14] states that if financial technology needs to be protected from cybercrime, users still have easy access to financial transactions by increasing financial literacy. if fintech involves many servers, it requires vendor consolidation and requires a high level of system security. then the proposed research will implement a centralized blockchain and efforts to increase its security with cryptographic techniques for each block of transactions. research by benchoufi [15] has explored the core function of blockchain as applied to clinical trials and the context of approval for trial protocols. the results of this study can help to check the integrity of clinical trials transparently, but if a core metadata set is defined. the proposed research will be directed to use structured metadata, namely transaction data that occurs in the school environment, namely cases of online pocket money top-up transactions that are entered as student savings data. other studies have summarized the use of blockchain technology in several cases, namely for cryptocurrencies, smart contracts, smart cities, and this research proves that blockchain technology has penetrated all areas of life [16]. so the research focuses on the educational environment in schools and implements case studies of financial transactions. blockchain in the research of wright and filippi [17] proves that if this approach makes it easy for users to access an automatic transaction system and an innovative governance model based on transparency, then this research will design its implementation until the assault testing scenario and validation results are planned. blockchain-based platforms provide solutions for distributed data governance and participatory access control in the health sector, which aims to improve information technology in the health sector [18], the health sector which aims to improve information technology in health sector [18], shabani's research is not yet in the implementation stage. so that researchers will implement it in the field of education. another study in the health sector revealed that blockchain is good at structuring data types in a decentralized manner, which facilitates more transparent interactions [15]. however, the use of decentralization will cost money to procure a lot of servers. the research conducted utilizes centralization with a centralized server for financial transactions to be recorded in a transparent, centralized manner and can save costs. the proposed method in the research uses a modified advanced encryption standard (aes) cryptographic combination blockchain technology for the protection of digital pocket money to up lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 157 transactions in a school environment. the workings of aes are in each blockchain resulting in higher security. the use of data in research uses structured data; namely, top-up transactions carried out by students; of course, this makes it easier to centralize a centralized server so that it remains recorded transparently and, of course, saves costs. to find out the resistance of the proposed algorithm modification, the test was carried out using the attack scenario with crosssite scripting (xss) and chain validation. 2. research methods figure 1. aes combined blockchain technology research flowchart the research uses blockchain technology with aes cryptography to be utilized in the school environment, especially in pocket money top-up transactions, as shown in figure 1. architectural analysis of blockchain and cryptography with the aes method, then how the two works are combined in securing transactions. the test scenario will be carried out by injection attack with cross-site scripting ( xss) and test the validity of each block with chain validation. 2.1. literature review the literature review by studying various sources in the form of descriptions of theory and findings obtained from books, similar research journals, scientific works, and other relevant sources. especially the discussion regarding blockchain technology and the performance of the aes cryptographic method. 2.2. data requirements analysis researchers used a case study of top-up pocket money transactions in educational settings, especially schools. pocket money top-up is a digital transaction made by students as savings, which later can be useful for paying school needs such as bills, cash withdrawals, as infaq, zakat, and other transactions. the transactions that will be used and secured for the validity of the transactions are illustrated in table 1 with the following data: table 1. student pocket money transaction data no. id students name transaction amount information transaction date 1. 4323 namira laura income rp. 3.000.000 top up 2020-05-23 13:03:45 2. 4112 dwi damayanti income rp. 250.000 top up 2020-05-30 13:03:45 3. 4321 andri reynaldi spending rp. 300.00 school costs and fees 2020-05-31 04:39:07 4. 4500 titik kirana dewi income rp. 2.800.000 top up 2020-06-03 07:00:04 5. 4901 habibah rani katrina spending rp. 300.000 school fees uniform 2020-06-04 19:42:21 in table 1. the student pocket money transaction data consists of the student's identity number, full name, transactions that occur at that time according to the number of rupiah numbers, information about the transaction, and recording the transaction time. these data are protected, lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 158 especially in the data amount of the rupiah value top-up, the blockchain process is carried out, and the aes cryptographic modification. 2.3. blockchain technology architecture figure 2. blockchain architecture continous sequence of blocks figure 2. becomes an illustration of blockchain architecture with a collection of transactions that occur and their history, such as conventional ledger recording [19][20]. the description is a series of blockchain architectures with one block genesis at the beginning of block formation, then followed by a block header that is strung according to the previous hash. the genesis block is the first block in a series of blocks. figure 3. single block structure in figure 3, it is explained that the contents of the block are the headers and contents of the blocks contained in online transactions on the school system that occur, namely an explanation of the transaction identity in status, message, name. in the entry, the amount is the number of transactions made in rupiah. the nonce is a 4-byte field that starts at 0 and will increase as the hash value is calculated. the index becomes the data described in each block, and the timestamp becomes the universal time in the calculation of seconds. parents block hash a 256-bit hash value that points to the previous block. 2.4. advanced encryption standard (aes) cryptographic performance analysis advanced encryption standard (aes) is one of the modern cryptographic methods as a replacement for the 56-bit block data encryption standard (des) algorithm, which is considered unsafe [21][22]. the selection criteria of this algorithm are based on the characteristics, safety, and cost if used and their implementation. this algorithm is a single key by using the same key [10][23]. figure 4. single key cryptography aes lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 159 the description in figure 4. the encryption key is carried out by the aes process by previously receiving information, then processed with the selected bits. aes has assigned the bit lengths of the known keys aes-128, aes-192, and aes-256. bit selection affects the key length, block size, and the number of rounds [24]. plaintext or messages that will be processed in the cryptography process are xored so that they produce meaningless messages. this study uses a 256-bit cryptographic key, with a key length of 8, block size 4, and the number of turns 14. figure 5. 256 bit aes algorithm [25] figure 5 . is an outline of the aes algorithm that operates at 256 bits with the following information: a. add round key is this stage to be an initial round, namely initializing the initial state by xor the plaintext process with a ciphertext key. b. round of nr-1 times, with 256 bits, then as many as nr-14. where in the process of each round includes the subbytes process by substituting bytes with s-boxes, shiftrows shifting on each row array, mix columns method randomizing data in columns, and addroundkey xor process between states that occur with its round key. c. final round is the final round process using the subbytes, shiftrows, addroundkey methods. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 160 2.5. combination of blockchain and advanced encryption standard (aes) cryptography the modification in this study utilizes the blockchain chain combined with the aes cryptography method, shown in figure 6. figure 6. aes blockchain modification explanation in figure 6. the blockchain in each block contains information from each student who makes top-up transactions and other transactions. of course, the transaction is changed in the form of a hash, but in this study using the parameter amount ( top-up value in rupiah) to perform the cryptographic process with aes. applies to each chain in the transaction because the amount is prone to attacks to avoid a difference in the value of both the initial transaction and the total. 2.6. testing 2.6.1. cross-site scripting (xss) cross-site scripting is also known as an injection attack from cross scripting, where the attack inserts the attack command code script on a website [26]. the attacker will change the data by hijacking the session, attacking cookies to cause data consistency [27]. so that this research will utilize the xss scenario in attacking transactions, then perform a validation test on the blockchain. 2.6.2. chain validation this test validates the chain on each blockchain to detect changes in each block by verifying the hash associated with the previous and next block [28][29]. valid chains will produce true output that is true without any changes, and invalid chains will give false output indicating an attack from unauthorized parties. in checking the validation, the researcher utilizes a script from proof of work, which is a computational method commonly used for blockchain technology [30]. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 161 3. result and discussion 3.1. school transaction with top up a. use case diagram figure 7. use case school transaction diagram use case diagram illustrates the relationship between the parties of students, both parents or guardians and the school and the school transaction system according to figure 7. the interaction made by the students is a digital pocket money top-up transaction that can be used to pay school bills. then the payment will be followed up by the school. this transaction requires protection. b. database design figure 8. database design top up with blockchain-aes in the blockchain table is a combination blockchain approach process with aes that is related to the top-up table, where one top-up transaction made by the student is related to each block so that the process that occurs when witness transactions are always recorded and processed by blockchain-aes. the students can conduct transactions top up many times. payment methods can only be done with a virtual account (va) because it is easier, faster, and more practical. va is given to students in a unique form and nominal according to the desired top-up. each top-up transaction has a record indicating the addition and reduction of the balance in the allowance where the information will be monitored and followed up by the school. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 162 c. user interface design figure 9. payment simulator top-up transaction each student has a unique code in the form of va, which is used in transactions according to figure 9. if you are going to make a transaction, it will appear in figure 10. figure 10. interface simulator top up by students the display on the student side is like figure 10. the student who will do the top-up is provided with an open payment field and adjusts the nominal top-up that will be done. 3.2. transaction top-up system design figure 11. alur kerja transaksi top it is shown in figure 11. in the design of the procedure for a top-up of pocket money transactions, the students do top up with the va listed, then the system checks if the va is valid, then it will continue to be able to enter the top-up nominal. in the transaction process that occurs, the blockchain-aes approach process is carried out. 3.3. implementation of modified blockchain technology with cryptography advanced encryption standard (aes) { "status": "00", "message": "success", lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 163 "name": "dwi damayanti", "amount_total": "rp. 650,000", "result": { "chain": [ { "nonce": 0, "index": 0, "timestamp": 1587747600, "data": "genesis block", "previoushash": null, "hash": "558fdb114cbcef913ed07f45c2f644ea5cabc953eef5884a910195b30742c300" }, { "nonce": 29, "index": 1, "timestamp": "1602598649", "data": "seiibllqnxokldsu7mmgvw==", "previoushash": "558fdb114cbcef913ed07f45c2f644ea5cabc953eef5884a910195b30742c300", "hash": "0c612d1f67db6234bb26c6cf1c418e17658b027c4cd994dd914f5f4b542c27eb" }, . . . ], "difficulty": 1 } } figure 12. api response top up figure 12. is the result of response api when successful conduct transactions top up money pocket. status 00 in the source code in fig. 8 indicates the success of the transaction, on behalf of "dwi damayanti," top up with a total transaction balance of 650,000 idr. in the first chain, it is initiated with the genesis block, then the value in the "data" chain represents the amount or value of the top-up transaction that has undergone the aes cryptography process then continues to the next chain, which is connected to the previous hash before which is chained with the next hash. the implementation of this proposed method uses the php programming language codeigniter, which generates an api response. 3.4. testing scenario a. cross-site scripting (xss) attack scenario testing an attack on the system is using xss is to deliberately insert a script that can change the data of transactions specific to the system when it is executed. the scenario for which the attack is performed on the 'amount' data. in this scenario, the attacker has succeeded in changing the security of his transaction data without knowing the actual amount because it is encrypted. table 2. transaction data conducted by students (top-up) transaction id id stu dents name transaction amount info transaction date 1. 4112 dwi damayanti income rp. 50.000 top up 2020-10-13 21:17:29 2. 4112 dwi damayanti income rp. 50.000 top up 2020-10-13 21:22:19 3. 4112 dwi damayanti income rp. 250.000 top up 2020-10-13 21:32:35 4. 4112 dwi damayanti income rp. 150.000 top up 2020-10-13 21:49:43 5. 4112 dwi damayanti income rp. 50.000 top up 2020-10-13 21:54:26 6. 4112 dwi damayanti income rp. 100.000 top up 2020-10-13 22:05:26 table 2 shown the transaction data conducted by students on behalf of dwi damayanti, where the top-up of the transaction has been recorded in the database server according to the lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 164 transaction date and according to the top-up value. the scenario (see table 3) was performed by the attacker, and the data was changed in the third transaction. table 3. modified attacker data scenarios test parameters status message id students name transac tion amount total transac tion id amount 3 300.000 00 success 4112 dwi damayanti income 700.000 4 5.000.000 00 success 4112 dwi damayanti income 5.550.000 5 300.000 00 success 4112 dwi damayanti income 5.800.000 6 100.000 00 success 4112 dwi damayanti income 5.800.000 table 3. is the attack scenario on transaction id 3, where the attacker changes the transaction to 300,000 idr. the total amount was obtained to be 700,000 idr because previously in the user database, under the name "dwi damayanti," 650,000 idr were stored according to the actual data. the calculation is that on transaction id 3, the actual data value ( according to table 2) is 250,000 idr, then the attacker (see table 3) fills in the amount of 300,000 idr, then the difference is 50,000 idr. the difference is added to the total amount of the actual data. then the attacker data will add the total amount to 700,000 idr so that the amount of data affects the next chain. b. chain validation this test needs to be done to determine the successful performance of blockchain technology modification with cryptography. scenario testing on the system is using a chain validation that will correct the blocks one by one to match the previous hash of the block before. chain valid will produce output true, and the chain is not valid will provide output false. table 4. chain validation test results index timestamp data previous hash hash valid transac tion id transac tion code infor mation amount 0 1587747600 null null null genesis block null 558fdb1144. .. true 1 1602598649 1 1 top up seiibll... 558fdb1144. .. oc612d1f6... true 2 1602598939 2 1 top up seiibll... oc612d1f6... 007ce0918.. . true 3 1602599555 3 1 top up ax/+0kf... 007ce0918.. . 0355789ac.. . false 4 1602600583 4 1 top up 6/9clu... 0355789ac.. . 0b59b0b2d.. . false 5 1602601462 5 1 top up ax/+0kf... 0b59b0b2d.. . 030d2e016.. . false 6 1602601526 6 1 top up htx63b... 030d2e016.. . 0047e66bd.. . false the results of the p chain validation test are shown in table 4. the performance of this cryptographic modification of blockchain technology is working properly on this system. this evidenced in the success of the chain validation to detect whether there is the immutability data or not that shown on the valid column valuable true or false. 4. conclusion the performance of blockchain technology with a combination of aes cryptography can be applied to online transactions to top up pocket money in schools. the use of a centralized blockchain can save costs in using servers, but double security can be provided, namely by involving aes cryptography. the test scenario involves the insertion of the script with cross-site scripting (xss) attacks, and an attacker must first perform a cryptographic process to find out the lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 165 actual top-up value of the transaction. in chain validation testing, it can be seen that chain has been attacked and the changes can be identified. references [1] j. dilley, a. poelstra, j. wilkins, m. piekarska, b. gorlick, and m. friedenbach, "strong federations: an interoperable blockchain solution to centralized third party risks," corr, vol. abs/1612.0, pp. 1–14, 2016, [online]. available: http://arxiv.org/abs/1612.05491. [2] d. yaga, p. mell, n. roby, and k. scarfone, "blockchain technology overview," corr, vol. abs/1906.1, pp. 1–57, 2019, [online]. available: http://arxiv.org/abs/1906.11078. [3] r. m. parizi, a. dehghantanha, k.-k. r. choo, and a. singh, "empirical vulnerability analysis of automated smart contracts security testing on blockchains," corr, vol. abs/1809.0, pp. 103–113, 2018, [online]. available: http://arxiv.org/abs/1809.02702. [4] a. dorri, s. s. kanhere, and r. jurdak, "blockchain in internet of things: challenges and solutions," corr, vol. abs/1608.0, pp. 1–13, 2016, [online]. available: http://arxiv.org/abs/1608.05187. [5] n. m. kumar and p. k. mallick, "blockchain technology for security issues and challenges in iot," procedia computer science, vol. 132, pp. 1815–1823, 2018, doi: 10.1016/j.procs.2018.05.140. [6] r. rivera, j. g. robledo, v. m. larios, and j. m. avalos, "how digital identity on blockchain can contribute in a smart city environment," 2017 international smart cities conference isc2 2017, vol. 00, no. c, pp. 1–4, 2017, doi: 10.1109/isc2.2017.8090839. [7] t. g. n. r. alamelu and r. soundararajan, "cryptography using neural network," proc. indicon 2005 an international conference of the ieee india council, vol. 2005, no. i, pp. 258–261, 2005, doi: 10.1109/indcon.2005.1590168. [8] s. d. putra, m. yudhiprawira, s. sutikno, y. kurniawan, and a. s. ahmad, "power analysis attack against encryption devices: a comprehensive analysis of aes, des, and bc3," telkomnika (telecommunication, computing, electronics and control,, vol. 17, no. 3, p. 1282, 2019, doi: 10.12928/telkomnika.v17i3.9384. [9] s. man and s. shrestha, "c ++ implementation of neural cryptography for public key exchange and secure message encryption with rijndael cipher," academia.edu, pp. 1–8, 2013, [online]. available: http://www.academia.edu/4055547/neurocrypto_c_implementation_of_neural_cryptogra phy_for_public_key_exchange_and_secure_message_encryption_with_rijndael_cipher. [10] r. m. awangga, "peuyeum: a geospatial {url} encrypted web framework using advance encryption standard-cipher block chaining mode," {iop} conf. ser. earth environ. sci., vol. 145, p. 12055, apr. 2018, doi: 10.1088/1755-1315/145/1/012055. [11] a. c. nugraha, “penerapan teknologi blockchain dalam lingkungan pendidikan,” jurnal produktif, vol. 4, no. 1, pp. 15–20, 2020. [12] h. f. putra and o. penangsang, “penerapan blockchain dan kriptografi untuk keamanan data pada jaringan smart grid,” j. tek. its, vol. 8, no. 1, pp. 11–16, 2019. [13] a. winarno, “desain e-transkip dengan teknologi blockchain,” seminar nasional pakar ke 2, pp. 1–6, 2019. [14] m. d. k. perdani, widyawan, and p. i. santosa, “blockchain untuk keamanan transaksi elektronik perusahaan financial technology ( studi kasus pada pt xyz ),” seminar nasional teknologi informasi dan multimedia, pp. 7–12, 2018. [15] m. benchoufi and p. ravaud, "blockchain technology for improving clinical research quality," trials, vol. 18, no. 1, pp. 1–5, 2017, doi: 10.1186/s13063-017-2035-z. [16] d. efanov and p. roschin, "the all-pervasiveness of the blockchain technology," procedia computer science, vol. 123, pp. 116–121, 2018, doi: 10.1016/j.procs.2018.01.019. [17] a. wright and p. de filippi, "decentralized blockchain technology and the rise of lex cryptographia," british poultry science, vol. 14, no. 2, pp. 149–152, 2015, doi: 10.1080/00071667308416007. [18] m. shabani, "blockchain-based platforms for genomic data sharing: a decentralized approach in response to the governance problems?," journal of the american medical informatics association., vol. 26, no. 1, pp. 76–80, 2019, doi: 10.1093/jamia/ocy149. [19] d. l. k. chuen, handbook of digital currency: bitcoin, innovation, financial instruments, and big data. academic press, 2015. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p04 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 166 [20] r. henry, a. herzberg, and a. kate, "blockchain access privacy: challenges and directions," ieee secur. priv., vol. 16, no. 4, pp. 38–45, 2018, doi: 10.1109/msp.2018.3111245. [21] p. mahajan and a. sachdeva, "a study of encrytion algorithms aes, des and rsa for security," exp. mech., vol. 13, no. 15, p. 9, 2013, doi: 10.1007/bf02322384. [22] d. a. meko, “jurnal teknologi terpadu perbandingan algoritma des , aes , idea dan blowfish dalam enkripsi dan dekripsi data donzilio antonio meko program studi teknik informatika , stimik kupang jurnal teknologi terpadu,” jurnal teknologi terpadu, vol. 4, no. 1, pp. 8–15, 2018. [23] g. w. bhaudhayana and i. m. widiartha, “implementasi algoritma kriptografi aes 256 dan metode steganografi lsb pada gambar bitmap,” jurnal iimu komputer. univ. udayana, vol. 8, no. 2, pp. 15–25, 2015. [24] r. k. meenakshi and a. arivazhagan, "rtl modelling for the cipher block chaining mode (cbc) for data security," indonesian journal of electrical engineering and computer science, vol. 8, no. 3, pp. 709–711, 2017, doi: 10.11591/ijeecs.v8.i3.pp709-711. [25] a. nugrahantoro et al., “optimasi keamanan informasi menggunakan algoritma advanced encryption standard ( aes ) mode chiper block chaining ( cbc ),” vol. xii, no. 1, pp. 12– 21, 2020. [26] r. firmansyah and w. s. prasetya, “pencegahan serangan cross site scripting dengan teknik metacharacter pada sistem e-grocery,” jurnal enter, vol. 1, no. agustus, pp. 294– 306, 2018. [27] g. e. rodríguez, j. g. torres, p. flores, and d. e. benavides, “cross-site scripting (xss) attacks and mitigation: a survey,” computer networks, vol. 166, p. 106960, 2020, doi: https://doi.org/10.1016/j.comnet.2019.106960. [28] d. deuber, b. magri, and s. a. k. thyagarajan, "redactable blockchain in the permissionless setting," proc. ieee symp. secur. priv., vol. 2019-may, pp. 124–138, 2019, doi: 10.1109/sp.2019.00039. [29] n. alzahrani and n. bulusu, "block-supply chain: a new anti-counterfeiting supply chain using nfc and blockchain," in proceedings of the 1st workshop on cryptocurrencies and blockchains for distributed systems, 2018, pp. 30–35, doi: 10.1145/3211933.3211939. [30] g. kumar, r. saha, m. k. rai, r. thomas, and t. h. kim, "proof-of-work consensus approach in blockchain technology for cloud and fog computing using maximizationfactorization statistics," ieee internet things j., vol. 6, no. 4, pp. 6835–6842, 2019, doi: 10.1109/jiot.2019.2911969. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 11 vacant car parks detection using digital image processing methods milyun ni’ma shoumia1, ridwan rismantob2, arie rachmad syulistyoa3 adepartment of information technology, state polytechnic of malang 1milyun.nima.shoumi@polinema.ac.id 3arie.rachmad.s@polinema.ac.id(corresponding author) bdepartment of advanced science and technology information science program, hiroshima university, japan 2d200977@hiroshima-u.ac.jp, abstract long car queues are often encountered in some public facilities because visitors should be around to find an empty parking space. one way to minimize this case is to use a parking information system that shows the location of the parking lot that is empty or occupied with their amounts. this research presented two digital image processing methods for detecting empty space occupied in the image of the car parking area. there are vehicle detection and edge detection method. vehicle detection is the method used to detect objects in the image by subtracting the parking area image, an empty parking lot, from the image containing the car. in contrast, the edge detection method detects the object's edge. the results from these two methods were then compared using the and function to obtain the condition of an empty or occupied box for each box in the parking lot. threshold values affect the determination of the parking lot. in this research, the data used are images of open car parks in the malang town square (matos) shopping center, mall olympic garden (mog), and data sourced from journals with similar topics [16]. the test results show that the best detection results are obtained in detecting occupied parking spaces in the parking lot in malang town square (matos), with a threshold of 10 and an accuracy of 99.4% with a threshold of 10. keywords: parking lot, vacant car park, image subtraction, edge detection, digital image processing 1. introduction currently, the number of motorized vehicles, two-wheeled or more, shows a significant development, especially in big cities. the development of the number of cars indirectly impacts the need for parking spaces in several public facilities, such as offices, campuses, hospitals, shopping centers, or recreational areas. these public facilities need to expand their parking space to accommodate all visitor vehicles. however, even though a relatively large parking area is provided, long queues are still common, such as in shopping centers or recreational areas during weekends or long school holidays [1], [2]. this long queue in the parking lot occurs because visitors have to look for an empty place in the parking lot. the development of technology, especially computers, provides many conveniences for humans. almost every office, company, industry, household, or school has used a computer as the primary tool for various purposes. one of the uses of computer technology to facilitate human activities is to manage parking lots [3]. the existence of a computerized parking management system can make it easier for visitors to find empty spaces in the parking lot. parking management systems refer to programs that can efficiently use parking resources [4]. several parking lot technologies have been developed to replace the traditional method, which is only a sign the number of full or empty places on a board located at the parking lot entrance. the delivery of parking information that has been developed includes mobile phones, personal data assistants (pdas), variable message display (vms), parking guidance and information system (pgis), which displays the mailto:milyun.nima.shoumi@polinema.ac.id mailto:arie.rachmad.s@polinema.ac.id mailto:d200977@hiroshima-u.ac.jp lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 12 number of empty and filled parking spaces, or through urban traffic management and control (utmc) [5]. there are four car parking guidance system categories based on different technologies. there are based on the number of vehicles, wired sensors, wireless sensors, and image-based [6], [7]. among the four categories, image-based technology is a technology that has many advantages over the other three technologies [8]. with this system (image-based technology), visitors can find out exactly and specify the vacant place's location. in addition, this system does not require high costs for its development because it only requires cctv cameras which have previously been installed in several places for security purposes [9]. in this study, images of the car park were used, which were taken using a digital camera to replace the cctv image. pictures of the car park area are taken periodically at different times: afternoon, evening, and night. several image processing techniques are used to obtain information on empty spaces in car parks. image processing is one form of information processing with input in the form of an image and output, which is also an image or can also be part of the image which aims to improve image quality [10], [11]. the image processing method used to detect empty spaces in the car park is the detection of vehicles or objects in the parking lot, using the threshold value set for pixel detection at a particular value [12]. the second method reduces detection errors due to shadows coming from vehicles. without this second method, the system can incorrectly detect the shadow of a car as a parked vehicle. this method uses median filtering and sobel edge detection techniques. median filtering is a spatial filter used to reduce noise, where the gray values of the points in the sub-image matrix are sorted from the smallest to the largest value and then the median value is determined. while sobel edge detection is a method in image processing that is useful for detecting the edges of an object in a digital image [13], [14]. that two methods are then compared with the and function operation to determine an empty parking space or filled with vehicles. the novelty of this study is that the two datasets used in the testing process are self-collected, not open datasets. in addition, the combination of image processing methods used in this research is through an experimental process to produce good method stages and accuracy. with the parking information system developed with this image-based technology, it is hoped that it can minimize the search time for parking spaces by visitors so that there are no long queues at the entrance to the parking lot [15]. 2. research methods the steps taken in this research are as follows: first, learn the methods used to detect space in the car parks from journals or proceedings. second, analyzing and designing the software to detect empty spaces in car parks by combining the methods used. third, collecting data in the image form of outdoor car parks in malang town square (matos), mall olympic garden (mog), and data sourced from journal authors entitled "vacant parking space detection in static image," nicholas true [16]. fourth, developing software based on the analysis and design that has been done. fifth, software testing to detect empty space in car parks, using the collected field data. sixth, evaluating detection results carried out by the software to determine the accuracy. the research steps can be illustrated in figure 1. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 13 figure 1. the research stage design the system developed in this study is a system that can assist users in searching for empty places in the car park automatically. the user only enters the image data of the car park. then the system will process the input image until an empty car park is found. the input image used in the testing was the car parking area image, which was taken from the 3rd-floor car park at the shopping center malang town square (matos), mall olympic garden (mog), and there is also data sourced from journals with similar topics [16]. the input image is 572 x 2275 for data on matos, 572 x 322 for data with a location on mog, and 572 x 345 for data sourced from a previous journal [16]. the input image data is stored in a bitmap file according to the original size, without any prior cutting or resizing of pixels. the methods used to detect empty spaces in this car park are entirely based on digital image processing. 2.1. software development stages the stages contained in this study can be seen in figure 2. generally, there are five stages to detect empty spaces in parking lots, as follows: 1. the user selects an image of a car park already available on the computer as an input image to be processed by the system. 2. the initialization process is a process to detect the dividing line in each parking lot through the coordinates of each corner stored in a .txt file. the input image in this initialization process is an empty parking lot image. the corner points of each parking lot box are selected from the input image to save the coordinates of the selected parking lot corner points. the initialization process and the coordinates of the selected corner points can be seen in figure 3. figure 3. the initialization process literature study software analysis and design of free space detection in car parks field data collection software implementation and testing evaluate the results of the detection of empty spots in the car park lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 14 3. the vehicle detection process with four subprocesses that is: a. the color distribution in the input image is changed to be more even by using the histogram equalization method. b. image subtraction where the input image is calculated for the difference in pixel values with an empty parking lot image. c. the resulting image subtraction is converted into a grayscale image. d. the grayscale image is converted into a binary image using a predetermined threshold. 4. in edge detection, the input image that has been converted into a grayscale image will be improved in quality with the histogram equalization method to even out the color distribution, the median filtering to reduce noise in the image, and the sobel edge detection method to detect the edges of the image so that detection results are obtained object in the image. an example of edge detection results can be seen in figure 4. figure 4. an example of an edge detection result 5. and function, the detection results in the vehicle detection and edge detection processes will be compared so that the final detection results are obtained. figure 2. flowchart of research method lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 15 2.1.1. histogram equalization a histogram is a diagram that shows the number of points contained in an image for each gray level [17]. the x-axis on the histogram shows the color level, while the y-axis shows the frequency with which the points appear. the histogram of an image can be modified to obtain the image's histogram as desired. one way that can be used to modify an image histogram is histogram equalization. histogram equalization is a process that changes the distribution of the gray degree values in an image so that it becomes uniform [17]. the purpose of histogram equalization is to obtain an even histogram distribution so that each degree of gray has a relatively equal number of pixels. histogram alignment is obtained by changing the gray degree of a pixel (r) with a new gray degree (s) using a transformation function t. mathematically, and it can be written as in equation 1. s = t(r) (1) r can be recovered from s by the inverse transformation as in equation 2. r = t-1(s), where 0 ≤ s ≤ 1 (2) 2.1.2. image subtraction detection of differences in two almost identical images can be done by subtraction operation, commonly called image subtraction. to find the difference, it is necessary to take the first image and the second one, then subtract one image from the other [10]. they are mathematically written as in equation 3. 𝑔(𝑥, 𝑦) = 𝑓(𝑥, 𝑦) − ℎ(𝑥, 𝑦) (3) g is a new image where the intensity of each pixel is the difference between the intensity of the f and h pixels. an example of implementing an image subtraction operation is to obtain an object from two images. image subtraction can also detect changes occurring during a certain time interval if the two images taken are from the same angle/place. 2.1.3. binarization using otsu method binarization is used to convert an image with a grayscale format (with a possible value of more than 2) into a binary image with only two values, 0 and 1. the operation that will be used in the binarization process is a threshold operation, which changes the object pixels in the gray image into pixels with the maximum intensity (255) and changes the background pixels in the gray image into pixels with the minimum intensity (0) in the binary image, or vice versa (objects with an intensity value of 0 and a background with an intensity value of 255 in the resulting binary image). the pixel values that meet the threshold conditions are mapped to the desired value in the thresholding operation. there are two types of thresholding: single thresholds and multiple thresholds [17]. at a single threshold, the object and background pixels have gray levels grouped into two dominant modes. one way to separate an object from the background is to select the boundary value t. the point (x,y) where f(x,y) > t, is called the object. at multiple thresholds, object and background pixels have gray levels, which are grouped into three dominant modes, namely classifying one point (x,y) as an object class if t1 < (x,y) t2, another object class if f(x, y) > t2, and is the background if f(x,y) t1. t function on thresholding: t = t[x,y,p(x,y),f(x,y)], where f(x,y) is the gray level value at points (x,y) and p(x ,y) shows some local properties at that point. the optimal t threshold value can be found using the otsu method. the purpose of the otsu method is to automatically divide the histogram of the gray level image into two different areas. the approach taken by the otsu method is to perform discriminant analysis, which is to determine a variable that can distinguish between two or more groups that arise naturally. the discriminant analysis will maximize these variables to divide the foreground and background objects. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 16 2.1.4. median filtering noise in an image can occur due to gray-level characteristics or random variables that occur due to the characteristics of the probability density function (pdf) [10]. if the image containing noise is directly processed and extracted, its important features can cause accuracy problems. so, the image should be cleaned of noise first and then processed to extract the important features. one technique for reducing noise is order-statistics filters, which are spatial filters where the response results are based on the ordering of the pixel values enclosed by the filter. median filtering is the best-known order-statistics filter [10]. median filtering takes a particular image area according to a predetermined mask size (usually 3x3), then looks at each pixel value in that area and replaces the center value in the area with the median value. how to get the median value, which is the gray value of the points in the matrix sorted from the smallest to the largest value, then determine the value in the middle of the pixel series. median filtering gives good results for images affected by bipolar and unipolar impulse noise. this filter provides excellent noise reduction capabilities for certain types of noise, with less blurring than linear smoothing filters for the same image size. 3. result and discussion 3.1. detection test result the value of the specified parameter affects the level of accuracy of the detection results. the parameter is the threshold used as a limit to determine the status of the parking lot, empty or filled. the test was conducted using three threshold values: 10, 30, and 70. the selection of this threshold value was based on an experiment with several values, and it was found that the three values had the most significant difference in detection results. the minimum value limit of 10 and a maximum of 70 were chosen because if the threshold value is less than the minimum value or more than the maximum value, the detection result will result in many errors, where vacant parking spaces are detected as occupied, and conversely occupied parking spaces are detected as vacant parking spaces so that the resulting level of accuracy is low. this happens because the threshold value to determine the number of white points in a parking box area is too small or too large. while testing with a threshold of 20, 40, 50, and 60 aims to determine the details of changes inaccuracy. the tests were carried out on 35 car parking image data. an example of the detection results carried out in the testing process can be seen in figure 5. figure 5. example of detection result 3.2. testing results in the matos parking area the results of empty spaces detection in the car park for the experimental image data located in matos can be seen in table 1. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 17 table 1. detection results in matos number of places threshold filled empty filled & empty 15 10 99,4% 60,3% 93,8% 15 20 99,4% 70,1% 96% 15 30 98,8% 70,8% 87,7% 15 40 96,8% 70,8% 95,4% 15 50 96,8% 70,8% 95,4% 15 60 95% 83,3% 94,9% 15 70 92,6% 83,3% 92,8% the number of places in table 1 shows the number of parking boxes in the parking lot image data in matos, and this number is different for each parking lot location. for example, the number of parking boxes in the matos parking lot is different from the number of parking boxes in the mog parking lot. from table 1, it is found that the threshold of 10 and 20 are the best thresholds for detecting occupied parking spaces. thresholds of 60 and 70 are the best thresholds for detecting empty parking spaces at the matos location. in addition, the threshold value of 20 is also the best threshold for detecting empty and filled parking spaces. a graph that illustrates the considerable influence of the threshold on the detection of parking spaces, whether filled, empty, or overall, at the matos location can be seen in figure 6. from figure 6, it can be seen that the threshold of 10 and 20 produces the highest accuracy level of 99.4% when detecting an occupied parking lot. the 99.4% accuracy rate means that the system can detect 99.4% of the parking spaces filled correctly and 0.6% of the total number of parking spaces. this indicates that the method applied is optimal enough to detect the presence of filled parking spaces. 0.6% of detection errors came from data in dark conditions (afternoon towards night), and one car had just been parked with the car's headlights still on. when processed, the number of white pixels in the area is less than the threshold, so the parking box area is assumed to be empty when filled. in the blue line that shows the effect of the threshold on the accuracy level of detecting occupied places, it is found that the greater the threshold value, the lower the resulting accuracy will be. the greater the threshold value, the greater the resulting level of accuracy. this is in contrast to the effect of the threshold on the level of accuracy for detecting blank spaces indicated by the red line. figure 6. line chart of the threshold effect on the detection result of matos parking area 3.3. testing result from journal data sourced [16] data from previous journals, which were used for the testing process in this study, amounted to 18 data. the data is an image of an open car park. the data comes from cctv in the morning, afternoon, and evening conditions. figure 7 shows an example of data coming from [16]. 0 20 40 60 80 100 120 10 20 30 40 50 60 70 a c c u ra c y ( % ) threshold the effect of threshold value on the detection result of matos location lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 18 figure 7. example of data from journal data sourced [16] in testing data from journals [16], a threshold with a value of 10, 70, and 30 is used. threshold 10 is the best threshold for detecting filled parking lots. the threshold of 70 is the best threshold to detect empty parking space, and the threshold of 30 is the best threshold to detect the entire parking space. a graph depicting the significant effect of the threshold on the detection of a parking space, whether filled, empty, or completely, on data sourced from journals can be seen in figure 7. figure 7. line chart of the threshold value effect on detection results for data from journal figure 8. illustration of an occupied parking lot detection error from figure 7, it can be seen that the threshold of 10 produces the highest level of accuracy of 85.77% when it detects an occupied parking lot. the blue line on the graph shows that the greater the threshold value, the lower the resulting accuracy will be. the accuracy rate of 85.7% means that the system can detect a parking lot filled correctly by 85.7%, and the detection error is 14.3% of the total number of parking spaces. several things can cause the detection error of a filled parking lot. one of them is the car's color, which tends to be dark or too light. when the vehicle detection and edge detection process is carried out for dark car colors like black, or those too bright like white, a binary image is generated with a predominance of black in the parking lot that should contain the car. this causes the number of white pixels in the parking lot containing black or white cars to be smaller than the predetermined threshold, so the system will show that the parking space is empty. an example of an error when detecting a parking lot filled with dark or light-colored cars can be seen in figure 8. 0 10 20 30 40 50 60 70 80 90 10 20 30 40 50 60 70 a cc u ra cy ( % ) threshold the effect of threshold value on the detection results of data from the journal error detection lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 19 from the line chart in figure 7, it can also be seen that the highest level of accuracy when detecting an empty parking lot is 77.8%, with a threshold of 70. the 77.8% accuracy rate means that the system can detect a vacant parking lot correctly at 77, 8%, and a detection error of 22.4% of the total parking spaces. several things can cause the system error detecting a parking space that should have been empty. one of them is the presence of noise in the form of car shadows hitting a vacant parking lot or a puddle of water in that place. if there is noise in the input image, the system will produce a binary image with many white pixels in the empty parking box when the edge detection process is carried out. so that when a selection is made using a predetermined threshold, the number of white pixels in the box will be greater than the threshold. so, the system will show that the parking space that should be empty is filled. an example of an error when detecting an empty parking space can be seen in figure 9. figure 91. illustration of an empty parking lot detection error 3.4. experiment results of the data mog parking area the data used in the mog parking lot is the image of an open parking area taken during daytime conditions, and the data used is 5 data. based on the experiment, 10 is the best threshold to detect an occupied parking lot. thresholds of 50, 60, and 70 are the best thresholds for detecting empty parking spaces, and the threshold of 30 is the best threshold for detecting the entire parking space. a graph depicting the significant effect of the threshold on the detection of parking spaces, whether filled, empty, or whole, on the data located in mog can be seen in figure 10. from the graph in figure 10, it can be seen that 70 produces the highest level of accuracy of 98% when detecting an empty parking space. the 98% accuracy rate means that the system can detect an empty parking lot correctly by 98% and an error detection rate of 2% from the total number of parking spaces. the effect of the threshold on the results of the detection of an empty parking space, namely, the larger the threshold value, the higher the accuracy result. conversely, the higher the threshold value when detecting a filled parking lot, the lower the accuracy. the highest accuracy result for detecting an occupied parking lot is 68.2%. this means that the system can correctly detect the presence of an empty parking lot at 68.2% and an error rate of 31.8%. error detection lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 20 figure 10. the effect of threshold on detection results for mog parking areas the system error when detecting the parking lot's condition at the mog location is caused by several things. the parking lot is covered by trees located around it. when the vehicle detection process is carried out, an image with the dominance of black pixels will be generated in the parking lot, which should be covered by trees. the system will detect the place as an empty place. in addition, the detection error in the data of mog parking is caused by the parking lot in the second row from the bottom having a significant slope. so that calculating the boundary for the parking box area in this row, a very small area will be produced. therefore, the system will detect the box as empty, even though it is filled. third, error detection is caused by drivers who do not park their cars according to the dividing line provided. there are several cars parked beyond the dividing line. this will cause the system incorrectly detects the parking lot conditions. an example of this error can be seen in figure 11. figure 11. example of errors detection at mog parking area the analysis results show that a good accuracy value is obtained when data collection is carried out at an angle parallel to the parking area, not in a sloping condition. from the three types of datasets used in the testing process, it can be seen that the best accuracy was obtained in the first experiment using the parking lot dataset at the matos shopping center. when viewed in the second and third datasets, the parking lot image is taken with a certain inclination angle, making it difficult to determine the boundaries for each parking lot box. in addition, the second and third datasets have a lot of noise in most of their parking boxes, such as car shadows, areas blocked by large trees, and many people in the parking area, thus allowing these objects to be converted to white pixels during binarization process, so it is detected as a car object. 0 20 40 60 80 100 120 10 20 30 40 50 60 70 a c c u ra c y ( % ) threshold the effect of threshold value on the detection results of mog parking area error detection lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 21 4. conclusion based on the results and discussions of the experiments that have been carried out, several things can be concluded as follows: first, detecting empty spots in the car park by using vehicle detection and edge detection methods. the vehicle detection process consists of 3 processes, namely histogram equalization, image subtraction, and binarization. meanwhile, the edge detection process consists of 5 stages: converting color images to grayscale, histogram equalization, median filtering, single edge detection, and binarization. the results of both stages are compared using the logical and operator. the threshold used as a limit for determining parking space conditions in this study is 10, 20, 30, 40, 50, 60, and 70. second, the detection accuracy value varies depending on the threshold value. the highest detection accuracy value for detecting filled parking spaces is 99.4%, with a threshold of 10 with data located in malang town square (matos). the highest detection accuracy value for detecting vacant places is 98%, with a threshold of 50, 60, and 70 with data located at mall olympic garden (mog). meanwhile, the highest detection accuracy value for the entire parking lot is 96%, with a threshold of 20 on the data located in matos. for further research, it is necessary to add a method to eliminate noise in the parking lot to reduce the detection error rate. in addition, the corner point search process during the initialization process can be developed automatically with one of the corner point algorithms to save time on initialization. and a more effective and efficient method can be developed to calculate the area of each parking lot box. this research is an initial study, which still uses image data taken manually (not using images from cctv). it is hoped that this research can be developed in the next stage so that it is integrated with cctv in real-time, and the detection results can be displayed on an information board that can be placed at the entrance area of the car park. references [1] s. yamin siddiqui, m. adnan khan, s. abbas, and f. khan, "smart occupancy detection for road traffic parking using deep extreme learning machine," journal of king saud university computer and information science, vol. 34, no. 3, pp. 1–7, 2020, doi: 10.1016/j.jksuci.2020.01.016. [2] r. singh, c. dutta, n. singhal, and t. choudhury, "an improved vehicle parking mechanism to reduce parking space searching time using firefly algorithm and feed forward back propagation method," in procedia computer science, 2020, vol. 167, no. 2019, pp. 952– 961, doi: 10.1016/j.procs.2020.03.394. [3] g. f. shidik, e. noersasongko, a. nugraha, p. n. andono, j. jumanto, and e. j. kusuma, "a systematic review of intelligence video surveillance: trends, techniques, frameworks, and datasets," c, vol. 7, pp. 170457–170473, 2019, doi: 10.1109/access.2019.2955387. [4] t. perković, p. šolić, h. zargariasl, d. čoko, and j. j. p. c. rodrigues, "smart parking sensors: state of the art and performance evaluation," journal of cleaner production, vol. 262, 2020, doi: 10.1016/j.jclepro.2020.121181. [5] t. litman, parking management strategies, evaluation, and planning. 2013. [6] faheem, s. a. mahmud, g. m. khan, m. rahman, and h. zafar, "a survey of intelligent car parking system," journal of applied research and technology, vol. 11, no. 5, pp. 714–726, 2013, doi: 10.1016/s1665-6423(13)71580-3. [7] s. han, y. han, and h. hahn, "vehicle detection method using haar-like feature on real-time system," internasional journal of electrical and computer engineering, vol. 59, pp. 455–459, 2009, doi: 10.5281/zenodo.1080822. [8] p. r. l. de almeida, l. s. oliveira, a. s. britto, e. j. silva, and a. l. koerich, "pklot-a robust dataset for parking lot classification," expert system with application, vol. 42, no. 11, pp. 4937–4949, 2015, doi: 10.1016/j.eswa.2015.02.009. [9] t. fabusuyi and v. hill, "designing an integrated smart parking application," in transportation research procedia, 2020, vol. 48, no. 2019, pp. 1060–1071, doi: 10.1016/j.trpro.2020.08.133. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 22 [10] r. c. gonzalez, r. e. woods, and p. prentice hall, digital image processing third edition pearson international edition prepared by pearson education. 2008. [11] i. young, j. gerbrands, and l. van vliet, fundamentals of image processing. 2009. [12] m. lopez, t. griffin, k. ellis, a. enem, and c. duhan, "parking lot occupancy tracking through image processing," in proceedings of 34th international conference on computers and their applications, cata 2019, 2019, vol. 58, pp. 265–270, doi: 10.29007/69m7. [13] kuntz, "canny tutorial," 2006. http://www.pages.drexel.edu/~nk752/research/cannytut2.html. [14] a. w. and e. w. r. fisher, s. perkins, "sobel edge detector," 2003. https://homepages.inf.ed.ac.uk/rbf/hipr2/sobel.htm. [15] j. liu, m. mohandes, and m. deriche, "a multi-classifier image based vacant parking detection system," ieee international conference on electronics, circuits and system, pp. 933–936, 2013, doi: 10.1109/icecs.2013.6815565. [16] n. true, "vacant parking space detection in static images," univ. california, san diego, 2007, [online]. available: http://cseweb.ucsd.edu/classes/wi07/cse190-a/reports/ntrue.pdf. [17] n. longkumer, m. kumar, and r. saxena, "contrast enhancement techniques using histogram equalization : a survey," international journal of current engineering and technology, vol. 4, no. 3, pp. 1561–1565, 2014. [18] m. fang, g. yue, and q. yu, "the study on an application of otsu method in canny operator," in international symposium on information, 2009, vol. 2, no. 4, pp. 109–112, [online]. available: http://scholar.google.com/scholar?hl=en&btng=search&q=intitle:the+study+on+an+applic ation+of+otsu+method+in+canny+operator#0. http://cseweb.ucsd.edu/classes/wi07/cse190-a/reports/ntrue.pdf lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 60 optimizing random forest using genetic algorithm for heart disease classification parmonangan r. togatoropa1, megawati sianturia2, david simamoraa3, desriyani silaena4 afaculty of informatics and electrical engineering, institute of technology del laguboti, indonesia 1mona.togatorop@del.ac.id 2megawatiisianturii@gmail.com 3davidsimamora007@gmail.com 4desriyanisilaen17@gmail.com abstract heart disease is a leading cause of death worldwide, and the need for effective predictive systems is a major source of the need to treat affected patients. this study aimed to determine how to improve the accuracy of random forest in predicting and classifying heart disease. the experiments performed in this study were designed to select the most optimal parameters using an rf optimization technique using ga. the genetic algorithm (ga) is used to optimize rf parameters to predict and classify heart disease. optimization of the random forest parameter using a genetic algorithm is carried out by using the random forest parameter as input for the initial population in the genetic algorithm. the random forest parameter undergoes a series of processes from the genetic algorithm: selection, crossover rate, and mutation rate. the chromosome that has survived the evolution of the genetic algorithm is the best population or best parameter random forest. the best parameters are stored in the hall of fame module in the deap library and used for the classification process in random forest. the optimized rf parameters are max_depth, max_features, n_estimator, min_sample_leaf, and min_sample_leaf. the experimental process performed in rf uses the default parameters, random search, and grid search. overall, the accuracy obtained for each experiment is the default parameter 82.5%, random search 82%, and grid search 83%. the rf+ga performance is 85.83%; this result is affected by the ga parameters are generations, population, crossover, and mutation. this shows that the genetic algorithm can be used to optimize the parameters of random forest. keywords: machine learning, random forest (rf), genetic algorithm (ga), default parameter, random search, grid search 1. introduction heart disease, or coronary heart disease, is one of the biggest causes of death globally. according to who (world health organization), in 2015, an estimated 8.8 million people died from heart disease; in the united kingdom (uk), at least 2.3 million people suffered from heart disease, and in 2014 this condition contributed to at least 69,000 total deaths [1]. the key risk factors that affect a person with heart disease are high blood pressure, high cholesterol, and smoking. many medical issues such as lifestyle choices, including diabetes, obesity, poor nutrition, physical inactivity, and excessive alcohol consumption, may also put people at a higher risk of heart disease [2]. computer-aided detection (cad) is designed to provide automated predictions of heart disease [2]. as one of the modern methods of computer-assisted detection, machine learning is an emerging technology to analyze medical data and provide a prognosis on early detection results. different researchers use machine learning to diagnose heart disease to compare data mining tools and machine learning to classify heart disease using the cleveland dataset from uci machine learning [2] [3] [4]. some researchers show that random forest (rf) accurately predicts heart disease because it mailto:1mona.togatorop@del.ac.id mailto:2megawatiisianturii@gmail.com mailto:3davidsimamora007@gmail.com mailto:4desriyanisilaen17@gmail.com lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 61 performs better. research [5] compared random forest with knn for predicting heart disease. the results obtained are rf achieving 95% accuracy compared to knn achieving 73% accuracy. therefore, predictions made by rf are better than knn [5]. sravanthi [6] compared the classification methods of rf, decision tree, artificial neural network, svm, naive bayes, and knn on coronary datasets. accuracy results obtained were 0.88%, 0.87%, 0.86%, 0.83%, 81% and 0.77% respectively. rf has the highest accuracy. besides predicting heart disease, rf is also used for other domains, such as forecasting new students [7]. based on previous research, it was shown that rf has better accuracy and performance than other algorithms, so in this study, the random forest algorithm will be used to perform classification. optimizing rf parameters can improve the accuracy of the prediction model [8] [9]. rf involves several hyperparameters controlling the structure of each tree, structure, size, and randomness of the forest [10]. grid search and random search can automatically find the optimal hyperparameter in rf. grid search is an optimization algorithm that searches all possible combinations in the search space [9]. random search [11] is an approach that randomly samples parameters defined by search space. meanwhile, the genetic algorithm (ga) is one of the best-known machine learning algorithms for solving optimization problems [12] and gives the optimal value of a function. genetic algorithms (ga) is an optimization strategy inspired by evolution. ga work by adopting the evolutionary process on a population of solutions [13]. ga is already used to solve various optimization cases. currently, many researchers are using a ga to optimize the rf hyperparameter [9] [12] [14] [15]. research [16] has conducted a literature study on the use of ga for heart disease and concluded that the use of ga achieved an accuracy of up to 97.7%. results show that ga can be used to optimize rf parameters. this research's novelty is optimizing rf hyperparameter for heart disease classification. due to the ability of ga to perform optimization, ga will be used as an optimization algorithm to optimize rf parameters. after that, the optimization results will be compared with grid search and random search. the purpose of using ga is to get an optimized hyperparameter and produce higher accuracy for heart disease classification. the result is that using random forest with genetic algorithms has higher accuracy than using only random forest. 2. method the method designed to implement random forest optimization using a genetic algorithm consists of several stages. the design begins with the data preprocessing process, namely data merging, data cleaning to clean the data, and data reduction to remove features with high missing values. after doing the preprocessing stage, it will proceed to one of the two processes that have been passed. the random forest classification process is intended for random forest classification without going through an optimization process. the second process is the random forest optimization process using the genetic algorithm. this process produces the best parameters, which will be classified again using random forest. the classification results from both approaches will be evaluated. the research method used to optimize random forest parameters using genetic algorithms can be seen in figure 1. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 62 figure 1. design system optimizing random forest using genetic algorithm 2.1. data preprocessing the dataset used in this research is a dataset taken from the uci machine learning website [17]. the dataset has 13 attributes: attributes sex, fbs, exang, and target with binary data type; attributes cp, restecg, slope, ca, and thal with categorical data type; attributes age, trestbps, chol, thalach, and oldpeak with continu data type. data preprocessing used in this research are data cleaning, data integration, and data reduction. data preprocessing needs to be done to ensure the quality of the data used. the quality of the data decreases if the data obtained is incomplete, inconsistent, and contains special characters that are not needed. the cleveland dataset and the hungarian dataset were merged in data integration because the dataset has the same features. the heart disease dataset is data that is not too large and complex. when this dataset is put together, it creates 596 rows and 14 attributes. the percentage of missing values can be shown in table 1. table 1. missing value of datasets no atribut total missing value 1 ca 49.41% 2 thal 44.39% 3 slope 31.83% 4 chol 3.85% 5 fbs 1.34% 6 exang 0.17% 7 thalach 0.17% 8 restecg 0.17% 9 trestbps 0.17% data cleaning helps in the process of overcoming missing values, data inconsistencies, and detecting outliers. to overcome this, a preprocessing technique was carried out to see the number of missing values contained in the dataset; for continuous attributes, the missing values will be handled by their mean. meanwhile, the categorical attributes will be input with '0'. due to the three attributes we have dropped, the final data result is 596 rows, and 11 attributes are used for making machine learning models. the distribution of training and testing data states that the data splitting process uses the train_test_split library, with 80:20 data partitions, random_state is used to ensure that each run splitting the data will always be the same. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 63 2.2. random forest random forest is the most popular ensemble technique for probability prediction and estimation. the ensemble method is a way to improve the accuracy of the classification method by combining classification methods [18]. random forest uses a decision tree as a basic classification method; this random forest ensemble method is used for classification and regression purposes or often referred to as cart (classification and regression technique), which consists of several classifiers that have been trained where the predictors will be combined and classify the sample that has been selected [19]. random forest is a general term used as an aggregation scheme in a decision tree. before it was called a random forest, this algorithm was named breimen forest because breiman proposed it. mathematically the calculation of breiman forest can be expressed as: mm,n(x,θ1,…,θm,δn) = 1 m ∑ mn(x,θm,δn) m m=1 ( 1 ) random forest is a collection of randomized trees that will be averaged. the above formula states that m_n is a random forest so that m_(m,n) is a random forest that you want to create with m randomized tree, with x stating the predicted value at the x-th tree, where, θ_1,…,θ_m is a random variable distributed with sample data _n. m expresses a randomized tree. so the output of breiman forest is the average prediction given by m trees. 2.3. genetic algorithm the genetic algorithm (ga) is based on the principle of natural selection. holland developed the genetic algorithm as a helpful tool for search and optimization problems. the genetic algorithm is applied to a population of individuals p where individuals are categorized by chromosome ck = (1,…, p). chromosomes consist of several strings of symbols, known as genes ck = ck1,….., ckn, and we can write n as the length of the string. individuals are evaluated based on their respective fitness functions. genetic algorithms operate with three basic operators: selection, crossover, and mutation. selection plays a role in selecting individuals with the best fitness values from the current generation to survive in the next generation. a crossover is a process of combining two parents to produce children. the mutation function is to make small changes to certain gene elements from the population and provide more ability to produce problem solutions optimization [20]. the genetic algorithm looks for the best optimal solution during the evolution of chromosomes in terms of a defined fitness function [21]. the parameters used in the genetic algorithm are the fitness function, the population size in each generation, the probability of crossover, the probability of mutation, and the number of generations formed. the following are the basic steps in the genetic algorithm. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 64 figure 2 basic steps of genetic algorithm figure 2 shows the steps for the genetic algorithm process. first, initialize the population that designs a chromosome to represent the solution. usually designed in the form of a binary string. after generating the initial population, genetic operators (selection, crossover, mutation) are applied to that population. the selection operator selects the most suitable chromosome by evaluating the fitness value of each chromosome. in general, accuracy is used as a fitness function for classification problems. then the crossover operator swaps the genes of the twoparent chromosomes to get a new child to reach a better solution. the mutation operator replaces randomly selected bits with very low probability. by applying this operator, a new population is formed. the above step is a step to create a new population and is carried out until the stopping condition is met [22]. 2.4. classification task: random forest algorithm the random forest algorithm has several hyperparameters that can affect performance. hyperparameters are parameters needed by machine learning methods to classify. choosing the correct parameters can make a significant difference in the prediction results. specifying this hyperparameter can be done manually by trying all possible values. however, doing so is timeconsuming because the number of possible combinations is very large. this study will conduct experiments on classifying random forests with default parameters, random search, grid search, and genetic algorithm. random search and grid search are used to see the performance of another optimization method without using a genetic algorithm. a. default parameter: when running the random forest algorithm, rf has parameters used to build the model. these parameters have their respective default values. random forest with default parameters also has good accuracy compared to other classification algorithms such as decision trees, naïve bayes, etc. this study examines the effect of rf parameters, including max_features, max_depth, n_estimator, min_sample_split, and min_sample_leaf. to determine the possible values of these parameters. the possible values obtained for each parameter are contained in table 2. table 2. parameters and possible value of random forest parameter possible value max_features ‘sqrt’, ‘log2’ max_depth 2, 5, 10, 20, 50, none n_estimator 100 – 1000 (interval 100) min_sample_split 2 – 5 min_sample_leaf 1 – 4 lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 65 b. random search: the strategy widely used to perform hyperparameter tuning is random search. random search works by searching for every possibility in the parameter. based on research [23] states that grid search has advantages when browsing a search space that is too large, while random search does not always produce good results. research [5] performed hyperparameter optimization using random search and got higher results than the default parameters. study [24] states that random search (rs) has advantages in multidimensional hyperparameters compared to grid search. the random search will return the best parameter by its process and do the classification. c. grid search: grid search (gs) is one of the most commonly used methods for exploring the hyperparameter configuration space. the main disadvantage of gs is that when the configuration space is relatively high, gs is not efficient because the number of evaluations increases exponentially, so it requires a long computation time. research [23] uses grid search for hyperparameter optimization because of its simplicity in implementation and parallelization and its reliability in low-dimensional space. study [25] proposed system helps set hyperparameters using the grid search method. based on the experiments, the algorithm with the grid search hyperparameter setting gives more accurate results than the traditional approach (without setting the hyperparameter). the grid search will return the best parameter by its process and do the classification. and then, the three methods: default parameter, random search, and grid search, will be evaluated to see the model's accuracy. grid search and random search will be implemented using python's scikitlearn library. 2.5. proposed method: rf-ga optimization figure 3. rf-ga optimization genetic algorithms are used before the classification process to improve the results of random forest classification. rf-ga optimization: random forest-genetic algorithm optimization is the proposed optimization method for this research. rf-ga optimization can be seen in figure 3. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 66 optimizing rf with ga begins by entering heart disease data and then preprocessing data on the dataset. the genetic algorithm performs to initialize the initial population (define chromosomes). chromosomes are parameters of the machine learning algorithm used in this study, which is random forest. parameters in random forests that are optimized and become population initialized in the genetic algorithm are max_depth, max features, min_sample_leaf, min_sample_split, and n_estimators. evaluate the fitness value for each chromosome to ensure that the chromosome criteria are suitable for selection. this study is a classification of heart disease, the purpose of the classification is to predict whether a person has heart disease or not. for this reason, the fitness score used in this study is the auc score. auc score is one of the fitness value metrics evaluations. if the fitness value meets the criteria, it is selected to be the best chromosome for the genetic algorithm optimization process. however, if it does not meet, the selection process is carried out using the tournament size two times. crossover to swap genes from two-parent chromosomes to get a new child to achieve a better solution. mutations to make small changes in specific gene elements of the population by randomly selecting genes with very low probability and replacing them. this process produces the best chromosome, obtained as the best parameter. when running a genetic algorithm with parameters such as crossover_probabilty, mutation_probability, population_size, and number_of_generations, the algorithm module from deap will be used to execute the evolutionary algorithm. one of the parameters required from the algorithm module is the halloffame() module. the genetic algorithm process will be stored in a list by halloffame(), which contains the best individuals who survive after going through the evolution process in the form of best_parameters. these best_parameters are random forest parameters that a genetic algorithm has optimized. furthermore, classification is carried out using optimized parameters (best_parameters). in the random forest process, the best parameters obtained from the genetic algorithm process are classified using random forest. accuracy results are evaluated using the confusion matrix to measure the performance of the classification and determine the level of obtaining precision, accuracy, and error values. the roc-auc evaluation technique will describe an accuracy improvement curve and obtain a final score of accuracy. deap is built using python and can be used to perform computational calculations for researchers who want to use genetic programming. deap provides the essentials for assembling advanced evolutionary computation (ec) systems. the aim is to provide a practical tool for rapid prototyping of custom evolution algorithms, where every step of the process is as straightforward as possible and easy to read and understand. deap provides basic data structures, genetic operators, and basic examples for users to implement evolutionary loops [26]. deap consists of two basic structures: the creator and toolbox modules. the creator module allows the generation of genotypes and populations from any data structure. the creator module is the key to facilitating the implementation of all evolutionary algorithms, including genetic algorithms, genetic programming, evolution strategies, and others. 2.6. evaluation method the evaluation methods that will be used to test the performance of the classification model are confusion matrix and roc auc. the confusion matrix is used to obtain the accuracy of the classification performed on the algorithm. the classification process's accuracy value is obtained in the confusion matrix. in measuring performance using the confusion matrix, there are four terms used, namely: true positive (tp), true negative (tn), false negative (fn), and false positive (fp). the confusion matrix results measure performance metrics, often called evaluation matrices. the evaluation metrics used are classification accuracy, classification error, precision, and recall. classification accuracy is used to display the accuracy obtained from the evaluation results. classification error is used to display the number of errors or errors in the evaluated data. precision is used to describe a measure of the accuracy of the evaluation. the recall is used to describe the success of the accuracy obtained. accuracy = (tn+tp) (tn+fp+fn+tp) ( 2 ) lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 67 error rate = (fp+fn) (tp+tn+fp+fn) ( 3 ) precision = (tp+tn) (tp+tn+fp+fn) ( 4 ) recall = tp tp+fn ( 5 ) a better classification model is a model that has a larger roc curve. the results of the roc curve show the visualization of the accuracy of the model and comparison between classification models based on their true positive rate(tpr) and false positive rate(fpr) [27]. the auc score is also used to test the performance of the model.auc (area under the curve) closer to 1 would be able to ideally differentiate the two classes in the case of binary classification [28]. 3. result and discussion 3.1. result the proposed work performs four experiment models: random forest with default parameter, grid search, random search, and rf + ga. performance measures are calculated and compared, as mentioned in the evaluation section. in rf+ga, we do some research to see the best parameters of ga like generations, population, crossover rate, and mutation rate. this study compares the classification results based on the rf with the default parameter, random search, grid search, and rf +ga. the result of the experiment shows in these figures. figure 4. parameter ga experiment from figure 4, we can state that the best parameters for ga to produce a better result are generation 50, population 25, crossover 0.95, and mutation 0.09. in figure 4, the blue line (the value of the axis) is the accuracy value of each experiment. lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 68 table 3. parameters used in the experiment experiment max_ depth max_ features min_ sample_leaf min_ sample_split n_estimators default parameter none auto 1 2 100 grid search 5 log2 1 2 300 random search 2 sqrt 2 5 100 rf+ga 2 sqrt 4 5 100 the four classification methods use the same training and testing samples to maintain the comparability of the result. table 3 shows the parameters used for each classification. random forest parameters max_depth, max features, min_sample_leaf, min_sample_split, and n_estimators will be optimized to achieve optimal results with the genetic algorithm. this value is obtained from the literature review of similar research. table 4. experiment results experiment accuracy error precision recall auc default parameter 0.825 0.175 0.8534 0.8919 0.79 grid search 0.8333 0.1667 0.8661 0.8642 0.82 random search 0.8167 0.1833 0.8734 0.8519 0.81 rf + ga 0.8583 0.1417 0.8861 0.8974 0.84 the accuracy of the auc score for rf with default parameter, grid search, random search, and rf + ga are illustrated in table 4. it can be observed that the accuracy and auc scores of rf + ga come out to be more than default parameter, random search, and grid search. based on the table, the best evaluation metrics experiment is grid search. figure 5. roc curve of (a) default parameter (b) random search (c) grid search (d) rf+ga lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 69 figures 5 compares the roc curves for rf with default parameter, grid search, random search, and rf + ga. the curve observation states that rf + ga is more suitable for the prediction model since the auc and the graphic are closer to 1. table 4 shows the result considering different performance measures such as accuracy, error, precision, and recall. from the performance measure, we can state that rf + ga outperforms the other algorithm to predict heart disease. 3.2. discussion in the random forest optimization experiment using genetic algorithm (rf + ga), the authors conclude that ga can be used to optimize the parameters of random forest and produce better accuracy than grid search. the search space used by ga and grid search is also the same through the initial population input in ga. the performance of the ga is also influenced by the parameters that exist in the ga, including generation, population, crossover rate, and mutation rate. accordingly, the experimental results can be analyzed as follows: a. the number of generations is not directly proportional to accuracy. we conclude that the generation parameter will provide the optimum solution for a particular generation so that the ga will stop searching when it has obtained the optimal solution, which can be referred to as termination criteria. b. the number of small populations produces better accuracy than large populations, and we conclude that this is influenced by the dataset and search space performed by ga, the search space that is not too large makes ga not need a larger population to search. however, if the search space is large, we assume that ga will require a larger population to produce a more optimum solution c. the experimental results show that the crossover with the highest value and the mutation with the lowest value provides better accuracy and obtains the optimum solution. in the random forest experiment, experiments have been carried out using default parameters, random search, and grid search. the experimental results show that parameter optimization using grid search can increase accuracy, while experiments using random search experience a decrease compared to the default parameters. the result of the analysis of the relationship between input parameters and rf classification accuracies are as follows: a. in some cases, a high number of n_estimators can produce good accuracy, but using the default value=100 can also produce more optimal accuracy. b. the higher the max_depth value, the higher the observation probability so that it can improve the model's capabilities. c. using max_features = sqrt(n) tends to produce a better model than auto and sqrt. but it is possible to use max_features = log2(n) to produce a good solution as in grid search. d. using min_sample_split and min_sample_leaf with higher values tends to produce a better result. 4. conclusion random forest is one of the classifying algorithms of machine learning. one application of the classification algorithm is heart disease classification. there are several classification algorithms, including random forest. random forest is an algorithm that produces good results when classifying. random forest has parameters that are used to build a classification model. this research focuses on ga, which is used to optimize five parameters on rf, namely n_estimator, max_depth, max_feature, min_sample_split, and min_sample_leaf, to produce optimal heart disease classification accuracy. optimization of the random forest parameter using a genetic algorithm is carried out by using the random forest parameter as input for the initial population in the genetic algorithm. the random forest parameter undergoes a series of processes from the genetic algorithm: selection, crossover rate, and mutation rate. based on the experiments conducted, the performance of the random forest classification with default parameters 82.5%, random search 82%, and grid search 83% shows that parameter optimization using grid search can improve accuracy, while experiments using random search experience problems. the performance of rf + ga classification reaches 85.83%; this is influenced by the parameters in the genetic algorithm, including generation, population, lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 70 crossover rate, and mutation rate. therefore, it can be concluded that genetic algorithms can be used to optimize the parameters of random forest and increase the accuracy of random forest results. further, as an extension of this work, a bigger dataset is required to obtain a better training model, using other optimization algorithms to see the difference in the performance of the genetic algorithm with other algorithms for heart disease classification. references [1] l. anderson et al., "patient education in the management of coronary heart disease," cochrane database syst rev., vol. 2017, no. 6, 2017, doi: 10.1002/14651858.cd008895.pub3. [2] k. h. miao, j. h. miao, and g. j. miao, "diagnosing coronary heart disease using ensemble machine learning," international journal of advanced computer science and applications(ijacsa), vol. 7, no. 10, pp. 30–39, 2016, doi: 10.14569/ijacsa.2016.071004. [3] i. tougui, a. jilbab, and j. el mhamdi, "heart disease classification using data mining tools and machine learning techniques," health and technology, vol. 10, no. 5, pp. 1137–1144, 2020, doi: 10.1007/s12553-020-00438-1. [4] n. b. muppalaneni, m. ma, and s. gurumoorthy, soft computing and medical bioinformatics. springer singapore, 2019. doi: 10.1007/978-981-13-0059-2. [5] h. kaur and d. gupta, "human heart disease prediction system using random forest technique," international journal of computer science and engineering, vol. 6, no. 7, pp. 634–640, 2018. [6] p. v. s. n. sravanthi and p. rajesh, "an exploration of prediction of heart disease using machine learning classification," international journal scientific & technology research, vol. 9, no. 3, pp. 6817–6824, 2020. [7] r. r. waliyansyah and n. d. saputro, “forecasting new student candidates using the random forest method,” lontar komputer jurnal ilmiah teknologi informasi, vol. 11, no. 1, p. 44, 2020, doi: 10.24843/lkjiti.2020.v11.i01.p05. [8] i. syarif, a. prugel-bennett, and g. wills, "svm parameter optimization using grid search and genetic algorithm to improve classification performance," telkomnika (telecommunication computing electronics and control, vol. 14, no. 4, p. 1502, 2016, doi: 10.12928/telkomnika.v14i4.3956. [9] a. s. wicaksono and a. a. supianto, "hyperparameter optimization using genetic algorithm on machine learning methods for online news popularity prediction," international journal of advanced computing science and application, vol. 9, no. 12, pp. 263–267, 2018, doi: 10.14569/ijacsa.2018.091238. [10] p. probst, m. n. wright, and a. l. boulesteix, "hyperparameters and tuning strategies for random forest," wiley interdisciplinary reviews data mining and knowledge discovery, vol. 9, no. 3, 2019, doi: 10.1002/widm.1301. [11] r. schaer, h. müller, and a. depeursinge, "optimized distributed hyperparameter search and simulation for lung texture classification in ct using hadoop," journal of imaging, vol. 2, no. 2, 2016, doi: 10.3390/jimaging2020019. [12] d. ming, t. zhou, m. wang, and t. tan, "land cover classification using random forest with genetic algorithm-based parameter optimization," journal of applied remote sensing, vol. 10, no. 3, p. 035021, 2016, doi: 10.1117/1.jrs.10.035021. [13] g. rivera, l. cisneros, p. sánchez-solís, n. rangel-valdez, and j. rodas-osollo, "genetic algorithm for scheduling optimization considering heterogeneous containers: a real-world case study," axioms, vol. 9, no. 1, 2020, doi: 10.3390/axioms9010027. [14] n. k. kumar, d. vigneswari, m. v. krishna, and g. v. p. reddy, "an optimized random forest classifier for diabetes mellitus", emerging technologies in data mining and information security, doi: 10.1007/978-981-13-1498-8. [15] s. s. shah and m. a. pradhan, "r-ga: an efficient method for predictive modeling of medical data using a combined approach of random forests and genetic algorithm," ictact journal on soft computing, vol. 06, no. 02, pp. 1153–1156, 2016, doi: 10.21917/ijsc.2016.0160. [16] m. d. yudianto, t. m. fahrudin, and a. nugroho, "a feature-driven decision support system lontar komputer vol. 13, no. 1 april 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 71 for heart disease prediction based on fisher's discriminant ratio and backpropagation algorithm," lontar komputer journal ilmiah teknologi informasi, vol. 11, no. 2, p. 65, 2020, doi: 10.24843/lkjiti.2020.v11.i02.p01. [17] "heart disease data set." https://archive.ics.uci.edu/ml/datasets/heart+disease (accessed apr. 01, 2021). [18] a. syukron and a. subekti, “penerapan metode random over-under sampling dan random forest untuk klasifikasi penilaian kredit,” jurnal informatika, vol. 5, no. 2, pp. 175–185, 2018, doi: 10.31311/ji.v5i2.4158. [19] e. goel and e. abhilasha, "random forest: a review," international journal of advanced research in computer science and software engineering, vol. 7, no. 1, pp. 251–257, 2017, doi: 10.23956/ijarcsse/v7i1/01113. [20] s. kumar and g. sahoo, "a random forest classifier based on genetic algorithm for cardiovascular diseases diagnosis," international journal of engineering transaction b: application, vol. 30, no. 11, pp. 1723–1729, 2017, doi: 10.5829/ije.2017.30.11b.13. [21] s. m. elsayed, r. a. sarker, and d. l. essam, "a new genetic algorithm for solving optimization problems," engineering application of artificial intelligence, vol. 27, pp. 57–69, 2014, doi: 10.1016/j.engappai.2013.09.013. [22] k. kim, k. lee, and h. ahn, "predicting corporate financial sustainability using novel business analytics," sustainability, vol. 11, no. 1, pp. 1–17, 2018, doi: 10.3390/su11010064. [23] j. emakhu, s. shrestha, and s. arslanturk, "prediction system for heart disease based on ensemble classifiers," proceedings of the 5th international conference on industrial engineering and operations management, no. august, pp. 2337–2347, 2020. [24] c. g. siji george and b. sumathi, "grid search tuning of hyperparameters in random forest classifier for customer feedback sentiment prediction," international journal of advanced computer science and applications(ijacsa), vol. 11, no. 9, pp. 173–178, 2020, doi: 10.14569/ijacsa.2020.0110920. [25] p. liashchynskyi and p. liashchynskyi, "grid search, random search, genetic algorithm: a big comparison for nas," no. 2017, pp. 1–11, 2019. [26] j. kim and s. yoo, "software review: deap (distributed evolutionary algorithm in python) library," genetic programming and evolvable machines, vol. 20, no. 1, pp. 139–142, 2019, doi: 10.1007/s10710-018-9341-4. [27] d. krishnani, a. kumari, a. dewangan, a. singh, and n. s. naik, "prediction of coronary heart disease using supervised machine learning algorithms," ieee region 10 annual international conference proceedings/tencon, vol. 2019-octob, pp. 367–372, 2019, doi: 10.1109/tencon.2019.8929434. [28] e. k. hashi and md. shahid uz zaman, "developing a hyperparameter tuning based machine learning approach of heart disease prediction," journal of applied science & process engineering, vol. 7, no. 2, pp. 631–647, 2020, doi: 10.33736/jaspe.2639.2020. [29] p. t. nguyen, n. b. vu, l. van nguyen, l. p. le, and k. d. vo, "the application of fuzzy analytic hierarchy process (f-ahp) in engineering project management," 2018 ieee 5th international conference engineering technologies applied science (icetas) 2018, pp. 1– 4, 2019, doi: 10.1109/icetas.2018.8629217. lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 structural and semantic similarity measurement of uml use case diagram mohammad nazir arifina1, daniel siahaana2 ainformatics department, institut sepuluh nopember 1nazir.arifin16@mhs.if.its.ac.id 2daniel@if.its.ac.id abstract reusing software has several benefits ranging from reducing cost and risk, accelerating development, and its primary purposes are improving software quality. in the early stage of software development, reusing existing software artifacts may increase the benefit of reusing software because it uses mature artifacts from previous artifacts. one of software artifacts is diagram, and in order to assist the reusing diagram is to find the level of similarity of diagrams. this paper proposes a method for measuring the similarity of the use case diagram using structural and semantic aspects. for structural similarity measurement, graph edit distance is used by transforming each actor and use case into a graph, while for semantic similarity measurement, wordnet, wupalmer, and levenshtein were used. the experimentation was conducted on ten datasets from various projects. the results of the method were compared with the results of assessments from experts. the measurement of agreement between experts and method was done by using gwet’s ac1 and pearson correlation coefficient. measurement results with gwet’s ac1 diagram similarity are 0,60, which were categorized as “moderate" agreement and the result of measurement with pearson is 0.506 which means there is a significant correlation between experts and methods. the result showed that the proposed method can be used to find the similarity of the diagram, so finding and reuse of the diagram as a software component can be optimized. keywords: diagram similarity, use case diagram, graph edit distance, structural similarity, semantic similarity 1. introduction software reuse refers to a strategy in developing new software that uses previously developed software components [1, 2, 3, 4]. these components could be code fragments, design, test data, or cost estimates. the scale of software reuse may range from one line of code within a function up to one complete software package. software engineers classified two types of software reuse, i.e. systematic and accidental reuse. the systematic software reuse is a well-defined organization process in developing software in which reusable resources are intentionally generated, composed, or obtained, and then reliably expended and preserved to acquire an eminent degree of reuse [5]. it improves the capability of the organization to deliver high-quality endproducts in a timely and cost-effective manner. the end-product produced by systematic software reuse is considered more robust, well documented, and better-tested artifacts compared with accidental reuse. the accidental software reuse is an arbitrary process of developing software in which reusable resources are intentionally generated, composed, or obtained, and sporadically expended and hardly preserved. the accidental software reuse is simple, but components may not be in the best form. reusing components, specifically on the diagram, could help quicken the product advancement process. it also can decrease the expenses and dangers utilized [6]. there are some information used to find compatible reused components [7, 8, 9], such as software requirements [10, 11], the fragment of codes [12, 13], metadata [14], and design [15, 16, 17]. there 88 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 are methods or techniques used to compare diagrams, i.e. graph matching techniques, casebased reasoning techniques, ontology-based techniques, information retrieval methods, and other specific methods [1]. su and bao [18] concentrated on real structural similarity of the uml model by comparing xml structure in xml format using the graph approach. whereas in [19], three types of information are used to measure the similarity of class diagrams based on their semantic similarity on wordnet. use case diagrams are uml diagrams to define functionality and graphically of a system in terms of actor, use cases, and relations [20]. a tool has been implemented for storing, searching, and retrieving use case diagrams using ontologies and semantic web technology by [20]. this tool stores use case diagram information in owl ontology and the implementation in java and using sparql query language. previous research by fauzan et al. [16] adapted its predecessors [17, 21]. they suggest that the structural and semantic similarities of the two diagrams are suitable parameters in calculating the use case diagram similarity. they used the wupalmer lexical distance of neighboring components for calculating structural similarity measurement. both previous researches emphasized the use of semantic information from a diagram to measure the overall similarity of the two diagrams. this study primarily focuses on developing an approach to measure the similarity between two use case diagrams by using structural and semantic aspects. to measure structural similarity, the proposed method used the process of modeling the use case diagram as a graph and graph similarity method and for semantic similarity used wupalmer and levenshtein. the rest of the paper is organized as follows. section two describes in detail the similarity measurement method. it elaborates the semantic similarity measurement and structural similarity measurement. section three describes the scenarios employed during the testing. it also shows the results and their analysis. the last section concludes the research and suggests future works. 2. similarity measurement method our similarity measurement method is composed of two main processes, i.e. diagram preprocessing and similarity measurement process. the similarity measurement process comprises of two similarity measurement aspects, i.e. semantic similarity and structural similarity. the semantic similarity between the two use case diagram is calculated using the greedy algorithm. the structural similarity between the two use case diagrams is calculated using graph edit distance. 2.1. diagram preprocessing the diagram preprocessing aims mainly to extract the diagram metadata by converting the use case diagram into a graph. the use case diagram is modeled using an open-source uml modeling tool. then, each model is exported to xml metadata interchange (xmi) format. a parser have been developed that analyze and convert xmi files into a graph by extracting property information of components that composed the system. the components are actors, use cases, and their relations. for the sake of illustration, let us consider a use case of an automatic teller machine (atm), as shown in figure 1. the use case diagram in figure 1 models the context diagram of the atm system. let the atm system is called s1. the context diagram describes the overview of system interactions with other objects outside of the system. a use case in the context diagram represents the basic needs of an actor to the system. the atm system has six main use cases, i.e. check balance, deposit fund, withdraw cash, transfer fund, cash register, and maintenance. an actor is a role played by a set of objects outside the system that directly interacts with the system. an object can be an end-user or other system that directly interacts with the system. an object may have one or more roles, but an object can play only one role at a time. for example, a card holder is an actor played by any customer who has a bank account and holds an atm card. the directed arrow shows the relations between actor and cardholder. an active actor is an actor that triggers the use case. a passive actor is an actor being involved in a use case. for example, the card holder has four use cases, i.e. check balance, deposit fund, withdraw cash, and transfer fund. in the check 89 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 figure 1. use case diagram (atm) (a) (b) figure 2. use case description of (a) check balance and (b) transfer fund balance use case, the card holder is the active actor that triggers the check balance use case, while the bank is a passive actor that being involved in the check balance use case. the main use case may have a detailed description that views its relations with its sub-use cases. figure 2 shows the detailed description of the use case transfer fund and check balance. it can be seen that that both use case has print transaction as their sub-use case. the transfer fund use case includes a print transaction use case, while the check balance use case is extended by print transaction use case. given the use case diagram of the atm system in figure 1, an xmi file of the use case diagram can be obtained. figure 3 shows a snapshot of the xmi script of the atm system’s use case diagram. use cases and actors in the use case diagram are represented as package elements. a use case’s package element is denoted by xmi:type="uml:usecase", while an actor’s package element is denoted by xmi:type="uml:actor". each package element has a unique identity. the association between actor card holder with use case check balance is represented by ownedmember element with type uml:association. the element has two ends, i.e. the actor card holder and use case check balance (with green background). the relation between use case or depicted as extend, include, or generalization elements. the extension relation between print transaction and check balance is shown in figure 4. notice that text with green background is check balance use case. the next step is parsing the xmi file and represents the element as a directed graph [6]. let g(v,e) is a graph with a set of vertices v , and their edges e. a vertices can be an actor or a use case. an edge represents an association among actors, between an actor and a use case, or among use cases. the graph representation of the atm system is shown in figure 5. the a1 and a2 vertices represent the actors, i.e. the card holder and bank, respectively. the v1, v2, v3, 90 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 figure 3. snapshot of xmi files: atm system figure 4. snapshot of xmi files: print transaction extends check balance figure 5. graph representation of the atm system v4, and v6 vertices represent the use cases, i.e. check balance, deposit fund, withdraw cash, transfer fund, and print transaction, respectively. 2.2. graph edit distance in this paper, the inexact graph matching is used by facilitating graph edit distance. graph edit distance is the distance between two measured graphs, g1 and g2, by the amount of distortion that is needed to transform g1 into g2 [22]. in this method, graph modifications take the form of addition, deletion, and replacement of vertices and edges. for vertices replacement, it is based on type of vertices (i.e. actor and use case) and for edges are based on its’ type and directions (i.e. association, include, extend, and generalization). equation 1 shows how to measure the distance of the two compared graphs. dλmin (g1,g2) = min λ∈γ(g1,g2) σei∈λc(ei) (1) where dλmin (g1,g2) denoted as graph edit distance, which is the minimum transformation of graph g1 into g2 and c(ei) is the cost for each graph modification. the cost of all operations in this paper is set 1, where it could be set a different number for increasing costs for certain operations. the process of comparing vertices and edges is based on values obtained from the "xmi: type" attribute of the xmi file. furthermore, edge comparisons are performed not only based on edge 91 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 figure 6. graph transformation from the first graph to the last graph type but also based on edge direction. based on this, for directed relationships such as include, extend, and generalization, the location and type of origin or destination vertices also affect the total costs of the graph transformation process. so the results of the transformed graph will not only have the same vertices / edges type but also have the same direction of edges. figure 6 is an example of the transformation steps of two compared graphs. the graph g1 (first graph) has five vertices, where v0 has associations to v1, v2, v3, and v4. the graph g2 (last graph) has three vertices, where v0 has associations to v1 and v4. to transform g1 into g2, there should be a deletion of two actors (v2 and v3) and their (two) associations with vertices v0. therefore, the sum of operation cost from g1 to g2 is 4. this operation cost value then converted into a number in a range between 0 and 1 with equation 2. sim(g1,g2) = 100 − cost·100 v(g1)+e(g1)+v(g2)+e(g2) 100 where cost is the value of operation cost, v is the number of vertices, and e is the number of edges of compared graphs g1 and g2. from equation 2, the graph edit distance of g1 and g2 has operation cost 0.7143. 2.3. word similarity the semantic relationship between the two concepts is often related to their distance in the wordnet lexical dictionary. wordnet-based has been used for determining the semantic similarity of class diagram [23, 19], sequence diagram [21, 17], and use case diagram [16, 20]. in this paper, the information contained in the use case diagram about actor and use case is measured using a combination of wupalmer and levenshtein where the calculation of levenshtein distance will be used if the calculations with wupalmer can not be performed. 2.4. levenshtein distance levenshtein distance is the smallest number of insertions, deletion, and substitution processes that change a word or string to be another string [24]. for example, levenshtein distance of string “synthesis” and “synthesize” is 2 because there are two operations: change character ’s’ into ’z’ and addition of character ’e’. in this paper, equation 3 is an equation for transforming levenshtein distance into a normalized number ranged 0 – 1. sim(wi,wj) = 100 − lev(wi,wj)·100 len(wi)+len(wj) 100 where lev is levenshtein distance value, len(wi), and len(wj) is string length of word wi and wj. therefore, the result of similarity measurement of the words "synthesis" and "synthesize" based on the levenshtein distance is 0.867. 2.5. greedy algorithm in this paper, all of the comparison values from the two diagrams compared are arranged in metrics. comparing the metrics requires an algorithm to find the most optimal value. khiaty in 92 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 figure 7. use case diagram of the second atm system (s2) figure 8. graph representation of s2 [23] proposed an algorithm based on greedy the algorithm, which is superior in matching time compared with the simulated annealing based algorithm. this method then adapted by several researchers such as [25, 21] for measuring structural and semantic similarity. 2.6. diagram similarity measurement based on the determined aspect, structural and semantics, the main formula for obtaining similarity between two compared diagrams is shown in equation 4. since each aspect may have a different impact on total similarity, the proposed method used weights for each similarity measurement. ucdsim(d1,d2) = wstruc ·strucsim(d1,d2) + wsem ·semsim(d1,d2) (2) where wstruc and wsem are the constant values which represent weight of structural and semantic aspects, respectively, strucsim and semsim are the results of structural and semantic similarity measurement. the weights are given arbitrarily. structural and semantic similarity measurement use weight for actor and use case as in equation 3 and 4. figure 9. graph representation of actors in use case diagram s1 and s2 93 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 figure 10. graph representation of use case in use case diagram s1 and s2 structsim(d1,d2) = wac ·struct(∀aci ∈ d1,∀acj ∈ d2) + wuc ·struct(∀uci ∈ d1,∀ucj ∈ d2) (3) semsim(d1,d2) = wac ·sem(∀aci ∈ d1,∀acj ∈ d2) + wuc ·sem(∀uci ∈ d1,∀ucj ∈ d2) (4) where wac and wuc are the weight of actor and use case respectively, struc is result of the structural similarity measurement, and sem is the result of semantic similarity measurement, ∀aci and ∀uci is all actor and all use case respectively, within (∈) diagram d1 and d2. based on equations 3 and 4, each actor in the first diagram and the second diagram will be matched and measured using graph edit distance for structural, and combination of wupalmer and levenshtein for semantic similarity. the calculation results are summed and then multiplied with the weight of the actor wac. this step will also be applied to each use case in the first diagram and second diagram. weight for actor and use case is arbitrary given with value between 0 – 1, where it’s sum must be 1. these weights are used to emphasize which component in use case measurement, whether actor or use case. to illustrate the calculation process, let’s consider the second atm system (shown in figure 7). let the second version of the atm system called s2. in s2, there are only one actor, i.e. card holder, and four use cases, i.e. withdraw fund, show balance on screen, print balance, and authenticate card holder. the use case withdraw fund is the only use case that directly connected to the card holder. given this information, a graph representation of s2, called g2, as shown in figure 8 was generated. the next subsections explain how to calculate the structural and semantic similarities of the two diagrams. the weights of wac and wuc for structural and semantic were set to 0.5, while wstruc,wsem was set to 0.7, 0.3, respectively. 2.7. structural similarity measurement the first step in structural similarity measurement is calculating the structural similarity of each component type. therefore, each vertices within g1 and g2 is treated as sub-graphs. given graph 94 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 table 1. structural similarity measurement of use cases in g1 and g2 g2 u1 u2 u3 u4 g1 u1 0.813 0.500 0.600 0.500 u2 0.643 0.625 0.625 0.625 u3 0.643 0.625 0.625 0.625 u4 0.750 0.600 0.500 0.600 u5 0.714 0.750 0.750 0.750 g1, two sub-graphs for actors (figure 9.a and 9.b) and five sub-graphs for use cases can be generated. given graph g2, there are one sub-graph for the actor (figure 9.c) and four sub-graphs for use cases. then, for each actor in g1, the method calculates its sub-graph similarity with the sub-graph of each actor in g2. using the graph edit distance, the structural similarity between sub-graphs can be calculated. transforming sub-graph card holder (sg11) in g1 into sub-graph card holder (sg21) in g2 requires six operations, i.e. removes three vertices (u2, u3, and u4) and removes three edges (a1-u2, a1-u3, and a1-u4). therefore, the cost of transforming (sg11) into (sg21) is 6. thus, transforming sub-graph bank (sg12) in g1 and sub-graph card holder (sg21) requires seven operations, i.e removes three vertices (u2, u3, and u4), removes three edges (u2a2, u3-a2, and u4-a2), and one edge replacement (from u1-a2, to a2-u1). therefore, the cost of transforming (sg12) into (sg21) is 7. given their costs, the structural similarities can be calculated as follow: struc(a1 : g2,a1 : g2) = 100 − 6·100 5+4+2+1 100 = 0.5 struc(a2 : g1,a1 : g2) = 100 − 7·100 5+4+2+1 100 = 0.42 given this structural similarity scores, it can be concluded that actor card holder in g1 is more structurally similar to actor card holder in g2 than actor bank in g1. the structural similarity of actors in g1 and g2 can be calculated as follow: struc(∀aci ∈ g1,∀acj ∈ g2) = 2 · 0.5 2 + 1 = 0.33 structural similarity measurement on the use case’s sub-graphs is also conducted. figure 10 shows the sub-graphs of the use case in g1 and g2. table 1 shows the structural similarity measurement of each pair. the result shows that u1 : g1 is best matched with u1 : g2, u2 : g1 is best matched with u4 : g2, u3 : g1 is best matched with u3 : g2, and u5 : g1 is best matched with u2 : g2. given the best pairs, we could calculate the structural similarity measurement of use cases in g1 and g1 as follow: struc(∀uci ∈ g1,∀ucj ∈ g2) = 2 · (0.813 + 0.750 + 0.625 + 0.625) 5 + 4 = 0.625 given the structural similarity score of actors and use cases, we could calculate the structural similarity between g1 and g2 as follow: strucsim(g1,g2) = 0.5 · 0.33 + 0.5 · 0.625 = 0.478 2.8. semantic similarity measurement the first step of semantic similarity measurement is extracting tokens of text from each component within each vertices. each token should go through three text-preprocesses, i.e. stop-word 95 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 table 2. semantic similarity measurement of use cases in g1 and g2 g2 u1 u2 u3 u4 g1 u1 0.485 0.692 0.835 0.548 u2 0.665 0.436 0.610 0.228 u3 1.000 0.392 0.435 0.240 u4 0.850 0.496 0.550 0.240 u5 0.390 0.432 0.730 0.256 removal, lower casing, and lemmatizing. to get the semantic similarity of actors, the method calculated semantic similarity between tokens in each actor in g1 against tokens in each actor in g2. to calculate the semantic similarity between tokens, wupalmer and levenshtein distance algorithms are employed. to enable the use of wupalmer calculation, both of the two compared tokens must be found in wordnet lexical database. if one of them is absent, the levenshtein distance calculation function is used. different from [16] and [25], this paper does not use cosine similarity for semantic similarity calculation. we could calculate the semantic similarity between pairs of actors as follow: sem(a1 : g1,a1 : g2) = 2 · (1.0 + 1.0) 2 + 2 = 1.0 sem(a2 : g1,a1 : g2) = 2 · 0.405 2 + 1 = 0.27 given this semantic similarity scores, it can be concluded that actor card holder in g1 is more semantically similar to actor card holder in g2 than actor bank in g1. the semantic similarity of actors in g1 and g2 can be calculated as follow: sem(∀aci ∈ g1,∀acj ∈ g2) = 2 · (1.0) 2 + 1 = 0.67 semantic similarity measurement on use cases is also conducted. to get the semantic similarity of use cases, the method calculated the semantic similarity between tokens in each use case in g1 against tokens in each use case in g2. using the wupalmer similarity measurement, the semantic similarity between pairs of use cases can be calculated. table 2 shows the semantic similarity measurement of each pair. the result shows that u3 : g1 is best matched with u1 : g2, u1 : g1 is best matched with u3 : g2, u4 : g1 is best matched with u2 : g2, and u5 : g1 is best matched with u4 : g2. given the best pairs, we could calculate the semantic similarity measurement of use cases in g1 and g2 as follow: sem(∀uci ∈ g1,∀ucj ∈ g2) = 2 · (1.0 + 0.835 + 0.492 + 0.256) 5 + 4 = 0.57 given the semantic similarity score of actors and use cases, we could calculate the semantic similarity between g1 and g2 as follow: semsim(g1,g2) = 0.5 · 0.67 + 0.5 · 0.57 = 0.62 the similarity score between the two graphs could be calculated using equation 4, given the weight of structural 0.5 and semantic 0.5 is 0.55. with the range value of similarity between 0 – 1, where the highest value means equal, this similarity result of s1 and s2 is considered moderate. although they have relatively significant semantic similarity, there are significant differences in their structure. 96 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 table 3. list of software projects project name #actors #use cases airport 4 7 cashier 2 9 coffemaker 1 7 photosharing 4 11 instmsg 1 8 olshop 5 4 olshop2 7 4 tmcs 3 6 atm 3 6 atm2 1 4 3. datasets in this study, the author collected ten projects. these projects are generated from several undergraduate student projects in a software engineering course. table 3 shows a list of software projects. each project has different complexity in terms of the number of actors and use cases. they range from small (1 actor and four use cases) to medium size of projects. 4. result and discussion a tool that implementing the proposed method has been built. this tool process use case diagrams started from parsing and analyzing xmi documents until the testing process. it has been built by using a combination of typescript, python, and libraries such as python nltk, and xml-js. after building the tool, the next step is redraw and convert into xmi all datasets that consist of ten diagrams from ten projects by using open-source uml modeling applications. this process also rechecked the models to make sure that all components structurally and semantically able to be processed. after finishing this process, all xmi documents parsed and analyzed by using the created tool. to measure whether the proposed method can provide a sufficient result, a comparison with assessment from experts was conducted. in this paper, there are three experts, consisting of two academics and a practitioner in the field of use case diagram modeling who have used and utilized a use case diagram for at least two years. these experts provide an assessment of the similarity between 30 pairs of the compared diagrams. expert’s assessments were obtained using questionnaire contains all paired diagrams, and each diagram pair is given an expert rating for each aspect (structural and semantic) with number scale 1-5 where the greater of the number means the more similar the compared diagram. due to the different types of numbers, which is the expert’s assessment number for questionnaire produces an ordinal number 1 – 5, while the calculation from the proposed method produces 0 – 1 interval numbers, then two kinds of calculations are used to measure the agreement between expert and method. for ordinal number using gwet’s ac1 and for interval number using pearson’s correlation. for pearson’s, the significance of values was consulted to pearson’s critical value table with α = 0.05, degree of freedom (df) = 28, with value 0.361. for gwet’s ac1, the values were consulted to cohen’s kappa interpretation table. some testing scenarios has been conducted in comparing the averaged assessment value from expert with the proposed method’s result using gwet’s ac1 and pearson’s correlation. the test was conducted sequentially, starting from structural similarity, semantic similarity, and finally, diagram similarity. in general, each test is done by changing the weights (actors, use cases, structural, or semantic) and then recalculate the diagram similarity measurement. then the values are re-compared against the experts’ assessment. the agreement level is recalculated. for structural and semantics, weight pair for actors and use case are given arbitrary with value of 0.3 0.7, 0.4 0.6, 0.5 0.5, 0.6 0.4, and the last is 0.7 0.3. as for the similarity of diagram using changes 97 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 table 4. semantic and structural agreement weight’s pair agreement actor usecase structural semantic ac1 pearson ac1 pearson 0.3 0.7 0.49 0.56 0.47 -0.01 0.4 0.6 0.49 0.60 0.50 0.01 0.5 0.5 0.46 0.62 0.56 0.07 0.6 0.4 0.46 0.62 0.56 0.11 0.7 0.3 0.50 0.62 0.59 0.14 table 5. diagram similarity agreement weight’s pair agreement structural semantic ac1 pearson 0.3 0.7 0.60 0.44 0.4 0.6 0.57 0.47 0.5 0.5 0.58 0.48 0.6 0.4 0.59 0.49 0.7 0.3 0.57 0.51 in structural and semantic weights with pair values of 0.3 0.7, 0.4 0.6, 0.5 0.5, 0.6 0.4, and the last is 0.7 0.3. after doing all testing scenarios, the result of agreements for structural and semantic aspects can be observed in table 4, and the result of agreements for diagrams based on semantic and structural similarity are listed in table 5. based on the values of the agreement for the structural and semantic aspect in table 4, an increased agreement for structural and semantic aspects were obtained with the increasing number of weights for actors, whether using gwet’s ac1 or pearson’s correlation. it can be interpreted that experts tend to assess structural and semantic similarity based on the conditions of actors. still based on table 4, the agreement on the semantic aspect is not optimal, and even all calculations with pearson’s are below the critical value, which means there is no significant relationship between expert’s assessments and the method. this result also stated in [16]. therefore, an improvement should be conducted on the current semantic similarity method. for the structural aspect, the value of the agreement is better than the agreement on the semantic aspect where the values are within the “moderate” agreement category, so graph edit distance in this proposed method can be used as a tool in measuring the structural similarity of a diagram. based on the values of agreement of diagram similarity in table 5, in general, the increasing agreement can be achieved by increasing structural weight. all values are categorized as a "moderate" agreement for gwet’s ac1 and have a significant relationship based on pearson’s correlation. based on values in tables 4 and 5, the proposed method is generally able to provide sufficient agreement values, both using gwet’s ac1 or using pearson’s correlation. however, the values obtained are not high or in the moderate category. therefore, it can be concluded that the use of graph edit distance for structural similarity and the use of wupalmer and levenshtein for semantic similarity can be used as one of the tools in measuring similarity diagrams. 5. conclusion this paper has introduced a method for measuring the similarity between use case diagrams. from ten datasets used from various project with various number of actor and use case, the level of agreement between the method and experts are in the "moderate" category, which is around 0.60. the results of experiments also showed that the graph approach to structural similarity calculations can be used in evaluating the similarity of use case diagrams as can be seen at the sufficient level of agreement between expert and method. the name of the property of component 98 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 within the use case diagram is also ideal for measuring the use case diagram similarity in the semantic aspect. the result further indicate that the method can be used to find the similarity of the diagram so that the finding and reuse of the diagram as a software component can be optimized. the re-finding of diagrams is very useful especially when going through new software projects that may have similar functionality that might be have the same use case diagram. but, there are still some problems that must be considered such as the proposed method is still not optimal in calculation semantic similarities because of the use of levenshtein that quite often caused by the absence of the word in wordnet lexical database. the important thing that should be considered that this work is limited to use case diagram, which may not work for other uml diagrams. further study should determine a set of weights that can achieve the most accurate measurement value. second, the author plan to search for an alternative algorithm to increase the measurement value of semantic aspect when the name of a component not listed on wordnet lexical dictionary or when the name of component consists of more than one word. this is because these two conditions reduce the opportunity for finding the word’s lexical meaning in wordnet. references [1] h. salami and m. ahmed, “uml artifacts reuse: state of the art,” the international journal of soft computing and software engineering (jscse), vol. 3, no. february 2014, pp. 115 – 122, 2014. [2] z. yuan, l. yan, and z. ma, “structural similarity measure between uml class diagrams based on ucg,” requirements engineering, pp. 1–17, jun 2019. [online]. available: http://link.springer.com/10.1007/s00766-019-00317-w [3] l. montalvillo and o. díaz, “requirement-driven evolution in software product lines: a systematic mapping study,” journal of systems and software, vol. 122, 2016. [4] w. p. hui and w. m. n. w. zainon, “software requirement reuse model based on levenshtein distances,” journal of theoretical and applied information technology, vol. 95, no. 12, 2017. [5] a. buccella, a. cechich, m. arias, m. pol’la, m. d. s. doldan, and e. morsan, “towards systematic software reuse of gis: insights from a case study,” computers and geosciences, vol. 54, pp. 9–20, apr 2013. [6] j. parsons and c. saunders, “cognitive heuristics in software engineering: applying and extending anchoring and adjustment to artifact reuse,” ieee transactions on software engineering, vol. 30, no. 12, pp. 873–888, dec 2004. [7] j. l. barros-justo, f. b. benitti, and s. matalonga, “trends in software reuse research: a tertiary study,” computer standards and interfaces, vol. 66, 2019. [8] r. capilla, b. gallina, and c. cetina englada, “the new era of software reuse,” pp. 1–2, 2019. [9] m. marques, j. simmonds, p. o. rossel, and m. c. bastarrica, “software product line evolution: a systematic literature review,” 2019. [10] m. irshad, k. petersen, and s. poulding, “a systematic literature review of software requirements reuse approaches,” 2018. [11] m. arias, a. buccella, and a. cechich, “a framework for managing requirements of software product lines,” electronic notes in theoretical computer science, vol. 339, 2018. [12] m. a. saied, a. ouni, h. sahraoui, r. g. kula, k. inoue, and d. lo, “improving reusability of software libraries through usage pattern mining,” journal of systems and software, vol. 145, 2018. 99 lontar komputer vol. 11, no. 2 august 2020 doi : 10.24843/lkjiti.2020.v11.i02.p03 accredited b by ristekdikti decree no. 51/e/kpt/2017 p-issn 2088-1541 e-issn 2541-5832 [13] n. ali, h. daneth, and j. e. hong, “a hybrid devops process supporting software reuse: a pilot project,” journal of software: evolution and process, 2020. [14] m. song and e. tilevich, “reusing metadata across components, applications, and languages,” science of computer programming, vol. 98, 2015. [15] m. stephan and j. r. cordy, “a survey of model comparison approaches and applications,” in proceedings of the 1st international conference on model-driven engineering and software development modelsward 2013, 2013. [16] r. fauzan, d. siahaan, s. rochimah, and e. triandini, “use case diagram similarity measurement: a new approach,” in 2019 12th international conference on information communication technology and system (icts). ieee, 2019, pp. 3–7. [17] e. triandini, r. fauzan, d. o. siahaan, and s. rochimah, “sequence diagram similarity measurement: a different approach,” in 2019 16th international joint conference on computer science and software engineering (jcsse). ieee, jul 2019, pp. 348–351. [online]. available: https://ieeexplore.ieee.org/document/8864207/ [18] j. su and j. bao, “measuring uml model similarity,” proceedings of the 7th international conference on software paradigm trends, pp. 319–323, 2012. [19] m. a.-r. m. al-khiaty and m. ahmed, “similarity assessment of uml class diagrams using simulated annealing,” in 5th international conference on software engineering and service science. beijing: ieee comput. soc, 2014, pp. 19–23. [online]. available: https://ieeexplore.ieee.org/document/6933505 [20] b. bonilla-morales, s. crespo, and c. clunie, “reuse of use cases diagrams: an approach based on ontologies and semantic web technologies,” vol. 9, no. 1, pp. 24–29, 2012. [21] d. siahaan, y. desnelita, gustientiedina, and sunarti, “structural and semantic similarity measurement of uml sequence diagrams,” in 11th international conference on information & communication technology and system (icts). ieee, oct 2017, pp. 227–234. [online]. available: http://ieeexplore.ieee.org/document/8265675/ [22] s. bougleux, l. brun, v. carletti, p. foggia, b. gaüzère, and m. vento, “graph edit distance as a quadratic assignment problem,” pattern recognition letters, vol. 87, 2017. [23] m. a.-r. al-khiaty and m. ahmed, “uml class diagrams: similarity aspects and matching,” lecture notes on software engineering, vol. 4, no. 1, pp. 41–47, 2016. [24] c. zhao and s. sahni, “string correction using the damerau-levenshtein distance,” bmc bioinformatics, vol. 20, 2019. [25] r. fauzan, d. siahaan, s. rochimah, and e. triandini, “class diagram similarity measurement: a different approach,” in 2018 3rd international conference on information technology, information system and electrical engineering (icitisee). ieee, 2018, pp. 215–219. 100 lontar template lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 62 qsar study for prediction of hiv-1 protease inhibitor using the gravitational search algorithm–neural network (gsa-nn) methods isman kurniawana1,b1, reina wardhania2, maya rosalindab2, nurul ikhsana3 aschool of computing, telkom university terusan buah batu, bandung, 40257, indonesia 1ismankrn@telkomuniversity.ac.id (corresponding author) 2wardhanireina@student.telkomuniversity.ac.id 3ikhsan@telkomuniversity.ac.id bresearch center of human centric engineering, telkom university terusan buah batu, bandung, 40257, indonesia 1ismankrn@telkomuniversity.ac.id 2mayarosalinda@student.telkomuniversity.ac.id abstract human immunodeficiency virus (hiv) is a virus that infects an immune cell and makes the patient more susceptible to infections and other diseases. hiv is also a factor that leads to acquired immune deficiency syndrome (aids) disease. the active target that is usually used in the treatment of hiv is hiv-1 protease. combining hiv-1 protease inhibitors and reversetranscriptase inhibitors in highly active antiretroviral therapy (haart) is typically used to treat this virus. however, this treatment can only reduce the viral load, restore some parts of the immune system, and failed to overcome the drug resistance. this study aimed to build a qsar model for predicting hiv-1 protease inhibitor activity using the gravitational search algorithm-neural network (gsa-nn) method. the gsa method is used to select molecular descriptors, while nn was used to develop the prediction model. the improvement of model performance was found after performing the hyperparameter tuning procedure. the validation results show that model 3, containing seven descriptors, shows the best performance indicated by the coefficient of determination (r2) and cross-validation coefficient of determination (q2) values. we found that the value of r2 for train and test data are 0.84 and 0.82, respectively, and the value of q2 is 0.81. keywords: hiv-1 protease inhibitors, aids, quantitative structure-activity relationship (qsar), gravitational search algorithm (gsa), neural network (nn). 1. introduction human immunodeficiency virus (hiv) is a virus that infects cells and causes the patient to be more susceptible to infections and other diseases [1]. hiv is also a factor that leads to acquired immune deficiency syndrome (aids). this virus has two main species, i.e., hiv-1 and hiv-2. the hiv-1 was first found in chimpanzees and gorillas that lived in west africa, while the hiv-2 was first found in mangabey primates that also lived in west africa [2]. who reported around 770 thousand deaths by hiv happened in 2018 [3]. hiv spreads through direct contact with people via fluid media, such as sharing injecting drug equipment. regarding the spread of hiv, several efforts have been made to develop therapies by using hiv1 antiretrovirals as the target. the knowledge about the role of various components in the hiv-1 life cycle can assist the development of new drug candidates. one of the active targets usually used in the development is the hiv-1 protease enzyme [4]. this enzyme is essential in the assembly and maturation of virions [5]. therefore, aspartic proteinase from hiv-1 is commonly used as a target for aids treatment. many drug candidates are derived by use aspartic proteases as the target. several available licensed drugs have been used as hiv-1 protease inhibitors, such as ritonavir, indinavir, and saquinavir [4]. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 63 the main problem in hiv-1 drug development is the virus's resistance against the drugs due to the mutation process [6]. therefore, researchers are still trying to design new drugs with an excellent ability to interact with the primary chain residues of the virus. thus the effects of mutations can be avoided. the current effective antiretroviral therapy is highly active antiretroviral therapy (haart) extensively applied for hiv treatment [4]. this therapy combines the utilization of reverse-transcriptase inhibitors and protease inhibitors to overcome drug resistance. regarding the resistance problem, further laboratory investigation of the activity of hiv-1 protease inhibitors is necessary. however, the examination of the drug activity takes a long time and high cost [7]. to overcome this problem, an alternative method is required to predict the drug activity before laboratory testing. the alternative method to predict the activity is the quantitative structure-activity relationship (qsar) method. the qsar method establishes a correlation between the molecular structure and its activity [8]. using a set of molecular descriptors as an input, qsar can predict hiv-1 protease inhibitor's activity. qsar study has been utilized to predict the activity of the inhibitor in several cases of the disease [9]–[13]. several qsar studies have been conducted in predicting hiv-1 protease inhibitor activity. in 2011, ravichandran and coworkers performed a qsar study in predicting the activity of hiv-1 protease inhibitors of 6-dihydropyran-2-1 and 4-hydroxy-5 using multiple linear regression (mlr). as a result, they obtain a model with the values of correlation coefficient (r), and cross-validated squared correlation coefficient (q2) are 0.875 and 0.707, respectively [9]. in 2012, nallusamy and coworkers conducted a qsar study to predict 99 hiv-1 protease inhibitors using a non-linearly transformed descriptors method. these studies concluded that descriptors' transformation could make the qsar model's performance better [15]. in 2015, mohammad and coworkers conducted a study on applying the hybrid of qsar-docking using mlr and the least-square support vector machine (ls-svm) to predict the activity of hiv1 protease inhibitors. the validation parameters show that ls-svm gives a better performance compare to mlr, with the value of root mean square error (rmse) and correlation coefficient (r) of ls-svm are 0.988 and 0.207, respectively [16]. in 2017, darnag and coworkers used svm, neural network, and mlr in predicting the activity of hiv-1 protease inhibitors. they found that the svm performs better than other methods according to the correlation coefficient (q2) and rmse [17]. in terms of the specific compound, the monte carlo optimized qsar study was performed by bhargavaa and coworkers to investigate the activity of hydroxyethylamines as hiv1 protease inhibitors with the result of r2 score of 0.774 [18]. this study aims to develop a qsar model to predict hydroxyethylamines activity as hiv-1 protease inhibitors better. the development of the qsar model is started by selecting features and followed by developing a prediction model. the feature selection was conducted using statistical analysis and gravitational search algorithm (gsa), while the prediction model was developed by utilizing an artificial neural network (ann). the ann method, commonly used in qsar studies, was utilized due to its ability to recognize a complex relationship between descriptor and activity [19]–[21]. the gsa was chosen because of the ability of the method to select a set of appropriate descriptors [22]. 2. material and methods 2.1. data preparation the compounds used in this study were 140 compounds of hiv1 protease inhibitor [23], in which the structure and inhibitor activity were provided in supporting information. the 2d structure of those compounds was generated using the marvin sketch program and then modified to 3 dimensions using the open babel program [24]. after that, 2904 molecular descriptors were computed using the padel and mordred programs [25], [26]. for the development of the model, the variable inhibition constant (ki) is used as a target variable. the ki value is converted to pki to obtain a smaller range of the data. finally, the data is randomly split into training data and test data with a ratio of 4:1. 2.2. statistical analysis-based descriptor selection from 2904 descriptors, molecular descriptors were selected using two methods, i.e., statistical analysis and gravitational search algorithm (gsa). each descriptor represents the electrostatic lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 64 properties, topology, and molecular structure of each compound. the selection of the descriptors begins by removing the descriptors which zero variance. furthermore, pearson correlation analysis is conducted to calculate the correlation coefficient between descriptor and target. the descriptors that have a weak correlation (correlation coefficient < 0.2) to the target and have a strong correlation (correlation coefficient > 0.8) to other descriptors were deleted. the selected descriptor will be further reduced by using gsa. 2.3. gravitational search algorithm gravity is known as one of the fundamental interactions of nature, together with the strong force, electromagnetism, and the weak force. the notion that regulating gravity is related to mass objects attracts each other [27]. newton's law of gravitation point out the attraction among particles with a force where the magnitude is inversely proportional to the distance and directly proportional to the masses [28]. based on the definition, rashedi and coworkers introduced gsa [29]. the single agent in the gsa is treated as an object with mass. each agent has four properties, i.e., position, the mass of inertia, passive gravitational mass, and active gravitational mass. the mass position corresponds to the problem solution. the values of gravity and inertia are defined by using the fitness function [30]. the basic principle of gsa is summarized as follows [29]. first, the initial position of the agent is determined randomly and expressed as: 𝑋𝑖 = (𝑋𝑖 1, … , 𝑋𝑖 𝑑 , … , 𝑋𝑖 𝑛) , 𝑖 = 1,2, … , n (1) where 𝑋𝑖 𝑑 represents the position of agent of 𝑖 on the dimension 𝑑, while 𝑛 represents the search space dimension, and n represents the number of agents. second, the gravitational force at a particular time (t), working on mass 𝑖 of mass 𝑗 is formulated as: 𝐹𝑖𝑗 𝑑 (𝑡) = 𝐺(𝑡) 𝑀𝑝𝑖(𝑡) . 𝑀𝑎𝑗(𝑡) 𝑅𝑖𝑗(𝑡) + 𝜀 (𝑋𝑗 𝑑 (𝑡) − 𝑋𝑖 𝑑 (𝑡)) (2) where 𝐹𝑖𝑗 𝑑 (𝑡) means the gravitational force of agent𝑖 against agent 𝑗, maj represents the active gravitational mass of agent 𝑗, and mpi represents the passive gravitational mass of agent 𝑖. meanwhile, g(t) represents the gravitational constant at time 𝑡, ε is a small constant, and rij(t) is the euclidian distance between the agents 𝑖 and 𝑗. third, the acceleration of each agent is calculated by using the total force working on the agent. the formulation of the total force is expressed as: 𝐹𝑖 𝑑 (𝑡) = ∑ 𝑟𝑎𝑛𝑑𝑗 𝑁 𝑗=1,𝑗≠𝑖 𝐹𝑖𝑗 𝑑 (𝑡) (3) where 𝐹𝑖 𝑑 represents the total force of agent 𝑖 on dimension 𝑑, while randj represents a random number with the value lies between 0 and 1. then, the agent acceleration is calculated as: 𝑎𝑖 𝑑 = 𝐹𝑖 𝑑 (𝑡) 𝑀𝑖𝑖(𝑡) (4) where 𝑎𝑖 𝑑 represents the acceleration of agent 𝑖 on dimension 𝑑, while 𝑀𝑖𝑖 means the inertia mass from agent 𝑖. fourth, the agent velocity is calculated as a function of the previous velocity and acceleration. finally, the velocity is used to calculate the agent's new position. thus, the new velocity and the new position is formulated as: 𝑉𝑖 𝑑 (𝑡 + 1) = 𝑟𝑎𝑛𝑑𝑖 × 𝑉𝑖 𝑑 (𝑡) + 𝑎𝑖 𝑑 (𝑡) (5) 𝑋𝑖 𝑑 (𝑡 + 1) = 𝑋𝑖 𝑑 (𝑡) + 𝑉𝑖 𝑑 (𝑡 + 1) (6) lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 65 where 𝑉𝑖 𝑑 (𝑡) and 𝑋𝑖 𝑑 (𝑡) represent velocity and position of 𝑖-th agent on the 𝑑-th dimension at a time 𝑡, while rand𝑖 represents a uniform random number with the interval of [0,1]. the gravitational constant, g, is defined before the iteration and decreases over time to lead the searching of accuracy. the g constant is formulated as an initial value function of gravitational constant (g0) and the total iterations (t): 𝐺(𝑡) = 𝐺0𝑒 −𝛼 𝑡 𝑇 (7) gravitational mass and inertia are computed according to the fitness values. the heavier the mass means, the more efficient the agents. this implies that the better agent will more attract against other agents and run slower. by using the assumption of the gravitational mass and inertia equivalence, the mass values are computed by using a fitness map. then the gravitational mass and inertia updated as follow: 𝑀𝑎𝑖 = 𝑀𝑝𝑖 = 𝑀𝑖𝑖 = 𝑀𝑖 , 𝑖 = 1,2, … , n (8) 𝑚𝑖 (𝑡) = 𝑓𝑖𝑡𝑛𝑒𝑠𝑠𝑖(𝑡)− 𝑓𝑖𝑡𝑤𝑜𝑟𝑠𝑡(𝑡) 𝑓𝑖𝑡𝑏𝑒𝑠𝑡(𝑡)−𝑓𝑖𝑡𝑤𝑜𝑟𝑠𝑡(𝑡) (9) 𝑀𝑖 (𝑡) = 𝑚𝑖(𝑡) ∑ 𝑚𝑗(𝑡) 𝑁 𝑗=1 (10) 𝑓𝑖𝑡𝑏𝑒𝑠𝑡(𝑡) = max (𝑓𝑖𝑡𝑛𝑒𝑠𝑠𝑗 (𝑡)) , 𝑗𝜀{1,2,3, … 𝑁} (11) 𝑓𝑖𝑡𝑤𝑜𝑟𝑠𝑡(𝑡) = 𝑚𝑖𝑛 (𝑓𝑖𝑡𝑛𝑒𝑠𝑠𝑗 (𝑡)) , 𝑗𝜀{1,2,3, … 𝑁} (12) to improve the performance of gsa, a kbest agent parameter is used. kbest values is a time function in which the value will decrease over time. thus, the value of kbest determine the number of agents that will be considered to have an impact when the total force of an agent is updated as follow: 𝐹𝑖 𝑑 (𝑡) = ∑ 𝑟𝑎𝑛𝑑𝑗 𝑁 𝑗є𝐾𝑏𝑒𝑠𝑡,𝑗≠𝑖 𝐹𝑖𝑗 𝑑 (𝑡) (13) generally, the workflow of the gsa is provided in figure 1. firstly, we defined the initial population and generated a series of solutions represented by an agent. then, the fitness value for each agent is calculated according to a particular fitness function. the parameter value of gravitational constant (g), best and worst agent are updated according to the fitness value. then, we calculate the value of gravitational mass (m) and acceleration (a) by using equations (10) and (4). finally, we updated the value of velocity (v) and position (x) according to equations (5) and (6). the process will be iterated until the end criteria have been reached. to perform gsa in feature selection, we defined the default parameter of gsa to acquire descriptors with satisfying results. the parameters of the gsa used in this study are provided in table 1. we used the initial value of α constant and gravitational constant (g0) as 0.5 and 100, respectively. those values will be used to calculate the gravitational constant (g). meanwhile, the number population is 25, and the process is iterated 400 times. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 66 figure 1. the workflow of the gravitational search algorithm table 1. gsa parameters [31] parameters values 𝐺0 100 α 0.5 iteration 500 population 25 2.4. artificial neural networks an artificial neural network (ann) is a kind of machine learning algorithm in which the workflow is inspired by the work of the nervous system. the smallest unit of the neural network is nerve cells (neurons). there are three basic sets of rules from the neuron model: multiplication, summation, and implementation of the activation function. the ann process started from the input received by the neuron and the weight value of each available information. after entering the neuron, the lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 67 input values will be added by a summing function. finally, the results will be converted by the activation function in each neuron. then, the output will be sent to all neurons associated with it through the output weights. this process will be repeated on subsequent inputs. mathematically, ann can be associated as a graph with neurons or nodes and synapses (edges). hence, ann operations are easily explained in linear algebraic notation. ann architectures, such as single-layer feedforward networks (ffn), multi-layer ffn, lattice structures, and recurrent networks. the depth of ann refers to the number of layers, while the width of ann refers to the number of units in the layer. for example, a single-layer ann is depicted in figure 2. 2.5. model development four ann models were constructed by utilizing a different number of descriptors. we defined model 1, model 2, model 3, and model 4 comprised of 5, 6, 7, and 8 molecular descriptors. gsa performed the selection of the descriptor for each model. to improve the model's performance, the neural network parameter was optimized using a hyperparameter tuning procedure. the tuning procedure was performed by using grid search 5-fold cross-validation. the ann parameters that are improved by the tuning scheme consist of hidden nodes, learning rates, momentum, and dropout rate. the range of the parameter values used in the turning scheme is provided in table 2. we consider finding the optimal hidden node from the range values of 5 to 10 since the hidden node number is less than the input size. the learning rate and momentum utilized by the optimization algorithm are tuned with the range of values are 0.001 to 0.1 for the learning rate and 0.0 to 0.1 for momentum. to reduce the architecture complexity, we adjusted the dropout rate by using the range values from 0.0 to 0.2. figure 2. single-layer neural network table 2. parameters for hyperparameter tuning parameters range hidden node [5, 6, 7, 8, 9, 10] learning rate [0.001, 0.01, 0.1] dropout rate [0.0, 0.1, 0.2] momentum [0.0, 0.1, 0.2] 2.6. model validation the performance of the models was determined by calculating several statistical parameters by using predicted values and the actual values. several statistical parameters that represent the quality of the models are formulated as [32]: lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 68 𝑟2 = 1 − [∑(𝑦𝑖− 𝑦𝑖)(ŷ𝑖 − ŷ̅)] 2 ∑(𝑦𝑖− �̅�) 2 × ∑(ŷ𝑖 − ŷ̅) 2 (14) 𝑄2 = 1 − ∑ (ŷ𝑖− 𝑦𝑖) 2𝑛 𝑖=1 ∑ (𝑦𝑖− �̅�) 2𝑛 𝑖=1 (15) 𝑟0 2 = 1 − ∑(𝑦𝑖−𝑘 ×ŷ𝑖) 2 ∑(𝑦𝑖− �̅�) 2 (16) 𝑘 = ∑(𝑦𝑖 × ŷ𝑖) ∑(ŷ𝑖) 2 (17) 𝑘′ = ∑(𝑦𝑖 × ŷ𝑖) ∑(𝑦𝑖) 2 (18) 𝑟′0 2 = 1 − ∑(ŷ𝑖−𝑘′ ×𝑦𝑖) 2 ∑(ŷ𝑖− ŷ̅) 2 (19) 𝑟𝑚 2 = 𝑟2 × (1 − √|𝑟2 − 𝑟0 2|) (20) 𝑟′𝑚 2 = 𝑟2 × (1 − √𝑟2 − 𝑟′0 2) (21) 𝑟𝑚 2̅̅ ̅ = (𝑟𝑚 2+ 𝑟′𝑚 2 ) 2 (22) 𝑟𝑚 2 = 𝑟2 (1 − √𝑟2 − 𝑟0 2) (23) 𝛥𝑟𝑚 2 = |𝑟𝑚 2 − 𝑟′𝑚 2 | (24) where ŷ and 𝑦 represent the predicted and observed values of pki, respectively, while ŷ̅ and �̅� represent the average predicted and observed values, respectively. the validity of a model is determined using the following threshold values [33]: 𝑟2 > 0.6 𝑄2 > 0.5 𝑟2−𝑟0 2 𝑟2 < 0.1 0.85 ≤ 𝑘 ≤ 1.15 or 0.85 ≤ 𝑘′ ≤ 1.15 |𝑟0 2 − 𝑟′0 2 | < 0.3 𝑟𝑚 2̅̅ ̅ > 0.5 𝛥𝑟𝑚 2 < 0.2 the applicability of the model against the train and test data was investigated by performing the applicability domain (ad) analysis. this analysis helps to interpret the model regarding the influence of descriptors in the prediction [34] and investigate the model's applicability against compounds in the data set. the ad definition is dependent on the model's descriptors and the experimental property [35]. ad is represented as a square region that determines the acceptability of data set prediction using the model [36]. in this study, ad was determined by using leverage approach, as formulated as: 𝐻 = 𝑋(𝑋𝑇 𝑋)−1𝑋𝑇 (25) where x represents a descriptor matrix, the score matrix is constructed using the values of selected descriptors. 3. results and discussions 3.1. molecular descriptor selection from 2904 descriptors, a set of molecular descriptors are selected by analyzing statistical parameter and performing gsa. in the first stage, the removal of descriptors with zero variance lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 69 decreased the descriptors numbers to 949. then, the descriptor selection by using pearson correlation analysis decreased to 61 of descriptors number. the selected molecular descriptors obtained from the statistical analysis are then further reduced by using gsa. in this stage, we performed four rounds of independent gsa to produce sets of the molecular descriptor with the number of the descriptors 5, 6, 7, and 8 used in four models, namely models 1, 2, 3, and 4, respectively. in the gsa process, the set of descriptors, or defined as a solution, was refined to obtain the solution with the lowest mean square error (mse) value. the profile of mse fluctuation during the iteration for four sets of descriptors was provided in figure 3. figure 3. the plot of mse during the iteration of gsa according to figure 3, we found that the mse of all models gradually decreases during the iteration. this indicates that the gsa scheme can solve with the lower mse in the following iteration. also, we found that the mse for model 4, which comprised 8 descriptors, decreases faster than others. the order of model descriptors with respect to the decrease level of mse is model 4, 3, 2, and 1, respectively. this points out that the descriptors number corresponds to the decreasing of mse value during the gsa process. we summarized the molecular descriptor obtained from gsa for each model in table 3, while the description of all selected descriptors is presented in supporting information [37], [38]. table 3. prediction models and their molecular descriptors model total features selected molecular descriptors 1 5 atsc1dv, atsc5d, smr_vsa5, aats6i.1, aatsc6m.1 2 6 atsc1dv, atsc1m.1, atsc3i.1, aatsc7m.1, aatsc8v.1, vr2_dzs 3 7 atsc1dv, aats6v.1, aats8i.1, aatsc3m.1, aatsc7m.1, aatsc8v.1, vr2_dzs 4 8 atsc1dv, atsc1d, atsc5pe, estate_vsa2, aatsc7m.1, aatsc8v.1, ve3_dzm.1, vr2_dzs the selected descriptor for all models found that the atsc1dv descriptor is chosen for all models. this implies that the correlation between the descriptors and target variables is quite strong. also, there are several selected descriptors in models 2 and 3, i.e., aatsc7m.1, aatsc8v.1, and vr2_dzs. those descriptors were also considered to influence the activity. by considering the type of selected descriptors, we found that almost all descriptors belong to the autocorrelation of lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 70 the topology structure. here, autocorrelation is interpreted as a descriptor topology that encodes the molecular structure and physicochemical properties. we analyzed the distribution of the selected descriptor by presenting the box plot of the normalized value of descriptors. the box plot of descriptors of models 1 and 2 is shown in figure 4, while models 3 and 4 are available in supporting information. as for model 1, the distribution of all descriptors is quite similar. atsc1dv parameter is found as the only descriptor without outliers data. as for model 2, the distribution of descriptor values varies with the range of vr2_dzs is the smallest one. also, many outliers data were found in aatsc7m.1, aatsc8v.1, and vr2_dzs. as for model 3, vr2_dzs is also the smallest range of descriptor values amongst the selected descriptors. also, there are several descriptors with outliers data. as for model 4, the distribution of descriptor values is quite similar to model 3 with one descriptor. (a) (b) figure 4. the boxplot analysis of descriptors used in (a) model 1 and (b) model 2 we also perform the correlation analysis to investigate the correlation between descriptors and target variables and amongst the descriptors. the correlation matrix of correlation is presented lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 71 as a correlation heatmap. for models 1 and 2, the heatmap is provided in figure 5, while the heatmap for other models is available in supporting information. (a) (b) figure 5. the heatmap analysis of descriptors used in (a) model 1 and (b) model 2 as for model 1, we found that atsc1dv and aatsc6m.1 descriptors show a high correlation to the target with the correlations of 0.52 and 0.53, respectively. the high correlation of atsc1dv to the target might be the reason for the appearance of the descriptor in all descriptor sets. meanwhile, smr_vsa5 shows the lowest correlation to the target with a correlation of 0.25. we also found a high correlation between atsc1dv and aats6i.1 descriptors with a correlation of 0.63. the high correlation corresponds to the similar type of those descriptors. as for model 2, the aatsc8v.1 descriptor shows the highest correlation to the target with a correlation of 0.65. meanwhile, atsc1m.1 and atsc3i.1 present the lowest correlation to the target with the of 0.24. a high correlation amongst the descriptor was found between atsc1dv and aatsc8v.1 with a correlation of 0.37. as for model 3, the descriptor with the highest correlation to the target is also aatsc8v.1, as also found in model 2. this indicates that the parameters give a significant contribution to the model. meanwhile, aats8i.1 shows the lowest correlation to the target with a correlation of 0.35. the high correlation amongst the descriptor found between atsc1dv and aats8i.1 with a correlation of 0.59. as for model 4, aatsc8v.1 also shows the highest correlation to the target, while ve3_dzm.1 shows the lowest correlation to the target with a correlation of -0.23. a high lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 72 correlation amongst the descriptors was found between atsc1dv and estate_vsa2, with a correlation of 0.41. we found that the correlation of atsc1dv with other selected topological descriptors is relatively high from the selected descriptor. this indicates that atsc1dv represents the characteristic of those topological descriptors. also, we found that aatsc8v.1 and ve3_dzm.1 show the highest and lowest correlation, respectively, to the target amongst the selected descriptor. 3.2. hyperparameter tuning the improvement of model performance was acquired by adjusting ann parameters through the hyperparameter tuning scheme. the best parameters for each model were obtained from the tuning process, in which the parameters are listed in table 4. we found that the optimized learning rate and momentum for all models are similar. meanwhile, the optimized value of the hidden node and dropout rate of model 1 and model 2 are similar. this indicates that the character of the ann architecture of both models is quite similar. however, we do not found any tendency regarding the optimized value of ann parameters. this is related to the random factor involved in the model development of ann. table 4. the best parameters of ann obtained from hyperparameter tuning parameters model 1 model 2 model 3 model 4 hidden node 9 9 8 10 momentum 0.0 0.0 0.0 0.0 learning rate 0.001 0.001 0.001 0.001 dropout rate 0.1 0.1 0.0 0.0 3.3. model validation we implemented the optimized parameter in developing the ann models to predicted pki values. the plot of predicted and experimental values of pki obtained by models 1 and 2 are presented in figure 6, while the plot of those obtained by models 3 and 4 are shown in supporting information. we found that most train and test data points of all models close to the straight reference line with low deviation. (a) lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 73 (b) figure 6. the plot of experimental pki vs. predicted pki obtained from (a) model 1 and (b) model 2 several validation parameters were calculated to determine the quality of models. first, we presented the validation parameter for the train and test set in tables 5 and 6, respectively. by comparing those values with the threshold, we found that all models are valid and acceptable. however, we also utilized the parameters to determine the best model. as for the validation of the train set, we found that model 3 gives the best performance with the r2 and q2 values are 0.84 and 0.81, respectively. meanwhile, the worst performance was obtained from model 2, with the f r2 and q2 values are 0.79 and 0.69, respectively. as for the validation of the test set, we found that model 3 and model 4 give the best performance with the values of r2 is 0.82. meanwhile, model 1 present the worst validation parameter with the value of r2 is 0.74. here, we consider the values of r2 of the train and test set and q2 of the train set to determine the best model. according to the consideration, we found that model 3 performs better than other models. this result indicates that the descriptors number used in model 3 is the most suitable for this case. also, the performance of model 3 is related to the quality of the descriptor combination obtained from the gsa scheme of feature selection. table 5. the validation parameters of train set parameter model 1 model 2 model 3 model 4 𝑟2 0.80 0.79 0.84 0.81 𝑄2 0.72 0.69 0.81 0.69 𝑘 1.0026 1.0027 1.0017 1.0006 (𝑟2 − 𝑟0 2) 𝑟2 0.005 0.004 0.0003 1.57e-5 |𝑟0 2 − 𝑟′0 2| 0.08 0.08 0.04 0.039 𝑟𝑚 2̅̅ ̅ 1.04 1.04 1.17 1.14 𝛥𝑟𝑚 2 0.19 0.19 0.15 0.16 lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 74 table 6. the validation parameters of test set parameter model 1 model 2 model 3 model 4 𝑟2 0.74 0.75 0.82 0.82 𝑘 1.0029 1.0029 1.0018 1.0039 (𝑟2 − 𝑟0 2) 𝑟2 0.034 0.017 0.002 0.004 |𝑟0 2 − 𝑟′0 2| 0.24 0.17 0.56 0.071 𝑟𝑚 2̅̅ ̅ 0.82 0.90 1.11 1.07 𝛥𝑟𝑚 2 0.28 0.24 0.17 0.17 furthermore, we investigated the applicability domain (ad) of each model by using a williams plot. the ad plot of models 1 and 2 are presented in figure 7, while the plot of models 3 and 4 are shown in supporting information. we found that h* values are different for each model. as for model 1, we found that only one train data lay outside the region with the standardized residual higher than the threshold. we also found that all of the test data lay inside the region. as for model 2, we found six train data points outside the region with leverage values higher than the h* value. however, there is no test data that is located outside the region. as for model 3, three train data points outside the region with the leverage values are higher than h*, while all test data lie inside the region. as for model 4, we found two train data points and one test data point outside the region. generally, even though several train data points are located outside the region, all models are still acceptable regarding the values of the validation parameter. also, since all test data points are found inside the region, except model 4, we can point out that the prediction of the test set is reliable. the acceptability of this model highlight the ability of this model in predicting the activity of hydroxyethylamines compound outside the train data. by comparing the r2 score, we highlight that model 3 performs better than the previous study [18]. (a) lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 75 (b) figure 7. the williams plot of applicability domain obtained from (a) model 1 and (b) model 2 4. conclusion based on the results, the descriptor selection used in the qsar model for predicting hiv-1 protease inhibitors activity was successfully performed by using the gravitational search algorithm method. the development of four qsar models was completed using the neural network method by varying the number of descriptors. in addition, a hyperparameter tuning scheme is used to improve the model performance. according to the results, all of the models are found to be valid and acceptable. we also found that model 3 that containing 7 descriptors give the most satisfying results with the values of r2 of the train and test set are 0.84 and 0.82, respectively, and the value of q2 of the train set is 0.81. the analysis regarding the applicability domain indicates that the prediction of the test set by using model 3 is reliable. since the validity of obtained qsar model has been confirmed, we can use the model in virtual screening to filter hiv-1 protease inhibitors from the drug database. references [1] hiv.gov, "what are hiv and aids?," hiv.gov, jun. 17, 2019. https://www.hiv.gov/hivbasics/overview/about-hiv-and-aids/what-are-hiv-and-aids (accessed sep. 05, 2019). [2] p. m. sharp and b. h. hahn, "origins of hiv and the aids pandemic," cold spring harbor perspectives medicine, vol. 1, pp. a006841–a006841, 2011, doi: 10.1101/cshperspect.a006841. [3] gho, "number of deaths due to hiv/aids estimates by who region," gho data repository. http://apps.who.int/gho/data/node.main.623?lang=en (accessed sep. 09, 2019). [4] y. wang, z. lv, and y. chu, "hiv protease inhibitors: a review of molecular selectivity and toxicity," hivaids research and palliative care, vol. 7, p. 95, 2015, doi: 10.2147/hiv.s79956. [5] a. brik and c.-h. wong, "hiv-1 protease: mechanism and drug discovery," organic & biomolecular chemistry, vol. 1, pp. 5–14, 2003, doi: 10.1039/b208248a. [6] hospital care for children, "8.2 pengobatan antiretroviral (antiretroviral therapy = art) ichrc," hospital care for children. http://www.ichrc.org/82-pengobatan-antiretroviralantiretroviral-therapy-art (accessed sep. 09, 2019). [7] e. estrada, "on the topological sub-structural molecular design (toss-mode) in qspr/qsar and drug design research," sar & qsar environmental research, vol. 11, pp. 55–73, 2000, doi: 10.1080/10629360008033229. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 76 [8] a. p. asmara, “studi qsar senyawa turunan triazolopiperazin amida sebagai inhibitor enzim dipeptidil peptidase-iv (dpp iv) menggunakan metode semiempirik am,” berkala ilmiah mipa, vol. 23, p. 9, 2013. [9] i. kurniawan, d. tarwidi, and jondri, "qsar modeling of ptp1b inhibitor by using genetic algorithm-neural network methods," journal of physics: conference series, vol. 1192, p. 012059, mar. 2019, doi: 10.1088/1742-6596/1192/1/012059. [10] i. kurniawan, m. rosalinda, and n. ikhsan, "implementation of ensemble methods on qsar study of ns3 inhibitor activity as anti-dengue agent," sar & qsar environmental research, vol. 31, no. 6, pp. 477–492, jun. 2020, doi: 10.1080/1062936x.2020.1773534. [11] i. kurniawan, m. s. fareza, and p. iswanto, "comfa, molecular docking and molecular dynamics studies on cycloguanil analogues as potent antimalarial agents," indonesian journal of chemistry, vol. 21, no. 1, art. no. 1, sep. 2020, doi: 10.22146/ijc.52388. [12] h. f. azmi, k. m. lhaksmana, and i. kurniawan, "qsar study of fusidic acid derivative as anti-malaria agents by using artificial neural network-genetic algorithm," in 2020 8th international conference on information and communication technology (icoict), jun. 2020, pp. 1–4, doi: 10.1109/icoict49345.2020.9166158. [13] f. rahman, k. m. lhaksmana, and i. kurniawan, "implementation of simulated annealingsupport vector machine on qsar study of fusidic acid derivatives as anti-malarial agent," in 2020 6th international conference on interactive digital media (icidm), dec. 2020, pp. 1–4, doi: 10.1109/icidm51048.2020.9339632. [14] v. ravichandran, v. k. mourya, and r. k. agrawal, "prediction of hiv-1 protease inhibitory activity of 4-hydroxy-5,6-dihydropyran-2-ones: qsar study," journal of enzyme inhibition and medicinal chemistry, vol. 26, pp. 288–294, 2011, doi: 10.3109/14756366.2010.496364. [15] n. saranya and s. selvaraj, "qsar studies on hiv-1 protease inhibitors using nonlinearly transformed descriptors," current computer-aided drug design, vol. 8, pp. 10– 49, 2012, doi: 10.2174/157340912799218534. [16] m. h. fatemi, a. heidari, and s. gharaghani, "qsar prediction of hiv-1 protease inhibitory activities using docking derived molecular descriptors," journal of theoretical biology, vol. 369, pp. 13–22, 2015, doi: 10.1016/j.jtbi.2015.01.008. [17] r. darnag, b. minaoui, and m. fakir, "qsar models for prediction study of hiv protease inhibitors using support vector machines, neural networks and multiple linear regression," arabian journal of chemistry, vol. 10, pp. s600–s608, 2017, doi: 10.1016/j.arabjc.2012.10.021. [18] s. bhargava, n. adhikari, s. a. amin, k. das, s. gayen, and t. jha, "hydroxyethylamine derivatives as hiv-1 protease inhibitors: a predictive qsar modeling study based on monte carlo optimization," sar & qsar environmental research, vol. 28, no. 12, pp. 973–990, dec. 2017, doi: 10.1080/1062936x.2017.1388281. [19] i. i. baskin, v. a. palyulin, and n. s. zefirov, "neural networks in building qsar models," in artificial neural networks, vol. 458, new jersey: humana press, 2006, pp. 133–154. [20] r. guha and p. c. jurs, "interpreting computational neural network qsar models: a measure of descriptor importance," journal of chemical information and modeling, vol. 45, pp. 800–806, 2005, doi: 10.1021/ci050022a. [21] a.-l. milac, s. avram, and a.-j. petrescu, "evaluation of a neural networks qsar method based on ligand representation using substituent descriptors," journal of molecular graphics and modelling, vol. 25, pp. 37–45, 2006, doi: 10.1016/j.jmgm.2005.09.014. [22] s. nagpal, s. arora, s. dey, and shreya, "feature selection using gravitational search algorithm for biomedical data," procedia computer science, vol. 115, pp. 258–265, 2017, doi: 10.1016/j.procs.2017.09.133. [23] s. a. amin, n. adhikari, s. bhargava, t. jha, and s. gayen, "structural exploration of hydroxyethylamines as hiv-1 protease inhibitors: new features identified," sar & qsar environmental research, vol. 29, pp. 385–408, 2018, doi: 10.1080/1062936x.2018.1447511. [24] n. m. o'boyle, m. banck, c. a. james, c. morley, t. vandermeersch, and g. r. hutchison, "open babel: an open chemical toolbox," journal of cheminformatics, vol. 3, p. 33, 2011, doi: 10.1186/1758-2946-3-33. [25] h. moriwaki, y.-s. tian, n. kawashita, and t. takagi, "mordred: a molecular descriptor calculator," journal of cheminformatics, vol. 10, p. 4, 2018, doi: 10.1186/s13321-018-0258y. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 77 [26] c. w. yap, "padel-descriptor: an open source software to calculate molecular descriptors and fingerprints," journal of computational chemistry, vol. 32, pp. 1466–1474, 2011, doi: 10.1002/jcc.21707. [27] j. p. papa et al., "feature selection through gravitational search algorithm," in 2011 ieee int conf acoust speech signal process (icassp), prague, czech republic, 2011, pp. 2052–2055, doi: 10.1109/icassp.2011.5946916. [28] "newton’s law of gravitation,” encyclopedia britannica. encyclopædia britannica, inc., accessed: dec. 08, 2019. [online]. available: https://www.britannica.com/science/newtonslaw-of-gravitation. [29] e. rashedi, h. nezamabadi-pour, and s. saryazdi, “gsa: a gravitational search algorithm,” information science, vol. 179, pp. 2232–2248, 2009, doi: 10.1016/j.ins.2009.03.004. [30] e. rashedi, h. nezamabadi-pour, and s. saryazdi, “bgsa: binary gravitational search algorithm,” natural computing, vol. 9, pp. 727–745, 2010, doi: 10.1007/s11047-009-91753. [31] a. m. al-fakih, z. y. algamal, m. h. lee, m. aziz, and h. t. m. ali, “a qsar model for predicting antidiabetic activity of dipeptidyl peptidase-iv inhibitors by enhanced binary gravitational search algorithm,” sar & qsar in environmental research, vol. 30, no. 6, pp. 403–416, jun. 2019, doi: 10.1080/1062936x.2019.1607899. [32] b. sepehri and r. ghavami, “design of new cd38 inhibitors based on comfa modeling and molecular docking analysis of 4‑amino-8-quinoline carboxamides and 2,4-diamino-8quinazoline carboxamides,” sar & qsar in environmental research, vol. 30, pp. 21–38, 2019, doi: 10.1080/1062936x.2018.1545695. [33] a. golbraikh and a. tropsha, “beware of q2!,” journal of molecular graphics and modelling, vol. 20, no. 4, pp. 269–276, jan. 2002, doi: 10.1016/s1093-3263(01)00123-1. [34] s. c. peter, j. k. dhanjal, v. malik, n. radhakrishnan, m. jayakanthan, and d. sundar, “quantitative structure-activity relationship (qsar): modeling approaches to biological applications,” in encyclopedia of bioinformatics and computational biology, elsevier, 2019, pp. 661–676. [35] j. f. aranda, d. e. bacelo, m. s. l. aparicio, m. a. ocsachoque, e. a. castro, and p. r. duchowicz, “predicting the bioconcentration factor through a conformation-independent qspr study,” sar & qsar in environmental research, vol. 28, pp. 749–763, 2017, doi: 10.1080/1062936x.2017.1377765. [36] p. gramatica, “principles of qsar models validation: internal and external,” qsar & combinatorial science, vol. 26, pp. 694–701, 2007, doi: 10.1002/qsar.200610151. [37] “descriptor list — mordred 1.2.1a1 documentation.” https://mordreddescriptor.github.io/documentation/master/descriptors.html (accessed jan. 08, 2020). [38] deduct, “database of endocrine disrupting chemicals and their toxicity profiles.” https://cb.imsc.res.in/deduct/descriptors/ejafhpfsbwo (accessed nov. 24, 2019). lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 301 factors influencing e-commerce adoption by smes indonesia: a conceptual model evi triandini1, arif djunaidy2, daniel siahaan3 1ph.d student department of information technology, institut teknologi sepuluh nopember 2departement of computer system, stmik stikom bali 3department of information technology, institut teknologi sepuluh nopember e-mail: evi@stikom-bali.ac.id; evi.triandini11@mhs.if.its.ac.id abstract e-commerce present different prospect to small and medium sized enterprises (smes) and provides benefits to smes. at this stage, there are a number of studies focused on smes in developed countries. for developing countries, the situation is quite different. furthermore, there is still limited number of researches on e-commerce adoption by smes in indonesia. smes play a vital role in reducing the rate of poverty and unemployment in indonesian economy. in 2009, micro, small and medium enterprises in indonesia consist of 52.7 million units or 99.99% of the total business enterprises, and employ 96.21 million people or 97% of the total labor forces. smes in indonesia faced internal and external problems. this study explores various factors influencing e-commerce adoption by smes in several countries and projecting it to indonesia. results shows that there are a number of perceived opportunities presented by e-commerce adoption in indonesia, i.e. extending market-reach and even global, increasing customer personalize services, and improving its competitiveness. furthermore, this study also proposes six potential factors influenced the adoption of e-commerce by smes in indonesia, i.e. perceived usefulness, perceived ease of use, relative advantage, perceived risk, perceived trust, and compatibility. keywords: e-commerce, adoption factors, small and medium-sized enterprises (smes), 1. introduction electronic commerce (e-commerce) is the process of buying, selling, transferring or exchanging products, services and/or information via computer networks, including the internet [1]. it has to do with how it is used by an organization in order to improve interaction quality with and between all its stakeholders [2]. e-commerce provides benefits to organizations, individual customers and society. several benefits of e-commerce are global out-reach, cost reduction, 24/7 business, rapid time-to-market, increased speed, improved customer services, improved information availability, just-in-time business decisions, and less importance of geography. e-commerce can be a benefit to organizations of all sizes, particularly to the small-business sector [1][2][3]. it is an effective instrument for administering business processes, specifically marketing and selling products and services around the world. it can bring about company’s advantages through aforementioned benefits which at the end expand market penetration, optimized operations, and ultimately boosting revenue through its careful and selective continuous implementation in firms [4]. small and medium-sized enterprises (smes) are those business organizations which is considerably small in scale, which often are family-run companies and lack of networking [5]. financial institutions tend to overlook their financial potential due to considerably their inadequate assets. in fact, experience shows that smes are the type of firms which has the strongest immune system against global financial turbulence and the most rapid growth. economist believes that they are one of the strong holes and pillar for industrial development and drives national and regional economic growth. thus, smes are more adaptable and elastic compare to their relatively larger firms when dealing with market changes or global economic turbulence. they are relatively faster in adopting opportunities for innovations and changes in market strategies. they have an ability to immediately recognize a change in the environment though they have insufficient resources. those are the key factors which ensure their strategic position in promoting economic development. mailto:evi.triandini11@mhs.if.its.ac.id lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 302 smes in indonesia are defined as independent productive enterprises, which are run by individuals or companies that are not subsidiaries that are owned, run or become both directly or indirectly part of a large enterprise [6]. according to law #20 of 2008 [7], the small business entity has the following criteria: (1) it's asset is between 50.000.000 and 500.000.000 (idr) including land and building, and (2) it's annual sales is between 300.000.000 and 2.500.000.000 (idr). the medium-sized business entity has the following criteria: (1) it's asset is between 500.000.000 and 10.000.000.000 (idr) including land and building, and (2) it's annual sales is between 2.500.000.000 and 50.000.000.000 (idr). furthermore, indonesian's central bureau of statistics (bps) provides a definition smes based on the number of employees, i.e. 5-19 persons for smallsized business and 20-99 persons for medium-sized businesses. 2. problem formulation the united states is known as the place where e-commerce was initially adopted. it is recorded that us is still number one adopters in term of participants. us cencus bureau shows that 1.9% of total retail sales in the 1st quarter of 2004 come from of business-to-consumer (b2c) ecommerce. this is almost double the amount of the same quarter in 2001. the yearly-based growth rate of b2c e-commerce retail of the 1st quarter of 2004 reached 28.1%, which is four times higher than the total retail, i.e. 8.8 % [8]. if we view a smaller scale of world economy power, such as asean, we can see that smes are becoming determinant factor of asean economy. they comprise more than 96% of all regional enterprises and between 50-95% of employment in many asean countries. in general, smes contribute 30-53% of gdp and 19-21% of regional export. smes absorb the largest part of local human resources. they are spread transversely along various economic sectors, but mostly products which are manufactured mainly by hand. geographically, they are evenly disbursed throughout rural and urban areas [6]. smes play a vital role in reducing the rate of poverty and unemployment in the indonesian economy. in 2009, micro, small and medium enterprises in indonesia comprise 52.7 million units or 99.99% of the total business enterprises, and employs 96.21 million people or 97% of the total labor forces. the smes share to gdp and export is 56.53% and 17.02%, respectively [6]. the crisis that occurred in indonesia since the middle of 1997 has yet to show signs of ending. one by one of large enterprises went bankrupt because of the price of imported raw material skyrocketing, rising debt service costs due to depreciating rupiah against us dollar. banking sector fails to play its role in providing financial support for industrial sector. many companies are no longer able to continue their business because of high interest rates. surprisingly, the majority of smes remains and even tends to grow. there are five reasons for smes to survive and tend to grow in number during the crisis. first, most of the smes produce consumer goods and services. second, the majority of smes do not get loans from the bank. third, smes have a strict specialization of production. fourth, smes have more options in procuring raw materials locally; as a result, production cost is low and efficiency is high. lastly, many formal sectors decided to reduce the number of their employees significantly as their company strategy during the major crisis. those unemployed workers immediately turn to informal sectors, which mostly forming small-sized businesses. this consequently increased the number of smes [9]. there are several problems facing smes in indonesia. problems that can be considered as internal problems are lack of capital and limited access to financial resources, the quality of human resources, lack of business networks and market penetration ability, mentality of sme entrepreneur and lack of transparency. problems which can be considered as external problems are limited facilities and infrastructure business, illegal fees, implication of regional autonomy, the implications of free traded, the nature of the product with a short resistance, limited market access, and limited access to information [10]. e-commerce could introduce different opportunities to smes and could assist this sector in deal with different technological and organizational inadequate [10]. smes may use e-commerce technologies to interact with customers and suppliers, gather market research data, advertise lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 303 goods and services, provide extensive and user-oriented information about goods and services, provide online transaction, as well as after sales support and assistance [11]. furthermore, previous research also indicates that smes can take advantage of e-commerce technologies in increasing their business [12]. thus, the use of e-commerce technologies enables smes to improve their efficiency and competitive position in the marketplace. the position of smes in developing countries in terms of e-commerce adoption is even lagging behind smes in developed world [13]. given the facts that smes in indonesian have several internal and external problems, their ability to survive indonesian economic crisis, and the opportunity to use e-commerce for improving the indonesian economy, a study to investigate potential factors that support successful e-commerce adoption by smes in indonesian is a need. the result could be used as a basis to develop a model for measuring e-commerce adoption by smes in indonesia and guidance on developing a framework for sme's commerce development, specifically in indonesia. a number of studies have been conducted in recent years concerning the adoption and use of ecommerce in smes. however, most of these studies focused on smes in developed countries. for developing countries, the situation is quite different [3]. furthermore, there is still limited number of researches on e-commerce adoption by smes in indonesian. our study investigates the opportunities provided by e-commerce adoption for smes in indonesia and potential factors that could influence e-commerce adoption by smes in indonesia. 3. problem solution 3.1. technology acceptance current studies try to model the interaction between factors which influence the adoption of information system at the organizational-level. they developed their model mainly based on theory of human behavior, like technology acceptance model (tam), theory of planned behavior (tpb), and innovation diffusion theory (idt). tam is motivated by ajzen and fishbein theory [14]. it relies mainly on the reasons for an action is taken and measures its relevant contributed reasons. tpb suggests how a person responds and react toward something or some event is determined mainly by his/her existing concept of mind about his/her environment. tam proposes two behavioral perceptions, i.e. perceived usefulness and perceived ease of use. these two factors can be modeled to explain the intention of users when adopting a technology.perceived usefulness indicates how strong a person belief that a system can accomplish what it is intended to do. perceived ease of use indicates how strong a person belief that a system can be operated with ease [15]. researches in the field of information technology and system had been working extensively with idt. diffusion is defined as a process to converse an novel idea, a practice, or an object throughout community over time. furthermore, innovation diffusion is defined as a time-phased process of communicating and implementing an innovation by individual or organization [14]. innovation diffusion theory has five significant characteristics: relative advantage, compatibility, complexity, trial ability, and observables [16]. these characteristics are used to explain the users' adoption and decision-making process. previous studies found that only relative advantage, compatibility, and complexity are consistently related to innovation adoption [17]. previous works on adoption model tried to extend tam and idt to in order to enhance the performance of both models to estimate the use and adoption of new technology [18][19][20]. according el-gohary [21], although the both models consider several important factors to measure the degree of technology acceptance and diffusion, there are other important factors that should be considered in order to grab the full scale and aspects of e-commerce adoption. this paper is intended to propose other relevant factors that could significantly determine the degree of e-commerce adoption by smes. lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 304 3.2. e-commerce adoption level rao et all, proposed five stages in e-commerce adoption by smes based on how the organization uses website to satisfy its business requirements [22]. first, non-adopter: companies do not have website. second, level-1: presence: in this stage, most companies use websites to display information about products and services, communication on the website is a one way (from seller only). third, level-2: portals: the portals stage use websites for two-way communication with customers and suppliers provide services such as ordering, product feedback, surveys and customization. fourth, level-3: transaction integrator: this stage use websites for two-way communication with customers and suppliers, provide services such as ordering, product feedback, surveys and customization, and online payment and / or an online order fulfillment. fifth, level-4: enterprise integration: provide facilities similar with level-3 and adding supplier relationship management (srm), customer relationship management (crm), and integration of internal processes with online booking and. knol and stroeken proposed six stages of information technology adoption by smes based on how organization uses it to satisfy its business requirements [23]. first, level-0: do not use it. second, level-1: provide functional integration based on internal operation. third, level-2: provide multifunctional integration based on external. fourth, level-3: provide process integration based on external. fifth, level-4: provide business process redesign. sixth, level-5: provide redefinition business scope helped by it. 3.3. e-commerce adoption in various countries it has been observed and demonstrated in many studies that smes have been actively looking for appropriate solutions and methods of adopting and integrating e-commerce into their business process. small business e-commerce is defined as the use of internet technology and application to support business activities of a small firm [10]. in order to acquire the various advantages of e-commerce, it is important to know about issue of evaluating e-commerce adoption. shaaban [24] identified three metric dimensions for evaluating e-commerce adoption, i.e. technical, organizational, and inter-organizational dimensions. the most important technical indicators for e-commerce adoption in the companies are compatibility and internet bandwidth and security. the most important organizational indicators for ecommerce adoption are leadership and management, organization culture, human resources, and products appearance. the most important inter-organizational indicators for e-commerce adoption are customer pressure, competitor, and supplier pressure [10]. a study on e-commerce adoption at new zealand shows that there are several determinants of e-commerce technologies adoption. first, external-email adoption was determined by how innovative a chief executive officer's (ceo's) is. second, intranet adoption was determined by the degree of ceo involvement in deciding how intranet should be adopted in the organization. third, extranet adoption was determined by the degree of relative advantage and competition that an organization would like to have or to be positioned. fourth, internet-edi adoption was determined by the degree of pressure from it supplier. fifth, web site adoption was determined by the intensity of information of products and how innovative the ceo is [11]. the literature study by fathian et al. [26] reveals that the scale of smes determines how the firm adopts an innovation. we can categorize the factors which influence acceptance and diffusion of e-commerce by smes into two big categories, i.e. external and internal categories [27]. factors which are categorized as external are communication and government support. factors which are categorized as internal are firm size, ceo support, readiness, organization culture, organization structure, and innovation. furthermore, insufficient knowledge and lack of experience are also considered barriers of e-commerce adoption. bhattacherjee and prekumar [28] found the two behavioral perceptions proposed in tam have a significant effect on the e-commerce, internet, and it adoption. furthermore, the factor of system lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 305 usefulness could lead to innovation adoption, while the factor of system convenience could only lead to practical use of the system, but not to continuous use of the system. suzanne et al [30] shows that the planned behaviour theory could be used to model intentions to adopt e-commerce of smes in chile. the result indicates that there are two factors, i.e. subjective norm and attitude, which positively and significantly predict user intentions. furthermore, it also indicates the same construct is not applied on perceived behaviour control. tan et al [31] note that the environmental factors have influenced positively e-commerce adoption in china. the central government proved a great attention and has been offering support in term of policy and extensive investment in supporting industries to facilitate e-commerce. however, the organization factors are inhibiting e-commerce adoption and diffusion. this study found that firms in china are lack of business and human resources. it also indicates a cultural issue as one of the problem that significantly worsen the fact that there is lack of internal trust and enterprisewide information sharing in china. bao and sun [4] proposed a conceptual model of factors affecting e-commerce adoption by smes in china based on literature review. the factors are organizational factors, managerial factors, environmental factors, and e-commerce technical factors. they proposed these factors after viewing e-commerce adoption as a technological innovation and the environment might affect the success of e-commerce adoption. the organisational factor is measured by innovation orientation, it resources, financial resources, and globalization level. the managerial factor is measured by decision maker support. the environmental factor is measured by competitive pressure and institutional pressure. the e-commerce technical factor is measured by perceived benefit, perceived complexity, and perceived risk. kurnia [32] found that perceived benefits, perceived organization resources and governance, perceived supporting services and perceived environmental pressure have different influences on the adoption of different e-commerce technologies. there are certain factors that determine smes' adoption of a specific e-commerce technology, which highlights the importance of these determinants to this specific technology. thus, to encourage a particular e-commerce technology adoption, it is important to understand what factors are relevant in order to devise a more appropriate strategy for the specific context. tung [14] conducted a study about an extension of tam model with idt by adopting user's trust as one of the factors in the adoption of the electronic logistic information system in hospital information systems (his) in the medical industry. this research combined innovation diffusion theory, technology acceptance model to propose a new hybrid technology acceptance model. the result indicated that compatibility, perceived usefulness, perceived ease of use and trust, all have a great positive influence on behavioral intention to use. 3.4. e-commerce adoption in indonesia several researches related with e-commerce adoption in indonesia was conducted. vidi [33] found that compatibility, top management support, organizational readiness, external pressure, and perceived benefits have significant positive effect to e-commerce adoption, and the adoption have significant positive effect to company’s performance. she used technology acceptance model (tam) to create an e-commerce adoption model which was applied to smes in indonesia. data was collected from nine big cities in indonesia, i.e. padang, jakarta, cirebon, yogyakarta, jepara, sidoarjo, denpasar, makassar, and balikpapan. hafied [34] note that smes have already starting to apply e-commerce adoption to maintain their business process. although the degree of adoption is different from one sme to another, it is still generally accepted that e-commerce adoption will bring positive impacts towards smes development. he also found that financing and customer service are the major driving factors in adopting e-commerce. lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 306 fathul [35] notes that in general, the adoption among smes in indonesia is still very low. it also occurs in many countries, especially developing countries [17]. it is not considered as strategic issues by most of smes. this is consistent with the results of the study sadowski, maitland and dongen [17] who found that the use of it is more opportunistic and not strategic. most of the smes in indonesia is still in level one, which is using it for the internal functional integrationoriented. a human resource capacity has been found as an inhibiting e-commerce adoption. furthermore, benefits that can not be perceived directly related to smes revenue is also a determinant of it adoptionthus, these facts should be considered when designing an ecommerce adoption framework for smes in indonesia [17]. research conducted by rahmana [36] found that the use of it by sme to the area of administration, product design, marketing, production processes and others. the internet technology is widely used for browsing, email and promotion trough firm's website. eva [37] conducted a study on the application of internet facilities (e-commerce services) for marketing smes products. five e-commerce services are communication interaction, access to information and data, transaction, remote control and decision-making, and application and other services. in general, adoption of business processes by smes is still relatively low. the total mean score is 1.88, which indicates that the adoptions of those e-commerce services have been acknowledge (awareness), but the acquired information about those services is still insufficient. this certainly could hinder the acceptance of e-commerce services as an innovation to the organization's business process and could threaten the successful of e-commerce adoption by the organization. sme practitioners perceive that the implementation of e-commerce to support the company's operation is quite useful, especially in processes, such as marketing products, handling product inventory, manufacturing processes, and up to procurement of materials. although the implementation of e-commerce can support the development of marketing of sme products, in practises, its implementations do not always run smoothly. users find a number of constraints, such as internet access take a long time, difficult to switch to transaction-based technology, and companies have traditionally preferred to transact. generally, smes are difficult to change from traditional purchasing, which is transactions done physically, into technology-based purchasing. they considered it as the highest constraint to e-commerce adoption [37]. govindaraju and chandra found that in general smes in indonesia which were participating in this study have strategic plans to adopt higher level of e-commerce, though majority of the firms currently still adopt e-commerce at the lower level. there were three significant factors as barriers of e-commerce adoption in indonesia smes. they were push force from internal and external environment, man from internal environment, and source of information from external environment [38]. eight essential variables have no significant influences as the barriers of e-commerce adoption by indonesian smes. therefore, these variables can be predicted as the factors that can support e-commerce adoption. these essential variables need to further analysis. eight variables which not significant i.e. financial, supply chain management, internet services, market, source of information, enterprises association, e-commerce popularity, security and political [38]. 3.5. factors influenced e-commerce adoption based on literature review above, in this paper, we proposed the factors influence e-commerce adoption by smes in indonesian, show in figure 1. six factors are perceived usefulness, perceived ease of use, relative advantage, perceived risk, perceived trust, compatibility. the factors are discussed separately. lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 307 figure 1. proposed factors affecting e-commerce adoption 3.3.1. perceived usefulness perceived usefulness is defined as the degree to which a person believes that by utilizing a feature or a system, one can improve one’s working quality, in term of process and product [39, 40]. experimental work done by davis et al [41] provide some empirical facts that the usefulness of a particular technology when it is adopted indeed increase organization’s productivity in performing the business process. 3.3.2. perceived ease of use perceived ease of use is defined as the degree of which a person believes that using a particular system would be effortless. this factor commonly represented as user friendliness, learning curve, and intuitive user interface. these quality attributes are common in software engineering and technology-usage settings and can be extensively used to ensure high user acceptance rate [15]. both perceived usefulness and ease of use are considered in this study because many researchers suggest that the technology acceptance model can provide baseline prediction on user acceptance of enterprise information technology systems. 3.3.3. relative advantage this factor is one the characteristics of the innovation diffusion theory which has meaning that innovation brings greater benefits to users than do other products [16]. in our study, we describe this factor in different meaning. we use relative advantage as a relative superiority of position or condition. 3.3.4. perceived risk risk is usually described in terms of the confidently allow somebody or something to belief about the possibility of gains and losses [42][43]. perceived risk is classified as the scale of gains and losses that one may expect with respect to achieving specific outcome [44]. just like in other domain, perceived risk tends to degrade one’s intentions in adopting technology for exchanging information and performing transactions [42]. 3.3.5. compatibility compatibility represents the compliance degree of an innovation with existing solution perceived by potential users [16]. we use the compatibility, which is predicted as one of the factors which influence e-commerce adoption. previous works indicate that compatibility has an influence on technology adoption perceived usefulness [17,45]. perceived ease of use perceived risk relative advantage perceived usefulness e-commerce adoption perceived trust compatibility lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 308 3.3.6. perceived trust trust is described as one’s complete confidence that a feature or system would deliver its functionality in expected quality and reliability [45]. trust is also described as one’s preference to rely on other party which one perceives to be reliable based on some past experience. trust is developed through time and manufactured using one’s capability, reliability and integrity [46]. distrust increases perceive risk and complexity of an e-commerce transaction. it lessens one’s expectation of expected outcome and increases doubt on the correctness of business processes. [47]. perceived trust refers to the degree of one's perception on technology solutions as an application of safe and reliable. [32]as already mentioned,trust plays a crucial role in e-commerce adoption. when adopter believes that customer distrust an e-commerce solution, than it influence the perceived usefulness of adopter to e-commerce. when customer is forced to use distrusted ecommerce solution, it decrease customer’s perspective on ease of use, compatibility, and advantage of the solution [47]. the measurement of the six factors will be conducted using multiple attributes, which made possible an attribute can be used to measure more than one factor. the measurement elements to be used as follow:  top management support refers to the key for companies that want to develop e-commerce, or in other words the development of trade electronic has to start from top-level manager or owner (surjadi, 2001 in [33]). commitment from top management is essential to support cultural change needed in management style, management result, changes in work practices and support the need for communication and information technology (blake, 1994 in ruppel and howard, 1998, in [33]).  cost leadership refers to the cost saving gained from the use of e-commerce. e-commerce could reduce the costs associated with processes related to e-commerce solution, such promotion, customer service, inbound logistic, and sales [48].  competitor/rivalry refers to the position of e-commerce capability of the firm compare to its competitor. as more competitors adopt ecommerce, the harder for the firm to gain competitive position in the industry. the wider the use of ecommerce in firm’s business processes, the higher the probability of the firm to gain competitive position in the industry.  reputation refers to perceive trust of customers to firm’s ecommerce solution [48].  government influence refers to the degree of involvement, support (in terms of incentives and regulations), pressure from the government [21].  national infrastructure refers to the existence of necessary and sufficient national infrastructure for e-commerce [21]. national infrastructure consists of telecommunication, regulation, human resource, and financial institution [49]. the cheaper the accessing cost, the higher the growth of e-commerce adoption.  organization size refers to the amount of qualified human resources owned by the firm. organization size is regularly considered as one of the factors of innovation adoption [50]  market refers to the geographical attributes of potential firm’s product or service buyers or users gained from the use of e-commerce. world wide web has played a major role in enabling market expansion of many modern enterprises. lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 309  product pricing refers to the ability to deliver a cheaper product or service through the use of e-commerce [48]. this is done by cutting the supply chain shorter which reducing the number of parties involved in delivering a product or service from provider to user.  organization cultural refers to the top managers' perception of e-commerce technologies and their perceptions of the availability or resources, rules and procedures within the organization. availability of it human resource (expertise) as well as web developers, content provider, it technician, customer service professionals also need to be considered in this factor. furthermore, availability of infrastructure (hardware), availability of information which is easy to be accessed valid and up-to-date, and availability of application to support implementation of e-commerce (software) will be considered too [21].  socio-cultural refers to the degree of positive or negative influence of existing cultural and social environment to the acceptance of e-commerce by individual users within the society. this element can be measured from the availability of it workers, penetration level of webenabled devices and communication devices [32]  time spent refers to the time required by user to accomplish certain functionality through an e-commerce. a number of metrics that are commonly used to measure time spent are order time, processing time, queuing time and payment time could reduced considerably [48].  delivery time refers to the time required to deliver a product or service from provider to user [48]. e-commerce is designed to reduce the delivery time. 4. conclusion and further research the smes can take advantage of e-commerce technologies in expanding their business [24]. thus, the use of e-commerce technologies enables smes to improve their efficiency and competitive position in the marketplace. based on our literature study on e-commerce adoption, we found that there are a number of perceived opportunities presented by e-commerce adoption in indonesia i.e. extending market-reach and even global, increasing customer personalize services, and improving its competitiveness. furthermore, we indicate six potential factors that influenced the adoption of e-commerce by smes in indonesia, i.e. perceived usefulness, perceived ease of use, relative advantage, perceived risk, perceived trust, and compatibility. these factors have been abstracted from more than 10 previous researches. this study is research in progress. our future work will focus on developing a model of e-commerce adoption by smes indonesian based on aforementioned factors. we also proposed the use of rao's e-commerce adoption stage model to provide a visual map of existing smes in indonesia. furthermore, this model describes the business process of e-commerce in each level. references: [1] turban, introduction to electronic commerce, pearson education, inc, 2009. [2] choong, y.l., model of factors influences on electronic commerce adoption and diffusion in small& medium-sized enterprises, [3] al-qirim, electronic commerce in small to medium-sized enterprises: frameworks, issues and implications, idea group publishing, 2004. [4] bao, j. & sun, x., a conceptual model of factors affecting e-commerce adoption by smes in china, international conference on management of e-commerce and e-government, 2010 [5] li, m., she, i., chin, t., david, s., &mei, c., effects of is characteristics on e-business succes factors of smalland medium-sized enterprises, computers in human behavior, 27 (2011), 2129-2140 . [6] directory of outstanding asean smes 2011, the asean secretariat, jakarta, 2011. [7] "undang-undang republik indonesia no 20 tahun 2008 tentang usaha mikro, kecil dan menengah", p.r. indonesia, ed.2009 [8] united nations conference on trade and development (unctad), e-commerce and development report 2004, retrieved 24 april 2012 . lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 310 [9] tiktik, s., usaha kecil menengah dan koperasi, working paper series no. 9 juni 2004, center for industry and sme studies,faculty of economics university of trisakti [10] nabeel, a., the adoption of ecommerce communications and applications technologies in small businesses in new zealand, electronic commerce research and applications, 6 (2007) 462-473. [11] al-qirim, n., electronic commerce in small to medium-sized enterprise: frameworks, issues and implications, idea group publishing, hershey, pa.: london, 2004. [12] doherty, n.f. and ellis-chadwick, f.e.(2003), the relationship between retailers' targeting and e-commerce strategies: an empirical analysis. internet research, 13(3), 2003, pp 17082 [13] kartiwi, m., case studies of e-commerce adoption in indonesian smes: the evaluation of strategic use. australasian journal of information systems, 14(1), 2006, pp.69-80 [14] tung, f.c., chang, s.c., chou, c.m., an extension of trust and tam model with idt in the adoption of the electronic logistics information system in his in the medical industry, international journal of medical informatics, 77 (2008) 324-335. [15] s. taylor, p.a. todd, understanding information technology usage: a test of competing models, information systems. research, 6(1995) 144-147 [16] e.m. rogers, the diffusion of innovation, 4th ed., free press, new york, 1995 [17] r. agarwal, j.a. prasad, conceptual and operational definition of personal innovativeness in the domain of information technology, information systems research, 9 (1998) 204-215 [18] al-gahtani, s.s., 2011. modelling the electronic transactions acceptance using an extended technology acceptance model. applied computing and informatics, 9(1), 47-77. [19] lee, h.h., & chang, e. (2011). consumer attitude toward online mass customization: an application of extended technology acceptance model. journal of computer mediated communication, 16(2), 171-200 [20] sundarraj, r.p., & manochehri, n. (2011). application of extended tam model for online banking adoption: a study at a gulf-region university. information resources management journal (irmj), 24(1), 1-13 [21] el-gohary, h., factor affecting e-marketing adoption and implementation in tourism firms: an empirial investigation of egyptian small tourism organisations, tourism management 33 (2012) 1256-1269 [22] rao, s.s., metts, g., & monge, c.m (2003). electronic commerce development in small and medium sized enterprise: a stage model and its implication. business process management journal, 9(1), 11-32. [23] knol, w. h. c., and stroeken, j. h. m. (2001) the diffusion and adoption of information technology in smalland medium-sized enterprises through it scenarios. technology analysis & strategic management, 13(2). [24] shaaban, e., a framework for evaluating electronic commerce adoption in iranian companies, international journal of information management 29 (2009) 27-36 [25] ka, y., doug, c., & alistair, r., the adoption of e-trade innovations by korean small and medium sized firms, technovation 29 (2009) 110-121. [26] fathian, m., akhavan, p., hoorali, m., 2008. e-readiness assessment of non-profit ict smes in a developing country: the case of iran. technovation 28 (9), 578-590 [27] choong, y.l., 2000. model of factors influences on electronic commerce adoption and diffusion in small-& medium-sized enterprises, school of information systems, curtin university of technology. [28] battacherjee, a., prekumar, g., 2004. understanding changes in belief and attitude toward information technology usage: a theoretical model and longitudinal test. mis quarterly, 28 (2), 229-254 [29] oh, k., cruickshank, d., anderson, a.r, 2009. the adoption of e-trade innovations by korean small and medium sized firms, technovation 29 (2009) 110-121.. [30] suzanne, a., elizabeth, g., & peter, p., predicting electronic commerce adoption in chilean smes, journal of business research 61 (2008) 697-705. [31] tan, j., tyler, k., manica, a., business-to-business adoption of ecommerce in china, information & management 44 (2007) 332-351. [32] kurnia, s., alzougool, b., ali, m. & alhashmi, s. m., adoption of electronic commerce technologies by smes in malaysia, proceedings of the 42nd hawaii international conference on system sciences, 2009. lontar komputer vol. 4 no. 3 desember 2013 issn: 2088-1541 311 [33] vidi, v., analysis of factors affecting the adoption of electronic comerce and company (study on small and medium company in indonesia), thesis of management magister program, universitas diponegoro, 2006. [34] hafied, n., adoption of e-commerce for small and medium enterprises: a case study of rural banks in the depok city, thesis program magister teknologi informasi, universitas indonesia, 2007. [35] fathul, w & lizda, i., information technology adoption by small and medium enterprises in indonesia, the national seminar on information technology application, 2007. [36] rahmana, a., the role of information tehcnology in improving competitiveness of small and medium enterprises, the national seminar on information technology application, 2009. [37] eva, a.m.s., persepsi penggunaan aplikasi internet untuk pemasaran produk usaha kecil menengah, the national seminar on information technology application, 2007 [38] govindaraju, r. and chandra, d.r., e-commerce adoption by indonesian small, medium, and micro enterprises (smmes): analysis of goals and barriers, ieee, 2011 [39] davis, f.d., 1998, perceived usefulness, perceives ease of use and user acceptance of information technology. mis quaterly 13(3), 319-339. [40] calisir and calisir, 2004. the relation of interface usability characteristics, perceived usefulness, and perceived ease of use to end-user satisfaction with enterprise resource planning (erp) systems. computers in human behavior, 20 (4), 505-515. [41] davis, f.d., bagozzi, r.p., warshaw, p.r., 1989. user acceptance of computer technology: comparison of two theoretical models. management science 35 (8), 982-1013. [42] pavlou, p., 2003. consumer acceptance of electronic commerce: integrating trust and risk with the technology acceptance model. international journal of electronic commerce 7 (3), 69–103. [43] warkentin, m., gefen, d., pavlou, p., rose, g., 2002. encouraging citizen adoption of egovernment by building trust. electronic markets 12 (3), 157–162. [44] wu, j.h., & wang, s.c., what drives mobile commerce? an empirical evaluation of the revised technology acceptance model. information & management, 42(5), 719-729 [45] e.garbarino, m.s. johnson, the different role of satisfaction, trust and commitment customer relationships, j.mark. 63 (1999) 70-87. [46] s. grabner-kraeuter, the role of consumers' trust in online-shopping, journal business ethic 39 (2002) 43-50 [47] d. gefen, e. karahanna, d. straub¸trust and tam in online shopping: an integrated model, mis quart. 27 (2003) 51-90 [48] quaddus, m., & achjari, d., 2005. a model for electronic commerce success, telecommunications policy 29(2005) 127-152. [49] molla, a. exploring the reality of ecommerce benefits among businesses in a developing country, university of manchester, precinct centre, manchester, 2005 [50] zhu, k., kraemer, k.l., e-commerce metrics for et-enhanced organizations: assessing the value of e-commerce to firm performance in the manufacturing sector, information systems research 13(3) , 2002, pp. 275-295 panduan lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p01 e-issn 2541-5832 132 perancangan sistem informasi parkir dengan wifi berbasis arduino novi yuliantoa1, fahraini bacharuddina2 auniversitas mercu buana jl. meruya selatan no.1, dki jakarta, indonesia 1yulianto.on24@gmail.com 2fahraini@gmail.com abstrak sekarang ini kebutuhan akan akses informasi sangat penting karena informasi yang diperoleh tersebut dapat menentukan atau memberikan kenyamanan dan kemudahan dalam melakukan aktivitas sehari-hari. salah satu contohnya adalah dengan menggunakan gadget seperti smartphone, notebook, tablet dan yang lain-lain, kita dapat mudah mengetahui informasi yang ada secara langsung tanpa harus datang ke tempat tersebut. sistem ini bertujuan merancang sistem informasi di tempat parkir. teknologi ini dapat memberikan gambaran mengenai jumlah ketersediaan tempat parkir yang sudah terisi maupun yang masih kosong. dengan mengakses ip address yang diberikan sebelumnya, maka kita akan mengetahui ketersediaan tempat parkir secara langsung. dari hasil pengujian dapat dikatakan bahwa sistem ini memiliki kelebihan mudah digunakan, penerapan yang sederhana dan dapat membantu meningkatkan kenyamanan/kemudahan bagi pengguna tempat parkir. namun juga sistem ini memiliki kelemahan yaitu web server yang digunakan memiliki memori yang sangat kecil sehingga tidak dapat di akses oleh banyak pengguna dalam waktu bersamaan. kata kunci: tempat, parkir, otomatis, web server, microcontroller, wido abstract now the need for access to information is very important because the information obtained can specify or provide comfort and ease in performing daily activities. one example is to use gadgets such as smartphones, notebooks, tablets and others, we can easily find out information directly without having to come to the venue. this system aims to design information systems in the parking lot. this technology can provide an idea of the amount of available parking spots has been filled or empty. by accessing the ip address given earlier, then we will know the availability of parking space directly. from the test results, it can be said that this system has the advantages of easy to use, the application is simple and can help improve the comfort / convenience for users of the car park. but this system also has the disadvantage of a webserver which is used has a very small memory that can not be accessed by many concurrent users in one time. keywords: automatic, parking, webserver, microcontroller, wido 1. pendahuluan di masa depan diperkirakan segala sesuatunya terhubung secara elektronik. manusia yang terhubung dengan manusia lainnya melalui sarana internet seperti facebook, path dan lain-lain. selain itu manusia juga terhubung dengan seluruh peralatan elektroniknya via gadget seperti smartphone, notebook, tablet, dan yang lain-lain. salah satu masalah yang ada dalam kehidupan manusia modern adalah adanya kebutuhan akan tempat parkir otomatis yang dapat memberikan informasi mengenai keadaan tempat parkir di suatu gedung dengan bantuan internet. mailto:yulianto.on24@gmail.com mailto:fahraini@gmail.com lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p01 e-issn 2541-5832 133 tidak mudah mencari informasi ruangan parkir yang kosong pada suatu area parkir tersebut di suatu pusat perbelanjaan atau perkantoran, sering kali pengunjung atau karyawan mengalami kesulitan ketika hendak memarkirkan kendaraannya. penyebabnya adalah kekurangan informasi area mana yang masih kosong ataupun yang sudah terisi. hal ini mengakibatkan pengunjung berputar-putar terdahulu untuk mendapatkan area parkir yang kosong sehingga waktu berkunjung menjadi berkurang, kenyamanan menjadi berkurang, menghabiskan energi dan bahan bakar. dalam penelitian ini penulis berusaha untuk mengembangkan suatu sistem yang secara otomatis dapat melakukan monitoring untuk memastikan ketersediaan tempat parkir di suatu gedung via web internet. pengembangan teknologi tempat parkir otomatis banyak yang telah di kembangkan, namun yang membuat perbedaan adalah teknologi yang digunakan pada penelitian ini. teknologi otomatisasi yang digunakan adalah menggunakan microcontroller dengan platform arduino uno yang berbasis open source [1]. dengan menggunakan teknologi ini keadaan tempat parkir dapat dengan mudah di-monitoring baik jumlah tempat parkir yang tersedia maupun posisi tempat parkir yang masih kosong. 2. metodologi penelitian sistem yang telah dibangun, secara garis besar terdiri dari blok rangkaian seperti terlihat pada gambar di bawah ini: gambar 1. blok rangkaian wireless microcontoller web server secara garis besar, cara kerja sistem ini adalah: a. wifi infrastructure akan menghasilkan jaringan wifi dengan sistem dhcp, yang akan memudahkan sebuah perangkat baru terhubung dengan pengaturan ip otomatis. b. module sensor optocoupler berfungsi untuk dapat memberikan informasi mengenai kondisi parkiran mobil, apakah terisi atau masih kosong [2]. c. smartphone pengguna akan masuk ke dalam jaringan infrastructure dan mendapatkan ip otomatis, kemudian dengan mengetik alamat web server microcontroller wido melalui browser, pengguna mampu untuk melihat keadaan tempat parkiran mobil. d. microcontroller wido akan menghasilkan output berupa web server sebagai interface pengguna, kemudian microcontroller juga akan memproses data tempat parkiran mobil [3]. e. pada web server microcontroller wido akan mengubah data digital mengenai kondisi suhu menjadi objek / tulisan, dimana objek tersebut merupakan sesuatu yang dapat dimengerti oleh manusia yang menerangkan ada atau tidaknya mobil yang sedang berada di parkiran tersebut. f. pengguna akan melakukan akses sistem parkir dengan melalui cloud internet. cloud internet adalah jaringan internet dari seluruh dunia, dinamakan cloud karena pengguna dapat melakukan akses ke sistem parkir ini tanpa diketahui dimana posisinya. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p01 e-issn 2541-5832 134 3. kajian pustaka 3.1. microcontroller wido microcontroller wido adalah sebuah microcontroller pengembangan berbasis arduino leonardo. microcontroller wido dibuat sebagai solusi dari mahalnya sebuah sistem wireless berbasis microcontroller arduino. dengan menggunakan microcontroller wido biaya yang dikeluarkan untuk membangun sistem wifi berbasis microcontroller sangat murah, hanya setengah dari biaya yang dikeluarkan apabila membangun sistem wifi dengan menggunakan microcontroller arduino uno dan wifi shield. gambar 2. microcontroller wido gambar 3. simbol optocoupler microcontroller ini merupakan pengembangan dari microcontroller arduino leonardo, namun yang berbeda pada microcontroller ini memiliki tambahan yaitu berupa fitur sdcard dan wifi. pada microcontroller arduino uno memiliki 2 buah chipset yang digunakan sebagai otak kerja platform tersebut. beberapa chipset pada microcontroller ini adalah: a. chipset atmega32u4 atmega32u4 adalah chipset microcontroller 8-bit berbasis arsitektur avr-risc [4]. memiliki flash memory isp sebesar 32 kb yang dapat dibaca-tulis. 1024 byte eeprom, 2,5 kbyte sram, 32 register, 2 buah counter, dan interrupt untuk internal dan eksternal. untuk berkomunikasi atmega dilengkapi dengan usart dan serial port spi. atmega32u4 juga dilengkapi dengan usb transceiver sehingga memudahkan komunikasi dengan komputer. chipset ini memiliki pin 20 input digital output (yang 7 dapat digunakan sebagai output pwm dan 12 input analog). chipset ini memiliki komunikasi usb yang dibuat secara built-in, sehingga menghilangkan kebutuhan untuk prosesor sekunder. hal ini memungkinkan microcontroller ini tampil di komputer dan terhubung sebagai mouse dan keyboard. chipset ini juga memungkinkan untuk serial (cdc) komunikasi melalui usb dan muncul sebagai com port virtual sebagai perangkat lunak pada komputer. chipset ini memiliki standar kecepatan usb 2.0 dan menggunakan driver standar usb com pada windows. b. chipset wg1300 wifi wg1300-b0 adalah modul wlan 2.4ghz yang dapat diintegrasikan dengan biaya murah / daya mcu rendah untuk membuat solusi ideal untuk aplikasi embedded [5]. wg1300-b0 dapat mendukung aplikasi wlan melalui spi bus untuk berkomunikasi dengan microcontroler host atau processor yang lainnya [6]. dengan clock 26 mhz dan mendukung enkripsi 64-128 bit wep, tkip, dan aes menjadikan chipset ini sangat aman digunakan. kemudian chipset ini juga mendukung standarisasi rf transceiver ieee 802.11 b/g sehingga tidak menyebabkan interference bagi yang lain. 3.2. optocoupler dalam elektronik, optocoupler atau photocoupler adalah komponen yang mentransfer sinyal listrik antara dua sirkuit yang terisolasi dengan menggunakan cahaya. optocoupler biasanya digunakan untuk mencegah tegangan tinggi yang dapat mempengaruhi sistem penerima sinyal. jenis umum dari optocoupler terdiri dari sebuah led dan phototransistor dalam tempat yang sama. jenis lain dari kombinasi led dan photo dioda, led dan lascr, dan pasangan led lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p01 e-issn 2541-5832 135 photoresistor. optocoupler biasanya digunakan untuk mengirimkan sinyal digital antar 2 buah sistem yang berbeda, namun dengan menggunakan teknik-teknik tertentu optocoupler juga memungkinkan untuk digunakan dalam pengiriman sinyal analog. pada sistem ini digunakan sebuah sensor yang merupakan optocoupler dari jenis led–phototransistor sehingga pembahasan berikut hanya membahas mengenai masalah led dan transistor saja [7]. 3.3. ip (internet protocol) address ip address adalah deretan angka biner antara 32-bit sampai 128-bit yang dipakai sebagai alamat identifikasi untuk tiap komputer host dalam jaringan internet. panjang dari angka ini adalah 32-bit (untuk ipv4 atau ip versi 4) dan 128-bit (untuk ipv6 atau ip versi 6) yang menunjukkan alamat dari komputer tersebut pada jaringan internet berbasis tcp/ip. ipv4 (ip versi 4) adalah sebuah jenis pengalamatan jaringan yang digunakan di dalam protokol jaringan tcp/ip yang menggunakan protokol ip versi 4. panjang totalnya adalah 32-bit dan secara teoritis dapat mengalamati hingga 4 miliar host komputer atau lebih tepatnya 4.294.967.296 host di seluruh dunia, jumlah tersebut didapatkan dari 256 (didapatkan dari 8 bit) dipangkat 4(karena terdapat 4 oktet) sehingga nilai maksimal dari alamat ip versi 4 tersebut adalah 255.255.255.255 dimana nilai dihitung dari nol sehingga nilai host yang dapat ditampung adalah 256x256x256x256 = 4.294.967.296 host, bila host yang ada di seluruh dunia melebihi kuota tersebut maka dibuatlah ip versi 6 atau ipv6. contoh alamat ip versi 4 adalah 192.168.0.3. 3.4. wifi wifi adalah sebuah teknologi yang memanfaatkan peralatan elektronik untuk bertukar data secara nirkabel (menggunakan gelombang radio) melalui sebuah jaringan komputer, termasuk koneksi internet berkecepatan tinggi [8]. titik akses (atau hotspot) seperti itu mempunyai jangkauan sekitar 20 meter di dalam ruangan dan lebih luas lagi di luar ruangan. agar terhubung lan wifi, sebuah komputer perlu dilengkapi dengan pengontrol antarmuka jaringan nirkabel. gabungan komputer dan pengontrol antarmuka disebut stasiun. semua stasiun berbagi satu saluran komunikasi frekuensi radio. transmisi di saluran ini diterima oleh semua stasiun yang berada dalam jangkauan. sebuah alat wifi dapat terhubung ke internet ketika berada dalam jangkauan sebuah jaringan nirkabel yang terhubung ke internet. router yang melibatkan modem jalur pelanggan digital atau modem kabel dan titik akses wifi, biasanya dipasang di rumah atau bangunan lain, menyediakan akses internet dan antar jaringan ke semua peralatan yang terhubung dengan router secara nirkabel. wifi dirancang berdasarkan spesifikasi ieee 802.11, ada empat varian dari 802.11 yaitu: a. 802.11a b. 802.11b c. 802.11g d. 802.11n adapun spesifikasi dari wifi sebagai berikut: tabel 1. spesifikasi wifi spesifikasi kecepatan frekuensi band 802.11b 11 mb/s ~2.4 ghz 802.11a 54 mb/s ~ 5 ghz 802.11g 54 mb/s ~2.4 ghz 802.11n 100 mb/s ~2.4 ghz secara teknis operasional, wifi merupakan salah satu varian teknologi komunikasi dan informasi yang bekerja pada jaringan dan perangkat wlan (wireless local area network). 4. hasil dan pembahasan penerapan sistem membahas hasil dari penerapan teori yang telah berhasil penulis kembangkan sehingga menjadi sistem tersebut dapat berjalan sesuai dengan perancangan lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p01 e-issn 2541-5832 136 awal. berikut ini adalah foto hasil penerapan dari perancangan sistem terlihat pada gambargambar di bawah ini : gambar 4. rangkaian web server tampak atas keterangan : a = microcontroller wido b = sensor parkir 1 c = sensor parkir 2 d = sensor parkir 3 e = sensor parkir 4 gambar 5. tampilan web server pada browser chrome 5. kesimpulan setelah melakukan perancangan, penerapan dan pengujian terhadap sistem, maka dapat ditarik beberapa kesimpulan dan saran sebagai berikut : microcontroller wido mampu untuk memberikan informasi kepada pengguna mengenai keadaan tempat parkir secara real time serta dengan menggunakan module sensor optocoupler yang diposisikan sebagai sensor parkir sebagai komponen input dari sistem, microcontroller wido mampu untuk membaca kondisi b a c d e lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p01 e-issn 2541-5832 137 lingkungan analog yaitu ada atau tidaknya mobil pada tempat parkir, kemudian mengubahnya menjadi data-data elektronik yang kemudian digunakan untuk pengendalian peralatan elektronik lainnya. microcontroller arduino wido memberikan kemudahan pemasangan sistem dengan menggantikan fungsi kabel dengan menggunakan fungsi wireless untuk pengendalian dan monitoring peralatan-peralatan listrik baik di rumah-rumah tangga maupun di gedunggedung perkantoran daftar pustaka [1] m. kagum, “perancangan sistem monitoring dan pengendalian suhu via wireless webserver berbasis microcontroller wido,” fakultas teknik universitas mercubuana. jakarta--indonesia, 2015. [2] v. liao, “technical data sheet opto interrupter.” everlight electronics co., ltd., taipei, pp. 1–9, 2009. [3] “wido open source iot node (arduino compatible) schematic.” dfrobot.com, shanghai, 2015. [4] “datasheet avr microcontroller atmega32u4.” atmel corporation, 2010. [5] “datasheet lm78xx 3-terminal 1a positive voltage regulator.” fairchild semiconductor corporation, 2013. [6] “datasheet wg1300-b0 wlan module ti cc3000 ieee 802.11b/g solution.” jorjin technologies inc, china, 2012. [7] “schematic line follower sensor.” everlight electronics co., ltd, taipei, 2005. [8] r. lesniak, “adafruit cc3000 wifi.” adafruit industries, newyork, 2015. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 93 rancang bangun aplikasi android ar museum bali : gedung karangasem dan gedung tabanan i gede aditya nugrahaa1, i ketut gede darma putraa2, i made sukarsaa3 ajurusan teknologi informasi, fakultas teknik, universitas udayana jl raya kampus unud, bukit jimbaran, badung, bali, indonesia 1anug1504@gmail.com 2ikgddarmaputra@gmail.com 3sukarsa@ee.unud.ac.id abstrak museum bali merupakan salah satu museum yang terletak di kota denpasar yang berdiri sejak tahun 1910. koleksi museum terdiri dari benda-benda seperti peralatan dan perlengkapan hidup, kesenian, keagamaan, bahasa tulisan dan lain-lain yang mencerminkan kehidupan dan perkembangan kebudayaan bali. augmented reality adalah teknologi yang menggabungkan benda maya dua dimensi atau tiga dimensi ke dalam sebuah lingkungan nyata tiga dimensi lalu memproyeksikan objek-objek virtual tersebut ke dalam waktu nyata. museum bali mengalami penurunan pengunjung beberapa tahun terakhir dan memerlukan sebuah inovasi untuk mempromosikan museum bali. salah satu inovasi yang diharapkan membantu mempromosikan museum bali adalah dengan membuat aplikasi augmented reality museum bali pada platform android. memanfaatkan teknologi augmented reality yang bekerja dengan mendeteksi marker kemudian memunculkan objek 3d dan informasi dari salah satu benda di museum bali. metode markerless digunakan dalam pendeteksian marker, membuat aplikasi augmented reality museum bali lebih menarik dan diharapkan menjadi pengalaman baru bagi masyarakat yang ingin lebih tahu tentang museum bali. kata kunci: museum bali, augmented reality, android, marker. abstract museum bali is one of the museum which is located in denpasar city that established since 1910. the museum collections consist of items such as living equipment, art, religion, handwriting, and other things that show the situation and the development of the balinese culture. augmented reality is a technology which combines two-dimensional virtual objects or three-dimensional virtual objects into the real environment. museum bali has decreased the amount of visitors in recent years and requires an innovation to promote museum bali. one innovation that is expected to promote the museum bali is to create an augmented reality application that called augmented reality museum bali in android platform. utilizing augmented reality technology that works by detecting the marker then it show up the 3d object and the information from one of the objectsin museum bali. markerless method used in detection marker that make this application moreattractive and expected to be a new experience for the people who want to know more about museum bali. keywords: museum bali, augmented reality, android, marker. 1. pendahuluan augmented reality (ar) adalah teknologi yang menggabungkan benda maya dua dimensi (2d) dan tiga dimensi (3d) ke dalam sebuah lingkungan nyata tiga dimensi (3d) lalu memproyeksikan objek-objek virtual tersebut ke dalam waktu nyata (real time).berbagai aplikasi sudah banyak mengadaptasi teknologi augmented reality baik sebagai media permainan, bisnis, dan edukasi [1]. kemampuan memunculkan objek 3d yang disertai dengan informasi pada gadget membuat augmented reality tidak membosankan untuk digunakan. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 94 augmented reality bekerja berdasarkan pendeteksian citra yang berupa marker. dimulai sampai aplikasi augmented reality menemukan kecocokan dengan hasil identifikasi marker, baik melalui pelacakan marker-based maupun markerless. aplikasi mengenali sebuah marker tertentu, maka aplikasi augmented reality menampilkan informasi berlapis (overlay) di atas citra marker yang diidentifikasi. aplikasi augmented reality kemudian dapat menampilkan berbagai macam jenis informasi, seperti memainkan klip audio atau video yang berhubungan dengan marker, menampilkan teks informasi, fakta-fakta historis yang terkait dengan lokasi, model 3d. museum bali merupakan salah satu museum yang terletak di kota denpasar. museum yang mulai berdiri sejak tahun 1910 adalah museum yang berisi koleksi benda-benda zaman prasejarah dan zaman sejarah. koleksi benda-benda yang terdapat di museum bali dibagi ke dalam empat gedung utama yang memiliki ciri khas koleksi masing-masing. pengunjung museum bali mulai berkurang sejak beberapa tahun terakhir, museum kini hanya dikunjungi beberapa wisatawan asing dan terkadang rombongan anak sekolah [2]. sebuah inovasi dibutuhkan untuk mempromosikan museum bali. penelitian tentang pemanfaatan augmented reality dalam pelestarian budaya bali terdapat pada jurnal yang berjudul “augmented reality mobile aplication of balinese hindu temple: dewataar”yang dibuat oleh adi ferliyanto waruwu, i putu agung bayupati, dan i ketut gede darma putra pada tahun 2014 yang membahas tentang penggunaan teknologi augmented reality sebagai media penyedia informasi tentang pura yang ada di bali. penelitian mengenai pemanfaatan augmented reality pada museum terdapat pada salah satu penelitian yang berjudul “aplikasi museum zoologi berbasis augmented reality” membahas mengenai penerapan teknologi augmented reality pada aplikasi mobile berbasis android pada museum zoologi yang terletak di bogor, jawa barat. muncul ide untuk memanfaatkan teknologi augmented reality dengan dasar ide untuk melestarikan budaya bali sekaligus membantu mempromosikan museum bali dengan memberikan sebuah solusi berupa fasilitas yang memadukan teknologi dengan pengetahuan. fasilitas tersebut berupa aplikasi mobile museum bali berbasis pada platform android menggunakan teknologi augmented reality. aplikasi tersebut diharapkan mampu memberikan pengalaman baru bagi masyarakat sebagai media pembelajaran yang lebih menarik dan inovatif. aplikasi augmented reality museum bali memanfaatkan buku sebagai media penyedia marker sehingga masyarakat dapat mengakses informasi mengenai museum bali kapanpun dan dimanapun. buku tersebut berisi marker-marker yang mewakili beberapa objek yang terdapat di museum bali [3]. 2. metodologi penelitian aplikasi augmented reality museum bali merupakan aplikasi yang diimplementasikan pada platform android untuk membantu masyarakat lebih tahu tentang museum bali. 2.1. gambaran umum sistem gambaran umum sistem dari aplikasi augmented reality museum bali merupakan alur secara keseluruhan dari proses kerja aplikasi ini. proses interaksi antara software dan user dapat memberikan bentuk proses secara jelas yang terjadi pada aplikasi seperti input dan output dari proses yang dikerjakan. gambaran umum aplikasi yang dirancang diharapkan membuat user aplikasi dapat dengan mudah mengerti dan menggunakan aplikasi. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 95 gambar 1. gambaran umum perancangan aplikasi augmented reality museum bali gambar 1 menjelaskan alur dari pembuatan aplikasi yang akan dibuat. langkah pertama yaitu membuat objek 3d dari benda yang ada di museum bali, menyiapkan file informasi untuk setiap benda yang dijadikan 3d, pencarian dan pembuatan gambar sehingga menjadi library marker. data tahap awal digabungkan menjadi komponen utama projek aplikasi augmented reailty museum bali. projek augmented reality menghasilkan aplikasi yang mampu digunakan pada platform android yang mampu digunakan langsung untuk mendeteksi marker, sehingga menghasilkan output berupa objek 3d dan informasi dari benda tersebut. 2.2. use case diagram use case diagram digunakan untuk menggambarkan requirement fungsional dari aplikasi augmented reality museum bali serta bagaimana aplikasi ini berinteraksi dengan user seperti gambar berikut. melacak marker memulai aplikasi splash screen memilih gedung utama exit mendeteksi marker munculkan objek 3d munculkan informasi objek 3d kembali ke menu utama menampilkan informasi gedung gambar 2. use case diagram aplikasi augmented reality museum bali gambar 2 menunjukkan fitur-fitur utama yang terdapat pada aplikasi augmented reality museum bali. user dapat langsung memulai melacak marker dengan memilih gedung mana yang diinginkan. objek 3d langsung muncul setelah kamera dengan tepat berada di posisi yang diinginkan marker. user tidak perlu keluar dari kamera bila ingin mendeteksi marker yang baru. user bisa keluar dari aplikasi dengan memilih kembali ke menu utama terlebih dahulu. objek 3d marker library ar file informasi projek augmented reality buku marker aplikasi ar pada android output objek 3d dan informasi user lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 96 2.3. flowchart perancangan aplikasi flowchart perancangan aplikasi merupakan suatu alur secara keseluruhan tentang pembuatan aplikasi. persiapan dari mengambil foto dan mencari informasi mengenai benda yang ada di museum bali, menentukan benda yang akan dijadikan objek 3d, mendesain buku marker dan mengintegrasikan ke library vuforia. flowchart untuk perancangan aplikasi ini dapat dilihat pada gambar berikut. gambar 3. flowchart perancangan aplikasi gambar 3 menjelaskan tentang proses perancangan aplikasi. proses dikerjakan secara bertahap dimulai dari pengumpulan foto dan informasi mengenai benda yang ada di museum bali hingga proses import ke unity dan library vuforia hingga aplikasi siap digunakan. 2.4. diagram activity penggunaan aplikasi diagram activity penggunaan aplikasi menggambarkan alur aktivitas yang terjadi dalam aplikasi augmented reality museum bali. berikut adalah diagram activity aplikasi augmented reality museum bali. diagram activity menu aplikasi augmented reality museum bali menjelaskan saat user menggunakan menu-menu utama yang terdapat pada aplikasi ini. start foto dan informasi benda museum proses pembuatan objek 3d benda museum proses perekaman informasi suara proses perancangan buku marker proses pembuatan marker pada target manager vuforia proses integrasi unity dengan library vuforia proses import marker ke unity dan library vuforia proses import objek 3d ke unity dan library vuforia proses import informasi ke unity dan library vuforia aplikasi augmented reality museum bali finish lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 97 gambar 4. diagram activity aplikasi augmented reality museum bali gambar 4 menunjukkan secara umum alur kerja aplikasi augmented reality museum bali.user menggunakan smartphone berbasis android yang sudah ter-install aplikasi augemented reality museum bali. tampilan splash screen muncul setelah user membuka aplikasi. sistem selanjutnya menampilkan menu utama dari aplikasi. menu utama memiliki empat pilihan gedung yang bisa user pilih. user harus memilih salah satu gedung yang ingin dideteksi. tampilan informasi gedung muncul setelah user memilih gedung yang diinginkan. informasi gedung merupakan gambaran umum mengenai gedung yang dipilih. sistem kemudian membawa user ke tampilan utama kamera untuk mendeteksi marker. sistem bekerja dengan mendeteksi marker yang tersedia pada buku marker khusus yang sudah disediakan. kamera diarahkan user pada ketinggian tertentu guna mendapatkan hasil deteksi yang maksimal. sistem hanya memunculkan objek 3d sesuai dengan marker dari gedung yang dipilih. satu marker mewakili satu benda yang terdapat di museum bali yang sudah dibuat dalam bentuk 3d. informasi mengenai objek 3d yang dimunculkan terdapat dalam bentuk tulisan dan suara [4]. user dapat kembali ke menu utama sebelum benar-benar keluar dari aplikasi. 3. kajian pustaka pengumpulan teori-teori yang didapatkan dari buku atau internet maupun jurnal yang menunjang pembuatan aplikasi ini. diagram activity menu aplikasi augmented reality museum bali user system ph as e start mulai aplikasi menampilkan splash screen memilih menu utama menampilkan kamera mengarahkan kamera ke marker identifikasi marker munculkan objek 3d munculkan informasi? munculkan informasi objek exit? menampilkan menu utama yatidak menampilkan menu utama ya finish munculkan objek 3dtidak menampilkan informasi gedung lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 98 3.1. museum bali museum bali adalah salah satu museum yang berada di kota denpasar. museum bali adalah museum penyimpanan benda-benda masa lampau manusia dan etnografi. koleksi museum terdiri dari benda-benda etnografi antara lain peralatan dan perlengkapan hidup, kesenian, keagamaan, bahasa tulisan dan lain-lain yang mencerminkan kehidupan dan perkembangan kebudayaan bali. penataan koleksi museum bali telah dilkakukan sedemikian rupa setiap gedung yang mononjolkan aspek khusus di masing-masing gedung. gedung-gedung utama memiliki ciri khusus dengan koleksi yang dipamerkan. gedung timur adalah gedung utama pertama yang terletak pada bagian depan museum bali yang berisikan peralatan perang, peralatan berburu, peralatan bercocok tanam, peralatan pertukangan dan berbagai benda yang berkaitan dengan puncak-puncak kebudayaan bali. gedung buleleng yang menjelaskan proses transaksi masyarakat bali kuno dan memamerkan koleksi alat tukar dalam kehidupan masyarakat bali kuno, yaitu uang kepeng. gedung karangasem merupakan gedung yang memamerkan koleksi benda-benda mengenai cili. cili adalah simbol dari wanita atau sensualitas. gedung tabanan merupakan gedung yang memamerkan koleksi pusaka atau benda-benda yang disakralkan dan dalam pameran ini memamerkan perkembangan keris sebagai mahakarya nusantara, sejarah, bentuk serta penggunaan sehari-hari dalam masyarakat bali baik dalam upacara keagamaan maupun koleksi secara kronologis [2]. 3.2. augmented reality augmented reality adalah teknologi yang menggabungkan benda maya dua dimensi (2d) dan ataupun tiga dimensi (3d) ke dalam sebuah lingkungan nyata tiga dimensi lalu memproyeksikan benda-benda maya tersebut dalam waktu nyata. berbeda dengan realitas maya yang sepenuhnya menggantikan kenyataan, namun augmented reality hanya menambahkan atau melengkapi kenyataan. tujuan dari augmented reality adalah menyederhanakan objek nyata dengan membawa objek maya sehingga informasi tidak hanya untuk user secara langsung tetapi juga untuk setiap user yang tidak langsung berhubungan dengan user interface dari objek nyata, seperti live-streaming video [5]. 3.3. marker marker adalah real environment berbentuk objek nyata yang menghasilkan virtual reality. augmented reality membutuhkan pendeteksian marker agar mampu menyajikan informasi ke dalam dunia nyata. marker digunakan sebagai tempat objek augmented reality muncul. marker yang digunakan harus cenderung memiliki warna kontras untuk mendapatkan rating terbaik [6]. marker yang buruk sulit dideteksi device atau bahkan tidak bekerja. 3.4. unity 3d unity 3d adalah sebuah game engine yang berbasis cross-platform. unity 3d dapat digunakan untuk membuat sebuah game yang bisa digunakan pada perangkat komputer, android, iphone, playstation, dan x-box. unity 3d adalah sebuah tool yang terintegrasi untuk membuat game, arsitektur bangunan dan simulasi. unity 3d bisa digunakan untuk pc games dan online games. penggunaan dalam online game diperlukan sebuah plugin, yaitu unity web player seperti flash player pada browser [7]. 4. hasil dan pembahasan hasil dan pembahasan berisikan tentang pembahasan dari sistem yang telah dirancang, pengujian sistem dan analisis hasil yang didapat setelah melakukan pengujian terhadap aplikasi augmented reality museum bali. 4.1. scene menu utama scene menu utama merupakan tampilan utama dari aplikasi ini, pada scene menu utama adalah penentuan untuk memilih gedung yang ingin objek-objek yang terdapat di dalam gedung dimunculkan. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 99 gambar 6. scene menu utama gambar 6 menunjukkan tampilan scene menu utama aplikasi augmented reality museum bali.logo masing-masing gedung mewakili objek-objek yang ada di setiap gedung. gedung tabanan sebagai contoh memiliki logo yang bergambarkan keris-keris, sesuai dengan gedung tabanan yang berisikan senjata-senjata tradisional bali kuno. 4.2. scene informasi gedung scene informasi gedung adalah scene dimana sebelum user memasuki kamera ar, user diberi informasi secara umum mengenai gedung yang dipilih. gambar 7.scene informasi gedung gambar 7 menampilkan informasi gedung yang diberikan sebagai gambaran secara umum mengenai gedung yang dipilih. informasi tersebut berisi sejarah dan koleksi gedung. user lalu memilih tombol continue untuk masuk ke scene kamera ar. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 100 4.3. scene kamera ar scene kamera ar merupakan scene utama dari aplikasi ini, pada scene inilah augmented reality memunculkan 3d jika kamera diarahkan dengan tepat ke marker. gambar 8. scene kamera ar gambar 8 menunjukkan tampilan scene kamera aplikasi saat memunculkan objek 3d hasil pendeteksian marker.user dapat menggerakkan smartphone untuk mendapatkan pandangan yang jelas terhadap objek 3d yang dimunculkan. user juga dapat memunculkan informasi mengenai objek 3d dengan memilih information button.objek 3d muncul dalam waktu satu detik setelah user mengarahkan kamera dengan tepat ke marker. jarak maksimum dalam pendeteksian kamera ke marker adalah ± 1.3 mtr. jarak ideal pendeteksian kamera ke marker adalah 30 cm sampai 40 cm dengan sudut pendeteksian ideal antara 30o sampai 45o. sistem hanya memunculkan satu objek 3d apabila terjadi keadaan terdapat dua marker. 4.4. perhitungan dan penyajian data perhitungan dan penyajian data dilakukan untuk mengetahui hasil akhir dari survei yang telahdilakukan. berikut merupakan perhitungan dan penyajian data hasil survei. a. aspek proses aplikasi hasil penilaian dari 50 orang responden mengenai aspek proses pada aplikasi augmented reality museum bali dapat dilihat pada gambar 9. gambar 9 menunjukkan bahwa aspek proses aplikasi secara keseluruhan dapat dikatakan berjalan dengan baik dan sesuai harapan. hal tersebut sesuai dengan hasil survei yang menunjukkan nilai ratarata penilaian tertinggi pada nilai baik sebesar 57%. nilai rata-rata sangat baik memiliki nilai 33% yang menunjukkan aplikasi ini secara mudah dipahami oleh user. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 101 gambar 9. aspek proses aplikasi nilai kurang baik sebesar 10% yang menuunjukkan masih ada masalah teknis dari penggunaan aplikasi seperti terlalu lama waktu yang dibutuhkan aplikasi dalam memproses beberapa perintah. lama waktu yang diperlukan tersebut dikarenakan aplikasi augmented reality museum bali memiliki ukuran cukup besar, yaitu ± 62 mb. b. aspek deteksi waktu hasil penilaian dari 50 orang responden mengenai aspek deteksi waktu pada aplikasi augmented reality museum bali dapat dilihat pada gambar 10. gambar 10. aspek deteksi waktu gambar 10 menunjukkan bahwa aspek deteksi waktu kamera ke marker sampai memunculkan objek 3d pada gedung karangasem dan gedung tabanan sudah berjalan sesuai ekspektasi dengan rata-rata nilai terbesar adalah satu detik dengan persentase 86%. nilai tersebut menunjukkan bahwa aplikasi augmented reality museum bali sudah berjalan dengan baik dan sesuai harapan. nilai rata-rata 14% pada poin dua detik dikarenakan kurang tepatnya posisi buku marker atau smartphone yang digunakan dalam pendeteksian. 0% 10% 57% 33% aspek proses aplikasi tidak baik kurang baik baik sangat baik 0%0% 14% 86% aspek deteksi waktu 4 detik 3 detik 2 detik 1 detik lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 102 c. aspek desain user interface hasil penilaian dari 50 orang responden mengenai aspek desain user interface dalam penggunaan aplikasi augmented reality museum bali dapat dilihat pada tabel 3. gambar 10 menunjukkan desain user interface dari aplikasi sudah baik dan menarik bagi user. hasil tersebut dapat dilihat dari nilai rata-rata tertinggi sebesar 52% pada baik dan 44% pada sangat baik yang mengidentifikasikan bahwa user dengan desain yang sudah dibuat dengan gampang memahami aplikasi augmented reality museum bali. nilai 4% pada nilai kurang baik didapatkan karena desain yang dibuat belum sesuai dengan selera koresponden. gambar 10. aspek desain user interface 5. kesimpulan berdasarkan hasil uji coba dan penelitian yang telah dilakukan pada aplikasi augmented reality museum bali maka diperoleh beberapa simpulan, diantaranya adalah aplikasi augmented reality museum bali membuktikan bahwa teknologi augmented reality berhasil diimplementasikan, serta berhasil menampilkan objek 3d dan informasi dari benda-benda yang terdapat pada museum bali pada sistem operasi android yang merupakan tujuan dari penelitian ini. aplikasi augmented reality museum bali sudah berjalan dengan baik dan diharapkan mampu menjadi sarana baru serta memberikan pengalaman baru bagi masyarakat yang ingin lebih tahu tentang museum bali. aplikasi augmented reality museum bali mampu memunculkan minat responden untuk mengunjungi museum bali untuk melihat benda-benda secara langsung. minat tersebut muncul setelah mencoba melihat beberapa objek 3d dari benda-benda pada aplikasi augmented reality museum bali. responden ingin melihat secara lengkap benda-benda yang ada di museum bali.jarak ideal smartphone dengan marker adalah antara 30 cm sampai 40 cm dengan sudut pendeteksian ideal antara 30o sampai 45o. pendeteksian pada jarak dan sudut ideal memberikan hasil deteksi aplikasi augmented reality museum bali yang semakin baik dan cepat. daftar pustaka [1] a. r. yudiantika, e. s. pasinggi, i. p. sari, and b. s. hantono, “implementasi augmented reality di museum: studi awal perancangan aplikasi edukasi untuk pengunjung museum,” universitas gajah mada, 2013. [2] upt museum bali, buku panduan museum bali. denpasar: uptmb, 2014. [3] i. m. e. w. putra, “pengembangan aplikasi augmented reality book sistem rumah tradisional bali berdasarkan asta kosala kosali,” singaraja, 2013. 0% 4% 52% 44% aspek desain user interface tidak baik kurang baik baik sangat baik lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p03 e-issn 2541-5832 103 [4] a.f. waruwu, “augmented reality mobile aplication of balinese hindu temple dewata: ar,” udayana, 2014. [5] r. gonydjaja and y. mayongga, “aplikasi museum zoologi berbasis augmented reality,” universitas gunadarma, 2014. [6] e.w.wirga, “pembuatan aplikasi augmented book berbasis android menggunakan unity 3d,” universitas gunadarma, 2012. [7] a.k.wahyudi, r. ferdiana, and r. hartanto, “arca : perancangan buku interaktif augmented reality pada pengenalan dan pembelajaran candi prambanan dengan smartphone berbasis android,” universitas gajah mada, 2013. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 182 optimalisasi penyelesaian knapsack problem dengan algoritma genetika i wayan suprianaa1 ajurusan ilmu komputer, fakultas mipa, universitas udayana, indonesia jalan kampus bukit jimbaran, bali, indonesia 1iwayansupriana@gmail.com abstrak permasalahan knapsack merupakan permasalahan yang sering kita temukan dalam kehidupan sehari-hari. knapsack problem sendiri adalah sebuah permasalahan dimana seseorang dihadapkan pada permasalahan optimasi pada pemilihan benda yang dapat dimasukkan ke dalam wadah yang memiliki keterbatasan ruang atau daya tampung. permasalahan knapsack problem dapat diselesaikan dengan berbagai algoritma optimasi, salah satunya menggunakan algoritma genetika. algoritma genetika dalam penyelesaian masalah meniru teori evolusi mahluk hidup. adapun komponen-komponen algoritma genetika tersusun dari populasi yang terdiri dari kumpulan individu-individu yang merupakan calon solusi dari permasalahan knapsack. proses berjalannya evolusi dimulasi dari proses seleksi, pindah silang dan mutasi pada setiap individu sehingga diperoleh populasi baru. proses evolusi akan dilakukan secara berulang sampai memenuhi kriteria optimal dari solusi yang dihasilkan. permasalahan yang ditekankan pada penelitian ini adalah bagaimana cara menyelesaikan permasalahan knapsack dengan menerapkan algoritma genetika. hasil yang diperoleh berdasarkan pengujian dari sistem yang dibangun, bahwa knapsack problem dapat mengoptimalkan penempatan barangbarang dalam wadah atau daya tampung yang tersedia. optimalisasi permasalahan knapsack dapat maksimalkan dengan inputan parameter yang sesuai. kata kunci : knapsack problem, algoritma genetika, optimalisasi, populasi abstract knapsack problems is a problem that often we encounter in everyday life. knapsack problem itself is a problem where a person faced with the problems of optimization on the selection of objects that can be inserted into the container which has limited space or capacity. problems knapsack problem can be solved by various optimization algorithms, one of which uses a genetic algorithm. genetic algorithms in solving problems mimicking the theory of evolution of living creatures. the components of the genetic algorithm is composed of a population consisting of a collection of individuals who are candidates for the solution of problems knapsack. the process of evolution goes dimulasi of the selection process, crossovers and mutations in each individual in order to obtain a new population. the evolutionary process will be repeated until it meets the criteria o f an optimum of the resulting solution. the problems highlighted in this research is how to resolve the problem by applying a genetic algorithm knapsack. the results obtained by the testing of the system is built, that the knapsack problem can optimize the placement of goods in containers or capacity available. optimizing the knapsack problem can be maximized with the appropriate input parameters. keywords : knapsack problem, genetic algorithm, optimization, population 1. pendahuluan knapsack problem merupakan permasalahan yang sering kita temukan dalam kehidupan sehari-hari. knapsack problem sendiri adalah sebuah permasalahan dimana seseorang dihadapkan pada permasalahan optimasi pada pemilihan benda yang dapat dimasukkan ke dalam wadah yang memiliki keterbatasan ruang atau daya tampung. contoh permasalahan knapsack jika seorang pengepak barang di gudang harus menempatkan berbagai jenis barang mailto:iwayansupriana@gmail.com lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 183 ke dalam wadah atau tempat yang memiliki kapasitas maksimum sehingga tidak memungkinkan menempatkan semua barang, oleh sebab itu bagaimana petugas harus memasukkan barang semaksimal mungkin ke dalam wadah atau tempat barang tersebut ketika menerima permintaan pengiriman ke konsumen. jenis barang yang dimasukkan kedalam wadah memiliki berat, harga serta tingkat kepentingan dari barang lain. petugas gudang akan memilih barang yang sesuai dengan tempat atau wadah dengan pertimbangan berat barang tidak melebihi kapasitas maksimum sehingga dapat mengoptimalkan tempat yang digunakan. melalui proses memaksimalkan barang yang di tempatkan di wadah diharapkan pengiriman jumlah barang dapat dioptimalkan sehingga mendapatkan keuntungan yang sesebarbesarnya.[1] permasalahan knapsack problem dapat diselesaikan dengan berbagai algoritma optimasi, salah satunya menggunakan algoritma genetika. berbagai studi pembahasan knapsack problem sudah pernah dilakukan, seperti penyelesaian knapsack problem dengan mengunakan algoritma genetika oleh kartina diah kw, mardhiah fadhli dan carly sutanto jurusan teknik komputer politeknik caltex riau pekanbaru. dalam pembahasannya bahwa knapsack problem tergantung dari penentuan parameter, data yang diinputkan serta besarnya kapasitas atau daya tampung dari wadah. penelitian berikutnya dari komang setemen jurusan manajemen informatika fakultas teknik dan kejuruan universitas pendidikan ganesha. hasil yang diperoleh algoritma genetika mampu memberikan solusi optimal sesuai dengan yang diharapkan. [2] algoritma genetika dalam penyelesaian masalah meniru teori evolusi mahluk hidup. adapun komponen-komponen algoritma genetika tersusun dari populasi yang terdiri dari kumpulan individu-individu yang merupakan calon solusi dari permasalahan knapsack. proses berjalannya evolusi dimulasi dari proses seleksi, pindah silang dan mutasi pada setiap individu sehingga diperoleh populasi baru. proses evolusi akan dilakukan secara berulang sampai memenuhi kriteria optimal dari solusi yang dihasilkan. permasalahan yang ditekankan pada penelitian ini adalah bagaimana cara menyelesaikan permasalahan knapsack dengan menerapkan algoritma genetika. 2. metodologi penelitian knapsack problem dalam penelitian ini menekankan barang yang di tempatkan pada wadah atau ruang yang digunakan semaksimal mungkin berdasarkan jenis, harga dan tingkat kepetingan barang yang dikirimkan. pendekatan metode pengembangan sistem pada knapsack problem dengan algoritma genetika adalah sdlc (sistem development life cycle). metode pengembangan sistem dengan sdlc meliputi: identifikasi masalah, penentuan kebutuhan informasi, analisis kebutuhan sistem, disain sistem, pengembangan dan dokumentasi perangkat lunak, ujicoba dan evaluasi. [3] 2.1. gambaran umum sistem proses yang terjadi pada sistem adalah menentukan barang-barang yang paling optimal dari sisi berat untuk ditempatkan ke dalam wadah atau tempat penampungan tetapi tidak melebihi dari kapasitas daya tampung. metode optimasi menggunakan algoritma genetika. gambar 1 dibawah ini adalah alur diagram. gambar 1. alur diagram sistem 2.2. metode perancangan sistem knapsack problem merupakan permasalahan klasik yang sering terjadi dalam menempatkan barang-barang yang memiliki berbagai jenis bentuk serta bagimana memaksimalkan ruang data inputan proses algoritma genetika dalam menyelesaikan knapsack problem output program lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 184 yang tersedia. tujuan adalah pengiriman barang dapat dimaksimalkan sehingga keuntungan dapat ditingkatkan. ada beberapa parameter yang digunakan pada disain sistem yang dibangun untuk knapsack problem dengan algoritma genetika: terdapat berbagai jenis barang yang memiliki berat berbeda-beda serta harga dan tingkat kepentingan barang, berat barang yang di kemas tidak melebihi kapasitas dari knapsack, nilai parameter sistem dengan algoritma genetika dapat diubah sesuai dengan kebutuhan user seperti jumlah populasi dan probabilitas mutasi serta probabilitas crossover, hasil akhir yang disajikan adalah barang-barang yang memiliki nilai terbaik dan berat paling maksimal yang bisa di masukkan ke dalam wadah atau tempat penampungan. mekanisme penyelesaian knapsack problem dalam penelitian ini adalah dengan langkahlangkah yang terdapat pada algoritma berikut ini: langkah pertama inisialisasi nilai awal fitness dari kromosom = 0 dimana ruang kosong minimum = 1 dan repairing = 0. langkah kedua lakukan randomize terhadap barang untuk isi kromosom (alel), selama jumlah fitness kurang dari sama dengan luas wadah atau daya tampung dan ruang kosong lebih besar ruang kosong minimum maka nilai repairing = repairing + 1 jika jumlah fitness lebih besar dari luas gudang, dan jika nilai repairing lebih besar 3 maka alel tersebut dihapus dan random dihentikan. langkah ketiga jika diperoleh nilai fitness lebih dari luas wadah atau daya tampung, maka dilakukan repairing dengan melakukan randomize pada alel ketiga. gambar 2 dibawah ini menunjukkan jalannya proses pada knapsack problem dengan algoritma genetika. gambar 2. flowchart proses sistem 2.3. teknik pengkodeaan kromosom pengkodean kromosom diuraikan dengan gen-gen penyusun kromosom berupa abjad sesuai dengan urutan barang dan setiap gen memiliki berat dan harga. panjang kromosom tergantung mulai input data barang inisialisasi populasi awal secara random hitung nilai fitness serta volume dari setiap kromosom pilih tiga pasang kromosom untuk dijadikan parent secara random lakukan proses crossover mutasi dengan probabilitas yang ditentukan solusi = optimal? selesai generasi baru ya tidak lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 185 jumlah total barang yang dapat ditempatkan pada wadah atau daya tampung. sebagai contoh terdapat daya tampung barang sebesar 50. adapun barang yang akan ditempatkan adalah sebagai berikut: tabel 1. daftar barang barang keberat harga a 15 rp. 15.000 b 10 rp. 10.000 c 25 rp. 5.000 d 25 rp. 25.000 terdapat 3 barang yang dipilih sesuai dengan kapasitas atau daya tampung knapsack dari tabel 1 diatas, sehingga kromosom yang terbentuk dapat diuraikan sebagai berikut: kromosom[1]= abc, kromosom[2]=cb, kromosom[3]=abd, urutan abjad dilakukan secara acak. pada proses crossover model yang digunakan adalah cutpoint serta mutasi dilakukan berdasarkan probabilitas mutasi dari nilai inputan paremeter yang dilakukan oleh user. 2.4. teknik evaluasi solusi teknik evaluasi terhadap solusi yang dihasilkan di setiap generasi untuk menentukan kesesuaian dengan fungsi tujuan dan contraint yang ada. proses diawali dengan memeriksa berat atau total berat barang di masing-masing kromosom pada satu generasi, apabila melebihi daya tampung dari knapsack maka kromosom tersebut di repairing (diperbaiki). fungsi obyektif dari penelitian ini adalah nilai fitness kromosom dari generasi yang terpilih, hal ini sesuai dengan fungsi tujuan yaitu memaksimalkan penempatan barang. adapun fungsi obyektif yang digunakan adalah sebagai berikut:    n i i weightobjf 1 . (1) dengan batasan sebagai berikut: jumlah nilai fitness kurang dari sama dengan luas wadah atau daya tampung dan ruang kosong lebih besar dari ruang kosong minimum, repairing (perbaikan) dilakukan apabila repairing+1 jika jumlah fitness lebih besar dari wadah atau daya tampung barang, jika nilai repairing yang dilakukan lebih besar dari 3 kali, maka alel atau gen tersebut dihapus dan random dihentikan. 2.5. teknik pembentukan generasi proses terciptanya generasi baru melalui tiga tahap yaitu seleksi, persilangan serta mutasi. terciptanya generasi baru dengan tujuan untuk mendapatkan kromosom dengan nilai fitness terbaik yang menunjukkan solusi maksimal dalam setiap genarasinya. berikut ini adalah contoh proses pembentukan generasi dengan menggunakan algoritma genetika. diketahui barang dengan harga yang terdapat pada tabel 2 dibawah ini, barang-barang tersebut rencananya akan ditempatkan kedalam wadah atau tempat penampungan dengan kapasitas sebesar 150 kg. tabel 2. daftar barang dan harga no barang berat (kg) harga fitness 1 a 10 rp 1,500,000.00 10 2 b 20 rp 2,800,000.00 20 3 c 40 rp 3,200,000.00 40 4 d 30 rp 2,300,000.00 30 5 e 60 rp 5,000,000.00 60 6 f 35 rp 2,000,000.00 35 7 g 45 rp 2,800,000.00 45 8 h 25 rp 3,500,000.00 25 9 i 5 rp 900,000.00 5 lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 186 10 j 50 rp 3,500,000.00 50 langkah pertama adalah penentuan kromosom untuk generasi pertama, prosesnya adalah sebagai berikut: tabel 3. proses pembentukan kromosom pertama kromosom 1 random barang fitness ruang kosong repairing 8 h 25 125 0 5 e 60 65 0 4 d 30 35 0 3 c 40 -5 1 2 b 20 15 2 9 i 5 10 2 7 g 45 -35 3 kromosom hedbi 140 tabel 4. proses pembentukan kromosom kedua kromosom 2 random barang fitness ruang kosong repairing 4 d 30 120 0 3 c 40 80 0 9 j 50 30 0 7 g 45 -15 1 1 a 10 20 2 2 b 20 0 2 kromosom dcjab 150 tabel 5. proses pembentukan kromosom ketiga kromosom 3 random barang fitness ruang kosong repairing 1 c 40 110 0 3 j 50 60 0 9 d 30 30 0 10 i 5 25 0 7 h 25 0 1 kromosom cjdih 150 tabel 6. proses pembentukan kromosom keempat kromosom 4 random barang fitness ruang kosong repairing 6 f 35 115 0 4 d 30 85 0 3 c 40 45 0 8 h 25 20 0 7 g 45 -25 1 lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 187 10 j 50 -75 2 kromosom 4 random barang fitness ruang kosong repairing 9 i 5 -80 3 kromosom fdch 130 tabel 7. proses pembentukan kromosom kelima kromosom 5 random barang fitness ruang kosong repairing 7 g 45 105 0 5 e 60 45 0 8 h 25 20 0 2 b 20 0 0 kromosom gehb 150 tabel 8. proses pembentukan kromosom kelima kromosom 6 random barang fitness ruang kosong repairing 5 e 60 90 0 2 b 20 70 0 9 i 5 65 0 6 f 35 30 0 1 a 10 20 0 7 g 45 -25 -1 10 j 50 -70 2 8 h 25 -100 3 kromosom ebifa 130 tabel 9 dibawah ini adalah susunan kromosom yang terbentuk dari proses diatas dengan nilai fitness masing-masing. tabel 9. susunan kromosom kromosom gen fitness p1 h e d b i 140 p2 d c j a b 150 p3 c j d i h 150 p4 f d c h 140 p5 g e h b 150 p6 e b i f a 130 langkah kedua adalah proses pindah silang atau crossover dengan menggunakan metode cutpoint berdasarkan randomize (panjang kromosom terpendek-1). pada kromosom tabel 9 cutpoint = randomize (4-1) = 3. adapun syarakat pada proses crossover ini adalah: parent yang melakukan crossover dilakukan secara acak dan hanya menghasilkan 6 child saja, apabila nilai fitness lebih besar dari tempat atau daya tampung maka child tersebut dibuang, jika pada kromosom child terdapat dua alel yang sama maka direpairing dengan alel lain dari parent lain yang diajak crossover. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 188 tabel 10. proses crossover parent p1 dan p2 kromosom gen fitneess p1 h e d b i 140 p2 d c j a b 150 cutpoint child1 h e d a b 145 child2 d c j b i 145 tabel 11. proses crossover parent p3 dan p4 kromosom gen fitneess p3 c j d i h 150 p4 f d c h 130 cutpoint child3 c j d h 145 child4 f d c i h 135 tabel 12. proses crossover parent p5 dan p6 kromosom gen fitneess p5 g e h b 150 p6 e b i f a 130 cutpoint child5 g e h f a 175(dibuang) child6 e b i b repairing proses repairing di child 2 child6 e b i g 130 dari proses crossover tersebut dilakukan seleksi terhadap parent dan child yang memiliki fitness terbaik, sehingga didapat hasil seleksi kromosom pada generasi pertama adalah: tabel 13. kromosom generasi pertama kromosom gen fitness child1 h e d a b 145 p2 d c j a b 150 p3 c j d i h 150 child2 d c j b i 145 p5 g e h b 150 child3 c j d h 145 langkah ketiga adalah proses mutasi dengan probabilitas mutasi sebesar 0.1. jumlah gen yang bermutasi adalah 0.01*150 = 1.5 atau sebesar 2 gen yang dimutasi. proses mutasi dilakukan dengan pembangkitan bilangan acak sejumlah gen dalam satu generasi. bilangan acak yang dibangkitkan sebanyak dua kali untuk melakukan pertukaran alel. misalkan bilangan acak yang pertama dibangkitkan adalah (21, 9) dan bilangan acak kedua adalah (25, 20). pertukaran yang dilakukan adalah posisi 21 ditukar dengan posisi 25 dan sebaliknya, serta posisi 9 ditukar dengan posisi 20 dan sebaliknya. syarat mutasi yang dilakukan adalah jika dalam satu kromosom terdapat dua alel yang sama pada saat mutasi, maka lakukan pengulangan pembangkitan bilangan random. perulangan mutasi juga dilakukan jika nilai fitness yang dihasilkan oleh satu kromosom karena proses mutasi melebihi dari wadah atau daya tampung. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 189 table 14. mutasi generasi pertama kromosom gen fitness child1 h e d a b 145 p2 d c j i b 145 p3 c j d i h 150 child2 d c j b a 150 p5 c e h b 145 child3 g j d h 150 3. kajian pustaka dalam penelitian ini terdapat berbagai sumber referensi yang digunakan untuk mendukung penelitian yang dilakukan. diawah ini adalah pemaparan subbab-subbab yang digunakan dalam penelitian. 3.1. knapsack problem knapsack problem merupakan permasalahan optimalisasi untuk memaksimalkan barangbarang yang ditempatkan kedalam sebuah wadah. barang yang dimaksud memiliki karakteristik dari sisi bentuk, ukuran, berat serta profitnya. sehingga bagaimana memaksimalkan penempatan barang dengan karakteristik yang dimasud dengan jumlah yang ditempat di sebuah wadah semaksimal mungkin dengan tujuan profit yang diperoleh sebesar-sebesarnya. sebagai contoh seorang penjual peralatan rumah tangga atau kebutuhan sehari-hari yang menggunakan sepeda, penjual harus mampu menempatkan semaksimal mungkin barang yang akan dijual pada sepedanya dengan kapasitas yang terbatas tentunya selain kapasitas tempat berat barang yang di bawa juga perlu diperhatikan supaya si penjual bisa mengayuh sepedanya. selain itu barang-barang yang dibawa adalah barang yang memiliki prioritas profit tinggi. [2] knapsack problem mempunyai total ukuran atau kapasitas yang disimbolkan dengan v, ada n jenis barang berbeda yang dimasukkan dalam knapsack. barang ke-i mempunyai bobot vi serta profit bi. xi merupakan total barang ke-i yang ditempatkan pada knapsack. fungsi tujuan dari permasalahan knapsack adalah: maksimum   n i ii xb 1 . ; dengan constraint    n i iii vxv 1 . terdapat beberapa jenis dari knapsack problem diantaranya adalah sebagai berikut: (1) 0/1 yaitu masing-masing barang terdapat 1 bagian saja. (2) fractional knapsack problem yaitu produk atau barang boleh dimuat sebagai, hal ini sering kita temukan dalam kehidupan seharihari misalnya beras, gula dan lain sebagainya. (3) bounded knapsack problem yaitu masingmasing barang terdapat n bagian. (4) unbounded knapsack problem yaitu masing-masing barang tersedia lebih dari satu bagian serta jumlah tak terbatas. [4] 3.2. algoritma genetika algoritma genetika merupakan penyelesaian permasalahan dengan teknik komputasi. awal terbentuknya berpedoman pada mekanisme proses seleksi alam atau yang sering disebut proses evolusi. pada mekanisme evolusi, individu berkesinambungan mengalami perbaikan gen untuk beradaptasi pada lingkungan sekitar. sehingga individu-individu terbaiklah yang dapat bertahan hidup. mekanisme seleksi alamiah menyebabkan perubahan gen pada individu-individu dengan perkembangbiakan didalam setiap generasinya. pada algoritma genetika mekanisme perkembangbiakan merupakan proses dasar yang menjadi titik fokus, sehingga bagaimana memperoleh generasi keturunan yang terbaik. dalam algoritma genetika proses pencarian dilakukan pada setiap generasinya yang berupa populasi. populasi terdiri dari beberapa individu atau yang disebut dengan kromosom, kromosom inilah sebagai calon solusi yang dicari nilai lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 190 fitness terbaik di setiap generasinya. kromosom tersusun atas gen dan nilai gen disebut sebagai alel. [5] proses algoritma genetika secara umum terbagi menjadi 5 tahapan yaitu: tahap pembentukan generasi pertama, tahap menentukan nilai fitness pada masing-masing kromosom, tahap seleksi, tahap regenerasi (crossover serta mutasi), tahapan pembentukan generasi baru. langkah-langkah yang dikerjakan dalam algoritma genetika dapat dijelaskan sebagai berikut: (1) mendeklarasikan bentuk kromosom. (2) menentukan fungsi fitness. (3) menentukan teknik pembangkitan populasi pertama. (4) melakukan reproduksi. (5) melakukan crossover. (6) melakukan mutasi. [5] 4. pembahasan hasil yang diperoleh setelah melakukan implementasi berdasarkan metodelogi dan perancangan sistem disajikan dalam screen shoot dan analisa output dari sistem yang dibangun. 4.1. tampilan awal program pada saat program dijalankan akan tampil seperti gambar 3 dibawah ini, pada tampilan awal program terdapat menu setting dan about. menu setting berfungsi untuk melakukan pengaturan variabel pada algoritma genetika dan menu about berfungsi untuk menampilkan cara menggunakan dan alur dari program. gambar 3. halaman utama berikut contoh nilai variabel yang dimasukkan pada sistem dengan max generasi sebesar 100, crossover rate sebesar 0.5, mutation rate sebesar 0.1 dan maximum load sebesar 50. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 191 gambar 4. menu settings pada menu settings terdapat pengaturan untuk variabel maksimal generasi, crossover rate, mutation rate, dan juga maksimal beban. setelah melakukan penyimpanan maka proses selanjutnya adalah memasukkan data barang-barang mulai dari kode, name weight dan price. gambar 5 dibawah ini adalah data barang yang sudah dimasukkan pada program aplikasi. gambar 5. import data barang dari excel data barang pada gambar 5 diatas adalah data yang di import dari excel yang berjumlah 10 data. setelah proses input data langkah selanjutnya yang dilakukan adalah menjalankan program algoritma genetika dengan mengklik tombol calculate. gambar 6 dibawah ini adalah lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p06 e-issn 2541-5832 192 hasil akhir yang diperoleh. gambar 6. import data barang dari excel gambar 6 diatas merupakan hasil dari algoritma genetika yaitu berupa total harga, fitness terbaik dan juga total generasi yang dilewati. sistem yang dibangun memiliki toleransi error sebesar 5% untuk menghentikan iterasi algoritma genetika dan menggunakan popzise sebesar 6 individu/kromosom. untuk melihat seluruh individu pada generasi terakhir dapat dilakukan dengan mengklik tombol “see result”. pada tampilan ini dapat dilihat seluruh kromosom yang terdapat pada generasi terakhir beserta total weight yang dimiliki oleh setiap individu. 5. kesimpulan berdasarkan output dari sistem yang dibangun mengenai permasalahan knapsack dengan menggunakan algoritma genetika didapat bahwa kromosom, seleksi, crossover serta mutasi sangat menentukan proses dan hasil yang diperoleh. dari output yang dihasilkan berdasarkan data barang yang digunakan dan tingkat error sebesar 5% diperoleh kromosom terbaik dengan kode [f h d i j] yang memiliki nilai fitness sebesar 145. generasi optimum terjadi pada generasi ke 2. sehingga dari data uji yang digunakan permasalahan knapsack problem dapat dioptimalkan penyelesaiannya. daftar pustaka [1] k. setemen, “implementasi algoritma genetika pada knapsack problem untuk optimasi pemilihan buah kemasan kotak,” seminar nasional aplikasi teknologi informasi, 2010, pp. 21–25. [2] k. d. kw, m. fadhli, and c. sutanto, “penyelesaian knapsack problem menggunakan algoritma genetika,” seminar nasional informatika, 2010, pp. 28–33. [3] suyanto, evolutionary computation: komputasi berbasis evolusi dan genetika. bandung: informatika, 2008. [4] m. hristakeva and d. shrestha, “solving the 0-1 knapsack problem with genetic algorithms,” proceedings of the 37 midwest instruction and computing symposium, 2004, morris, mn. [5] s. kusumadewi, artificial intelligence (teknik dan aplikasinya). yogyakarta: graha ilmu, 2003. panduan lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p05 e-issn 2541-5832 174 fuzzy simple additive weighting method in the decision making of human resource recruitment budi prasetiyoa1, niswah barorohb1, dwi efri rufiyantia2 acomputer science department, fmipa, universitas negeri semarang, indonesia jalan sekaran, gunung pati, sekaran, gn. pati, kota semarang, jawa tengah 1budipras@mail.unnes.ac.id baccounting department, fe, universitas negeri semarang, indonesia jalan sekaran, gunung pati, sekaran, gn. pati, kota semarang, jawa tengah 2barorohniswah@gmail.com abstract the company is one of the jobs that was founded to reduce unemployment. the progress of a company is determined by the human resources that exist within the company. so, the selection of workers will join the company need to be selected first. the hardest thing in making a selection factor is the effort to eliminate the subjectivity of the personnel manager so that every choice made is objective based on the criteria expected by the company. to help determine who is accepted as an employee in the company, we need a method that can provide a valid decision. therefore, we use fuzzy multiple attribute decision making with simple additive weighting method (saw) to decide to make in human resource recruitment. this method was chosen because it can provide the best alternative from several alternatives. in this case, the alternative is that the applicants or candidates. this research was conducted by finding the weight values for each attribute. then do the ranking process that determines the optimal alternative to the best applicants who qualify as employees of the company. based on calculations by the saw obtained the two highest ranking results are a5 (alternative 5) and a1 (alternative 1), to obtain two candidates received. keywords: fuzzy; simple additive weighting; human resource recruitment 1. introduction company as an organization that is driven by human resources (hr) confronted with a variety of choices to determine a quality workforce. hr management of a company affects key aspects of the company's business success. if the sdm can be organized well, it is expected that the company can carry out all the processes the business well. to obtain both the human resources, the necessary process of selection is also good. if the company needs new employees, the personnel department needs to select prospective employees by eliminating subjective factors so that every choice made is objective based on the criteria expected by the company. so, with the determination of those criteria, accepted new employees meet the reliable resources and the competitiveness improved management. since it was first discovered by lotfi a. zadeh in 1965, fuzzy logic has been widely used to help support decision making. one method of fuzzy logic is fuzzy multiple attribute decision making (fmadm). fuzzy multiple attribute decision making (fmadm) is a method used to find the optimal alternative of a number of alternatives to certain criteria [1]. there are several methods to resolve the problem fmadm, one of which is the simple additive weighting (saw) [2]. this method was chosen because it can provide the best alternative from several alternatives. some examples of the use of fuzzy logic in the selection of personnel including laing and wang [3], yaakob and watada [4], lovrich [5], and wang et al. [6], lazarevic [7]. this paper will discuss the use of saw method in the decision to hr recruitment. mailto:budipras@mail.unnes.ac.id1 lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p05 e-issn 2541-5832 175 2. method 2.1. decision support system decision support system is a system that helps decision-makers to supplement the information from the data that has been processed by the relevant and necessary to make a decision about a problem more quickly and accurately [8]. the purpose of making a decision support system [9], namely: a. providing ready for human for decision-making on issues that semi or unstructured. b. provide support for decision-making to managers at all levels to help the integration between levels. c. improve the effectiveness of managers in decision-making and not an increase inefficiency. 2.2. fuzzy multiple attributes decision making (fuzzy madm) basically, the process madm done through three stages: preparation of the components of the situation, the analysis and synthesis of information. there are several methods that can be used to solve the problem fmadm among others [2]: a. simple additive weighting method (saw) b. weighted product (wp) c. electre d. technique for order preference by similarity to ideal solution (topsis) e. analytic hierarchy process (ahp) 2.3. simple additive weighted (saw) churchman and ackoff (1945) was first using saw method to solve the problem of portfolio selection. saw method widely known and used to solve the problem of multiple attribute decision making (madm). saw method is one popular method because of that simplicity [10]. the basic concept simple additive weighted method (saw) is looking for a weighted sum of the performance rating for each alternative on all attributes. saw method requires a decision matrix normalization process to a scale that can be compared with all the ratings of existing alternatives [11]. 𝑟𝑖𝑗 = { 𝑋𝑖𝑗 𝑚𝑎𝑥𝑖𝑋𝑖𝑗 𝑖𝑓 𝑗 𝑖𝑠 𝑏𝑒𝑛𝑒𝑓𝑖𝑡 𝑎𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒 𝑚𝑖𝑛𝑖𝑋𝑖𝑗 𝑋𝑖𝑗 𝑖𝑓 𝑗 𝑖𝑠 𝑐𝑜𝑠𝑡 𝑎𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒 (1) where rij is the normalized performance rating of alternative 𝐴𝑖on 𝐶𝑗 attributes for each i = 1,2, ..., m and 𝑗 = 1,2,…,𝑛. preference value for each alternative (𝑉𝑖) provided: 𝑉𝑖 = ∑ 𝑤𝑗𝑟𝑖𝑗 𝑛 𝑗=1 (2) where: 𝑉𝑖 : ranking for each alternative 𝑤𝑗 : the weights of each criterion 𝑟𝑖𝑗 : the value of normalized performance rating 𝑉𝑖 larger value indicates that the selected alternative a_i more. steps to resolve fuzzy madm using saw method [2]: a. specify the criteria used as a reference for decision making. b. the rating determines the suitability of each alternative on each criterion. c. decide based on the criteria matrix, then normalizing matrix based on the equation adjusted for the type attribute to obtain the normalized matrix r. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p05 e-issn 2541-5832 176 d. the final results obtained from the ranking process is the summation of the matrix multiplication r normalized with the weight vector to obtain the greatest value is selected as the best alternative as a solution. 3. results and discussion decision making criteria of human resource recruitment are based on: criteria explanation c1 : written exam c2 : test scores psych test c3 : work experience c4 : education c5 : gpa c6 : interview giving value of each alternative on predetermined criteria are as follows: a. assessment written exam assessment written exam is based on the assessment criteria test results conducted by the company. the following table (table 1) categories for the assessment of the written exams were converted into crisp numbers. table 1. written exam written examinations category value 50 – 59 poor 0,25 60 – 69 satisfactory 0,5 70 – 79 good 0,75 80 – 100 very good 1 b. psych test rate assessment test psychological test is the assessment criteria based on test results of psychological test that has the potential employee in the process of a series of tests held company. c. work experience ratings assessment work experience is the assessment criteria based on the experience of the applicants in recognizing the work before applying. table 2 shows categories for the assessment of work experience who converted to crisp numbers. table 2. work experience work experience category value 1 years satisfactory 0,5 2 – 3 years good 0,75 4 years more very good 1 d. assessment of education educational assessment is the assessment criteria made by the company based on the formal education of applicants. table 3 shows the categories for educational assessment converted into crisp numbers. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p05 e-issn 2541-5832 177 table 3. education education category value d1 poor 0,25 d3 satisfactory 0,5 s1 good 0,75 s2 very good 1 e. rating value gpa rate cpi is based on the evaluation criteria of academic achievement of candidates. categories for the assessment of the gpa are converted into crisp numbers are shown in table 4. table 4. gpa mark gpa category value 1 – 1,9 poor 0,25 2 – 2,9 satisfactory 0,5 3,0 – 3,4 good 0,75 3,5 – 4 very good 1 f. assessment interview appraisal interview is the assessment criteria based on the results of the test interviews that have been conducted by the prospective employee in the process of a series of tests held company. categories for the assessment of the gpa are converted into crisp numbers are shown in table 5. table 5. assessment interviews interview category value 0 – 49 poor 0,25 60 – 69 satisfactory 0,5 70 – 79 good 0,75 80 – 100 very good 1 example of case: a company in a city require two new employees to be placed at the financial administration. therefore, companies do recruitment prospective employees by category and a series of tests held company. there are 5 applicants for a job in the company with the results of the data of applicants and applicants test results are shown in table 6 and table 7. table 6. applicants candidate name education gpa work experience eko s1 2,9 1 years andi d3 3,1 2 years 3 months rifki d1 3,5 2 years 7 months adbul s1 3,3 1 years hengki s2 3,4 1 years lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p05 e-issn 2541-5832 178 table 7. test result name written examinations psych test interview eko 79 77 75 andi 68 75 68 rifki 63 65 65 adbul 77 79 79 hengki 85 82 79 to determine the weighting of the criteria established in table 8 applicants. table 8. weight for criterion criteria weight linguistic value (𝐶1) written exam very good 0,8 (𝐶2) psych test scores very good 0,8 (𝐶3) work experience very good 0,8 (𝐶4) education good 0,75 (𝐶5) gpa satisfactory 0,5 (𝐶6) interview satisfactory 0,5 from table 8 obtained by the weight values (w) with the data 𝑊 = [0,8 0,8 0,8 0,75 0,5 0,5] in doing using simple additive weighting method (saw), first determine the name of the applicant as an alternative (table 9). table 9. alternative name alternative eko 𝐴1 andi 𝐴2 rifki 𝐴3 adbul 𝐴4 hengki 𝐴5 once an alternative is determined, then make the rating the suitability of each alternative on each criterion, shown in table 10. table 10. suitability rating alternative criteria 𝐶1 𝐶2 𝐶3 𝐶4 𝐶5 𝐶6 𝐴1 0,75 0,75 0,5 0,75 0,5 0,75 𝐴2 0,5 0,75 0,75 0,5 0,75 0,5 𝐴3 0,5 0,5 0,75 0,25 1 0,5 𝐴4 0,75 0,75 0,5 0,75 0,75 0,75 𝐴5 1 1 0,5 1 0,75 0,75 from table 10, the decision matrix obtained as follows. 𝑋 = ( 0,75 0,75 0,5 0,75 0,5 0,75 0,5 0,75 0,75 0,5 0,75 0,5 0,5 0,5 0,75 0,25 1 0,5 0,75 0,75 0,5 0,75 0,75 0,75 1 1 0,5 1 0,75 0,75) lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p05 e-issn 2541-5832 179 to normalize the matrix x into matrix r takes the weights of the criteria (w) and multiplied by the matrix x. for the calculation of the matrix r requires the classification criteria of value added benefit or cost in the table 11. table 11. the classification criteria criteria benefit cost (𝐶1) written exam √ (𝐶2) psych test scores √ (𝐶3) work experience √ (𝐶4) education √ (𝐶5) gpa √ (𝐶6) interview √ based on the classification criteria by which all the criteria included in the benefit, the calculation to normalize the matrix x is as follows. 𝑅11 = 0,75 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;1} = 0,75 1 = 0,75 𝑅21 = 0,5 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;1} = 0,5 1 = 0,5 𝑅31 = 0,5 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;1} = 0,5 1 = 0,5 𝑅41 = 0,75 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;1} = 0,75 1 = 0,75 𝑅51 = 1 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;1} = 1 1 = 1 𝑅12 = 0,75 𝑚𝑎𝑥{0,75;0,75;0,5;0,75;1} = 0,75 1 = 0,75 𝑅22 = 0,75 𝑚𝑎𝑥{0,75;0,75;0,5;0,75;1} = 0,75 1 = 0,75 𝑅32 = 0,5 𝑚𝑎𝑥{0,75;0,75;0,5;0,75;1} = 0,5 1 = 0,5 𝑅42 = 0,75 𝑚𝑎𝑥{0,75;0,75;0,5;0,75;1} = 0,75 1 = 0,75 𝑅52 = 1 𝑚𝑎𝑥{0,75;0,75;0,5;0,75;1} = 1 1 = 1 𝑅13 = 0,5 𝑚𝑎𝑥{0,5;0,75;0,75;0,5;0,5} = 0,5 0,75 = 0,67 𝑅23 = 0,75 𝑚𝑎𝑥{0,5;0,75;0,75;0,5;0,5} = 0,75 0,75 = 1 𝑅33 = 0,75 𝑚𝑎𝑥{0,5;0,75;0,75;0,5;0,5} = 0,75 0,75 = 1 𝑅43 = 0,5 𝑚𝑎𝑥{0,5;0,75;0,75;0,5;0,5} = 0,5 0,75 = 0,67 𝑅53 = 0,5 𝑚𝑎𝑥{0,5;0,75;0,75;0,5;0,5} = 0,5 0,75 = 0,67 𝑅14 = 0,75 𝑚𝑎𝑥{0,75;0,5;0,25;0,75;1} = 0,75 1 = 0,75 𝑅24 = 0,5 𝑚𝑎𝑥{0,75;0,5;0,25;0,75;1} = 0,5 1 = 0,5 𝑅34 = 0,25 𝑚𝑎𝑥{0,75;0,5;0,25;0,75;1} = 0,25 1 = 0,25 𝑅44 = 0,75 𝑚𝑎𝑥{0,75;0,5;0,25;0,75;1} = 0,75 1 = 0,75 lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p05 e-issn 2541-5832 180 𝑅54 = 1 𝑚𝑎𝑥{0,75;0,5;0,25;0,75;1} = 1 1 = 1 𝑅15 = 0,5 𝑚𝑎𝑥{0,5;0,75;1;0,75;0,75} = 0,5 1 = 0,5 𝑅25 = 0,75 𝑚𝑎𝑥{0,5;0,75;1;0,75;0,75} = 0,75 1 = 0,75 𝑅35 = 1 𝑚𝑎𝑥{0,5;0,75;1;0,75;0,75} = 1 1 = 1 𝑅45 = 0,75 𝑚𝑎𝑥{0,5;0,75;1;0,75;0,75} = 0,75 1 = 0,75 𝑅55 = 0,75 𝑚𝑎𝑥{0,5;0,75;1;0,75;0,75} = 0,75 1 = 0,75 𝑅16 = 0,75 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;0,75} = 0,75 0,75 = 1 𝑅16 = 0,5 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;0,75} = 0,5 0,75 = 0,67 𝑅16 = 0,5 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;0,75} = 0,5 0,75 = 0,67 𝑅16 = 0,75 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;0,75} = 0,75 0,75 = 1 𝑅16 = 0,75 𝑚𝑎𝑥{0,75;0,5;0,5;0,75;0,75} = 0,75 0,75 = 1 a matrix obtained as follows. 𝑅 = ( 0,75 0,75 0,67 0,75 0,5 1 0,5 0,75 1 0,5 0,75 0,67 0,5 0,5 1 0,25 1 0,67 0,75 0,75 0,67 0,75 0,75 1 1 1 0,67 1 0,75 1 ) furthermore, the ranking process done by the sum of the normalized r matrix multiplication with the weight vector. the ranking result in the table 12. 𝑉1 = (0,8×0,75)+ (0,8×0,75)+ (0,8×0,67)+ (0,75×0,75)+ (0,5×0,5)+ (0,5 ×1) = 3,0485 𝑉2 = (0,8×0,5)+ (0,8 ×0,75) + (0,8 ×1)+ (0,75 ×0,5)+ (0,5× 0,75)+ (0,5×0,67) = 2,885 𝑉3 = (0,8×0,5)+ (0,8 ×0,5) +(0,8 ×1)+ (0,75 ×0,25)+ (0,5× 1)+ (0,5 ×0,67) = 2,6225 𝑉4 = (0,8 ×0,75) +(0,8 ×0,75)+ (0,8 ×0,67)+ (0,75 ×0,75)+ (0,5 ×0,75)+ (0,5 ×1) = 3,1735 𝑉5 = (0,8×1) +(0,8 ×1)+ (0,8×0,67)+ (0,75× 1)+ (0,5 ×0,75) +(0,5 ×1) = 3,761 table 12. ranking result alternative value rank a1 3,0485 3 a2 2,885 4 a3 2,6225 5 a4 3,1735 2 a5 3,761 1 having obtained the results of two ranks in 𝑉5 and 𝑉4 then the best alternative is the a5 and a1. so, the two candidates received is hengki (a5) and abdul (a1). 4. conclusion the determination of employee recruitment is done based on the criteria that have been made by the company. the weights given to each criterion affect the result of determining candidates received. changes in the value of the weight on a criterion influencing the final calculation. the lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p05 e-issn 2541-5832 181 final results obtained from the ranking process with the greatest value is the best alternative as a solution. so, the two candidates received in example case is a5 and a1. references [1] r. a. p. youllia indrwaty, andriana, “implementasi metode simple additive weighting pada sistem pengambilan keputusan sertifikasi guru,” informatika, vol. 2, no. 3, pp. 1–7, 2011. [2] s. kusumadewi, s. hartati, a. harjoko, and retantyo wardoyo, “fuzzy multi attribute decision making (fuzzy madm),” ed. pertama cetakan pertama. graha ilmu. yogyakarta., 2006. [3] g. s. liang and m. j. j. wang, “personnel placement in a fuzzy environment,” computers & operations research, vol. 19, no. 2, pp. 107–121, 1992. [4] s. b. yaakob and j. watada, “optimal workers’ placement in an industrial environmen,” fuzzy sets and systems from different perspectives. studies in fuzziness and soft computing, vol 243, 2009. [5] m. lovrich, “a fuzzy approach to personnel selection,” 2000. [6] t. wang, m.-c. liou, and h.-h. hung, “selection by topsis for surveyor of candidates in organisations,” international journal of services operations and informatics, vol.1, no.4, pp.332 346, 2006. [7] s. p. lazarevic, “personnel selection fuzzy model,” international transactions in operational research, vol. 8, no. 1, pp. 89–105, 2001. [8] s. nobari, z. jabrailova, and a. nobari, “using fuzzy decision support systems in human resource management,” international conference on innovation and information management, 2012, vol. 36, pp. 204–207. [9] r. idmayanti, “sistem pendukung keputusan penentuan penerima beasiswa bbm (bantuan belajar mahasiswa) pada politeknik negeri padang menggunakan metode fuzzy multiple attribute decision making,” jurnal teknologi informasi & pendidikan, vol. 7, no. 1, pp. 18–28, 2014. [10] j.-j. huang and g.-h. tzeng, multiple attribute decision making: methods and applications. 2011. [11] w. f. cascio and h. aguinis, “research in industrial and organizational psychology from 1963 to 2007: changes, choices, and trends.,” the journal of applied psychology, vol. 93, no. 5, pp. 1062–1081, 2008. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 179 sistem monitoring spesifikasi dan utilitas host di jaringan komputer berbasis web i nyoman piarsa1, putu bayu suda togantara2 1,2teknologi informasi, universitas udayana, bali e-mail: manpits@gmail.com1, bayu.ski08@gmail.com2 abstrak sistem monitoring spesifikasi dan utilitas menggunakan protocol snmp untuk melakukan pengkoleksian data dari host. sistem ini merupakan sistem monitoring berbasis web yang dapat melakukan monitoring terhadap spesifikasi hardware seperti cpu resources, memory resources, job progress, running proses serta kapasitas hardisk. sistem juga menyediakan fasilitas power control yang berfungsi untuk mematikan maupun merestart host yang dimonitoring dan fasilitas manajemen proses yang digunakan untuk melihat dan mematikan proses apa saja yang sedang berjalan pada host. kata kunci: sistem monitoring, berbasis web, snmp abstract monitoring system of spesification and utility is to collect data from host by using snmp protocol. the web based system is able to observe hardware specification such as cpu resources, memory resouces, job progress, running process and hardisk capacity. this system is also available for supporting power control in order to shut down and restart the monitored host and process management that used to observe and shut down any running process in the host. keywords: monitoring system, web based, snmp 1. pendahuluan simple network management protocol (snmp) adalah sebuah internet protocol suite yang digunakan untuk melakukan pengkoleksian data yang nantinya akan diakses oleh sistem monitoring jaringan. snmp terdiri dari 3 bagian, pertama adalah mib yang merupakan sekumpulan informasi yang teratur tentang keberadaan seluruh peralatan jaringan. semua informasi yang diakses atau dimodifikasi melalui agen sama dengan mib. informasi-informasi tersebut akan diambil oleh agen dan diberikan kepada manajer snmp berdasarkan permintaan. tidak semua informasi yang ada pada mib diberikan oleh agen, akan tetapi berdasarkan tindakan yang dilakukan oleh manajer snmp. yang kedua adalah manajer snmp merupakan platform sistem manajemen atau pelaksana dari manajemen jaringan. manajer ini terdiri atas satu proses atau lebih yang berkomunikasi dengan agen-agennya dan berfungsi untuk mengumpulkan informasi dari agen dalam jaringan. manajer snmp bertanggungjawab untuk melakukan pengaksesan, modifikasi atau menerima informasi dari agen-agen yang dikelola. dan yang ketiga adalah agen yang merupakan software yang dapat berjalan pada perangkat jaringan yang dimanajemen. agen menyediakan informasi untuk nmp dengan mengawasi beragam aspek operasional perangkat. 2. metode real time system berdasarkan waktu adalah sistem yang melakukan pengukuran kendali dan pergerakan dalam setiap interval waktu yang telah ditentukan. sistem monitoring spesifikasi dan utilitas ini tidak sepenuhnya menggunakan konsep real time system, tetapi sistem ini juga menggunakan konsep soft real time system. soft real time system adalah real time system yang tidak sepenuhnya menggunakan interval waktu dalam proses pengambilan data pada computer mailto:manpits@gmail.com mailto:bayu.ski08@gmail.com lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 180 client. sistem monitoring ini memiliki beberapa fitur yang dapat digunakan, antara lain monitoring spesifikasi, power control dan manajemen proses. bagian monitoring spesifikasi dan power control menggunakan konsep soft real time system karena sistem tidak akan secara otomatis menampilkan data spesifikasi dari masing-masing host. bagian yang menggunakan konsep real time system adalah manajemen proses. bagian ini akan menampilkan data proses dari setiap host dengan interval waktu yang telah ditentukan oleh sistem. 3. perancangan sistem sistem monitoring spesifikasi dan utilitas ini menggunakan dua buah agen, yaitu agen snmp dan agen delphi. agen snmp digunakan untuk melakukan pengkoleksian data spesifikasi host dan proses yang berjalan pada host, sedangkan untuk pengkoleksian data penggunaan ram, cpu dan fungsi power control menggunakan agen delphi. berikut ini adalah penjelasan dari masing-masing agen. perancangan agen snmp snmp adalah sebuah internet protocol suite yang digunakan untuk melakukan pengkoleksian data yang nantinya akan diakses oleh server sistem monitoring jaringan. struktur snmp dibagi menjadi 3 proses, yaitu :  pembuatan community: proses untuk membuat community pada snmp. tiap snmp mempunyai community sendiri yang merupakan komunitas untuk menyimpan data-data hasil snmp (seperti total trafik saat itu)  snmpget function: proses untuk mengambil data pada network management station yaitu data traffic yang masuk dan keluar pada ethernet device. data ini akan masuk ke dalam community dari snmp yang ada.  penulisan pada file: proses menuliskan hasil dari data yang masuk ke komunitas ke dalam file. snmpget function digunakan untuk mengambil data monitoring pada host. untuk mendapatkan data monitoring, server harus mengirimkan oid (object id) dari data yang akan dimonitor. agen snmp hanya bekerja jika server mengirimkan oid yang akan dimonitor. berikut ini adalah diagram alir dari proses pengambilan data pada host. start snmpget function stop inisialisasi community tampilkan data monitoring host up y n gambar 1. flowchart perancangan sistem snmp lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 181 perancangan agen delphi agen delphi digunakan untuk menjalankan perintah yang dikirimkan oleh server, agen ini tidak sepenuhnya bekerja secara otomatis untuk melakukan monitoring host, tetapi agen juga harus menerima perintah dari server untuk melakukan pekerjaan. agen delphi memerlukan perintah dari server untuk melakukan shutdown dan restart host serta perintah untuk melakukan kill proses, sedangkan untuk melakukan monitoring penggunaan ram dan cpu serta monitoring proses, agen delphi menggunakan timer sehingga akan bekerja tanpa perintah dari server. berikut ini adalah diagram alir dari agen delphi. start uses comctrls ip address connect server save to db status up sysuptime a b y n cek penggunaan ram & cpu list proses save to db ram usage cpu usage list proses cek db : perintah<>0 perintah=1perintah=2 shutdownrestart cek pid ke db kill pid host up a stop save to db status down b y n y n yy n n gambar 2. flowchart agen delphi agen delphi melakukan monitoring proses yang sedang berjalan pada host tanpa menunggu perintah dari server. bagian proses yang dimonitor termasuk proses id, nama proses, type, size, status, start time dan end time. start time didapatkan pada saat agen delphi menemukan proses id baru yang belum tersimpan ke dalam database, sedangkan end time didapatkan pada saat agen delphi tidak menemukan proses id dari proses sebelumnya yang sudah tersimpan ke dalam database. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 182 4. pengujian sistem pengujian sistem monitoring spesifikasi dan utilitas ini meliputi monitoring spesifikasi, kapasitas harddisk, penggunaan ram dan cpu, power control dan manajemen proses. monitoring konektifitas host gambar 3 menunjukkan daftar status konektifitas host. sistem akan melakukan pengecekan status konektifitas host setiap satu menit. user hanya dapat melihat spesifikasi dari host yang sedang aktif. gambar 3. monitoring konektifitas host monitoring spesifkasi gambar 4 menunjukkan hasil monitoring spesifikasi host. spesifikasi yang dapat ditampilkan terbatas karena tidak semua informasi dapat dimonitoring oleh agen snmp. system up time pada pada sistem monitoring ini bersifat statis, sehingga user harus me-refresh halaman web untuk mendapatkan data system up time terbaru. gambar 4. monitoring spesifikasi host monitoring kapasitas harddisk gambar 5 menunjukkan hasil monitoring kapasitas harddisk. sistem monitoring ini hanya dapat memonitoring dua partisi dari harddisk host yang dimonitoring, jika pada host tersebut sedang menggunakan removable disk maka tidak akan ditampilkan. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 183 gambar 5. monitoring kapasitas harddisk monitoring penggunaan ram dan cpu gambar 6 menunjukkan hasil monitoring ketersediaan ram dari host yang dimonitor. ketersediaan ram tersebut akan terus ter-update sesuai dengan host yang dimonitor. data ketersediaan ram didapat dari aplikasi agen yang terdapat di host yang dimonitor. gambar 6. monitoring ketersediaan ram gambar 7 menunjukkan hasil monitoring penggunaan cpu.penggunaan cpu tersebut akan terus ter-update sesuai dengan host yang dimonitor. data ketersediaan ram didapat dari aplikasi agen yang terdapat di host yang dimonitor. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 184 gambar 7. monitoring penggunaan cpu power control gambar 8 menunjukkan tampilan fungsi power control. halaman power control ini digunakan untuk melakukan shutdown dan restart terhadap host yang dimonitor. server akan mengirimkan perintah kepada agen kemudian aplikasi agen yang terdapat di host yang dimonitor akan menjalankan perintah yang telah dikirimkan oleh sistem. gambar 8. power control manajemen proses halaman manajemen proses dibagi menjadi 2, yaitu list proses dan history proses. list proses halaman ini menampilkan daftar proses apa saja yang sedang berjalan di host yang sedang dimonitor. pada halaman ini admin bisa melakukan perintah kill terhadap proses yang sedang berjalan. perintah tersebut akan dikirimkan oleh sistem kepada aplikasi agen yang berjalan pada host yang dimonitor, kemudian host tersebut akan melakukan kill proses sesuai dengan pid (proccess id) yang telah dipilih sebelumnya. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 185 gambar 9. manajemen proses history proses halaman ini menampilkan history proses dari setiap host. jika pada halaman list proses sebelumnya admin memilih history proses harian maka pada halaman ini hanya akan tampil history proses untuk tanggal tertentu saja, sedangkan jika admin memilih history proses bulanan maka akan ditampilkan history proses dari rentang tanggal yang telah dipilih sebelumnya. gambar 10. history proses 5. kelebihan dan kekurangan sistem tentunya dalam pembuatan sistem ini tidak lepas dari kelebihan dan kekurangan. berikut ini adalah uraian tentang kelebihan dan kekurangan sistem. kelebihan sistem secara umum sistem monitoring spesifikasi dan utilitas komputer ini memiliki beberapa kelebihan, antara lain : lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 186 1. sistem monitoring ini dapat mempermudah administrator jaringan dalam melakukan pengawasan terhadap komputer client/host yang terhubung ke dalam jaringan karena sistem monitoring dapat melakukan pengecekan konektifitas jaringan terhadap host yang dimonitor. 2. sistem monitoring ini mempermudah administrator jaringan dalam melakukan pengecekan spesifikasi komputer serta ketersediaan kapasitas harddisk serta besar penggunaan ram dan cpu. 3. sistem monitoring ini mempermudah administrator untuk mematikan dan me-restart host secara langsung melalui server. 4. sistem monitoring ini dikembangkan dengan beberapa tools sehingga kinerja masingmasing tools juga sangat dibutuhkan.  dengan menggunakan snmp memungkinkan kita untuk memperoleh data monitoring mengenai host yang dimonitor,  dengan pskill dapat memungkinkan sistem untuk melakukan kill proses pada komputer client tanpa harus menggunakan windows permission. 5. fasilitas history proses yang ada pada sistem memungkinkan administrator untuk mengetahui proses apa saja yang sedang berjalan maupun sudah berjalan pada komputer client. kekurangan sistem disamping memiliki kelebihan seperti yang dipaparkan di atas, sistem monitoring ini juga memiliki beberapa kekurangan, seperti : 1. diperlukannya melakukan konfigurasi manual terhadap client baru yang ingin dimonitor, hal ini disebabkan karena pada komputer client yang akan dimonitor terlebih dahulu harus diinstal agen snmp agar server dapat melakukan pengambilan data monitoring. 2. loading untuk service pengaktifan agen snmp memerlukan waktu paling lama adalah 15 detik diawal inisialisasi, hal ini disebabkan karena diperlukan koneksi ke masing-masing host untuk mengetahui apakah terdapat agen snmp atau tidak. 3. sistem monitoring ini hanya dibatasi pada monitoring spesifikasi dan utilitas komputer, tidak dilengkapi dengan monitoring network traffic dari setiap host. 6. simpulan sistem monitoring spesifikasi dan utilitas berbasis web ini telah berhasil diimplementasikan dengan menggunakan snmp sebagai protokol pengumpul data monitoring dan aplikasi agen dengan borland delphi 7.0. dengan menggunakan database untuk menyimpan ip address setiap host yang dimonitoring serta history proses dari host tersebut, maka mempermudah administrator dalam melakukan manajemen host. hal ini juga mempermudah administrator untuk mengetahui spesifikasi dan utilitas dari setiap host yang dimonitoring. perbandingan sistem monitoring spesifikasi dan utilitas dengan phpsysinfo dan network view memiliki hasil yang hampir sama. perbedaan hasil monitoring terdapat pada monitoring penggunaan ram, hal ini disebabkan karena proses running proccess pada host lebih cepat daripada proses pemantauan dari agen delphi yang ada pada host tersebut, sehingga data balasan yang diberikan agen kepada server tidak akan sama dengan host yang dimonitor. user yang menggunakan sistem monitoring ini memerlukan waktu sedikit lama diawal inisialisasi, waktu yang diperlukan paling lama sekitar 15 detik, hal ini disebabkan karena diperlukan koneksi ke masing-masing host untuk mengetahui apakah terdapat agen snmp daftar pustaka [1] masya, fajar. fiade, andrew, “socket programming”, yogyakarta , graha ilmu, 2011. [2] mauro, douglas. schmidt, kevin, “essential snmp”, america, o’reilly, 2003. [3] mauro, douglas. schmidt, kevin, “essential snmp”, america, o’reilly, 2005. [4] kadir, a., “dasar pemrograman web dinamis menggunakan php”, yogyakarta, andi offset, 2003. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 187 [5] nugroho. b, “php dan mysql dengan editordreamweavermx”, yogyakarta, andi offset, 2004. [6] kadir, a., “dasar aplikasi database mysql delph”, yogyakarta , andi offset, 2003. [7] madcoms, “pemrograman borland delphi 7 (jilid 1)”, yogyakarta , andi offset, 2003. [8] sukmaaji, a., “jaringan komputer konsep dasar pengembangan jaringan dan keamanan jaringan”, yogyakarta , andi, yogyakarta, 2008. [9] ----.---bytesphare.2006.host resources v2 mib : http:\\www.bytesphere.com, 2012. [10] ----.---“dokumentasi snmp : net-snmp.sourceforge.net, 2012. panduan lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 144 fish species recognition with faster r-cnn inception-v2 using qut fish dataset yonatan adiwinataa1, akane sasaokab2, i putu agung bayupatia3, oka sudanaa4 adepartment of information technology, faculty of engineering, udayana university, jl. raya kampus unud bukit jimbaran, bali, indonesia 1yonatanadiwinata@student.unud.ac.id (corresponding author) 3bayuhelix@yahoo.com 4agungokas@unud.ac.id belectrical engineering and computer science, kanazawa university kanazawa, ishikawa, japan 2acannie0530@gmail.com abstract fish species conservation had a big impact on the natural ecosystems balanced. the existence of efficient technology in identifying fish species could help fish conservation. the most recent research related to was a classification of fish species using the deep learning method. most of the deep learning methods used were convolutional layer or convolutional neural network (cnn). this research experimented with using object detection method based on deep learning like faster r-cnn, which possible to recognize the species of fish inside of the image without more image preprocessing. this research aimed to know the performance of the faster r-cnn method against other object detection methods like ssd in fish species detection. the fish dataset used in the research reference was qut fish dataset. the accuracy of the faster r-cnn reached 80.4%, far above the accuracy of the single shot detector (ssd) model with an accuracy of 49.2%. keywords: fish species recognition, object detection, faster r-cnn, qut fish dataset, deep learning 1. introduction ocean makes up two-thirds of the earth's surface. ocean ecosystems have an important role in the balance of nature, with a variety of living things that live in it, like fishes. more than 22,000 species of fishes make up nearly half of the total 55,000 species of vertebrates living on earth [1]. the development of technology related to the cultivation of fish species was very important for the preservation and protection of marine ecosystems because fish was an important factor in the marine ecosystem. the existence of efficient technology in fish species recognition could help the fish cultivation process because the cultivation method for each fish was not always the same. fish species were identified through manual observation by humans in the past, which required humans to study various fish characteristics in order to recognize the fish species, and recently the fish species recognition could be done by utilizing artificial intelligence technology. the latest research that has been done related to the fish species classification was using the deep learning method. the deep learning method that was used currently was the convolutional layer or convolutional neural network (cnn) [1]–[3]. the classification method in the research references needs background removal preprocessing to recognize the fish species inside the image. this research experimented with using object detection method based on deep learning like faster r-cnn, which possible to recognize the species of fish inside of the image without more image preprocessing (fish species detection). the main method used in this research was the faster r-cnn method with inception-v2 architecture. single shot detector (ssd) is also used in this research as a compliment. this research aimed to know the performance of the faster r-cnn method against other object mailto:1yonatanadiwinata@student.unud.ac.id mailto:3bayuhelix@yahoo.com mailto:4agungokas@unud.ac.id mailto:2acannie0530@gmail.com lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 145 detection methods like ssd in fish species detection. faster r-cnn was chosen because faster r-cnn was a method that popular recently, and it had a great performance in object detection, which better than other basic object detection methods like ssd [4] and yolo-v3 [5]. the result of this research was comparison performance in fish species recognition between faster r-cnn and ssd object detection method. the first research reference used was research from praba hridayami et al., which discussed the classification of fish species using the convolutional neural network (cnn) with vgg-16 architecture. the dataset used was the qut fish dataset. the data used were 50 classes with ten training data and 5 test data for each class. the total data used was 750 cropped image data. evaluation of test results was carried out using the genuine acceptance rate (gar), false acceptance rate (far), and false rejection rate (frr). the best test results obtained were with gar 96.4%, far 3.6%, and frr 3.6% [1]. the next research reference was about improving the performance of transfer learning in the squeeze-and-excitation networks + bilinear cnn (se+bcnn) method. this research was done by chenchen qiu et al. the highest accuracy achieved on the qut fish dataset was 71.80% [2]. the next research reference was researched by m. sarigül and m. avci about the comparison of test results from three different custom convolutional layers architectures. the dataset used was the qut fish dataset. this research used 93 species from this dataset. the highest accuracy that was obtained in this study was 46.02% [3]. the next research reference was about traffic light detection research from janahiraman and subhan. this research was comparing the results of traffic light detection between ssdmobilenet-v2 and faster r-cnn inception-v2 architecture. the results of the test accuracy that have been obtained by the faster r-cnn inception-v2 method was 97.02%, and ssd-mobilenetv2 was 58.21% [4]. the next research reference was about livestock detection, which was also carried out by comparing several object detection methods by han et al. the dataset used was an image containing livestock with a resolution of 4000 pixels x 3000 pixels taken from the air. the methods compared in the journal were faster r-cnn, yolov3, and the unet + inception method. on the faster r-cnn, the accuracy obtained was 89.1%, yolo-v3 gets 83% accuracy, and unet + inception gets 89.3% accuracy [5]. the next research reference was about investigating fruit species detection with faster r-cnn from basri et al. this research used object class images of mango and dragon fruit as image data. the object detection model moves with the help of the tensorflow library. the results in this research were reached accuracy, up to 70.6% [6]. 2. research methods there was 4 phase in this research. these phases were data collecting phase, data processing phase, data training phase, and testing phase. figure 1. research flowchart lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 146 the data collection phase was the phase of collecting data needed in this research. the data that must be collected was fish dataset. the fish dataset used in this research was the qut fish dataset [7]. the data processing phase was the phase of adjusting the data from the dataset obtained for use in the data training phase. this research used 50 fish classes with ten training images and 5 test images for each class. the total image data used was 750 data. the reason for using this amount of data was so that the results obtained could be compared with current research references [1] because of similar data usage conditions. the 50 names of fish data classes from qut fish used in this research could be seen in table 1. the data training phase was the phase of training the object detection model with the faster rcnn method inception v-2 architecture using training data that has been prepared in the previous phase. the data training process was done with google colab cloud service. the testing phase was the phase to test the performance of the object detection model that has been trained and evaluating the test results. evaluation of test results would be compared with the results obtained from previous related research [1]–[3]. the 50 classes of fish used in this research were selected based on the consideration that each class must have a minimum of 15 data from this research reference [1]. these 15 data would be used in the training and testing phase. 2.1. faster r-cnn the popularity of machine learning was increasing following the popularity of artificial neural networks (ann). ann was a non-linear complex learning system that occurs in a network of neurons [8]. convolutional neural network (cnn) was one of the most developed ann derivatives currently [1]. cnn was a deep learning algorithm that uses a convolutional layer for feature extraction and a fully connected layer for classification [9]. cnn could be applied in image and text classification [10], [11]. the method used in this research was faster r-cnn. faster r-cnn was a deep learning algorithm developed from cnn that could be used in object detection systems [12]. the object detection system was a system that has a function to localize objects in the image, so the classification process would get better results [13]. faster r-cnn was the development of fast r-cnn. fast r-cnn was an object detection method that used the selective search method in the region proposal search process [14]. the region proposal module task was to find regions or areas that may contain objects in it [15]. shaoqing ren, in his research on the implementation of faster r-cnn as real-time object detection, revealed that this method generally consists of two modules, namely region proposal network (rpn) and fast r-cnn. [16]. figure 2 was an illustration of the faster r-cnn method workflow. the input that was entered into the system will be processed in the convolutional network first to get the feature of the object in the image, named feature maps. then feature maps from the convolutional network will be forwarded to the region proposal network (rpn) module and the fast r-cnn module. the region proposal function was to find regions or areas that may contain figure 2. illustration of the faster r-cnn method workflow [16] lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 147 objects in it (region proposal) [17]. the fast r-cnn module function was refining the region proposals of the rpn and classifying the objects in it [16]. 2.2. single shot detector (ssd) ssd was a single-shot detector for multiple class objects that was faster than yolo. the ssd method was based on a feed-forward convolutional network that produces a fixed-size collection of bounding boxes and scores for the presence of object class instances in those boxes, followed by a non-maximum suppression step to produce the final detections. ssd only needs an input image and ground truth boxes for each object during training. ssd object detection method was designed to create a deep learning object detection method with a lighter process than other object detection methods based on deep learning processes like yolo and faster r-cnn [18]. 2.3. genuine acceptance rate (gar), false acceptance rate (far), false rejection rate (frr) and accuracy (acc) genuine acceptance rate (gar) was the percentage of the number of objects that were correctly recognized [19]. the results of the object classification must get the correct class with a probability above the threshold value used. the formula of gar showed in (1) [20]. gar = 1 − frr (1) false acceptance rate (far) was the percentage of the number of objects received, but the class classification results were wrong [21]. false acceptance rate could also be said as false positive. the formula of far showed in (2) [20]. far = total number of fish species identified with another fish species total number of test data (2) false rejection rate (frr) was the percentage of the number of objects that do not get a single classification result. the false rejection rate was also commonly referred to as the false negative. the formula of frr showed in (3) [20]. frr = total number genuine of fish species rejected total number of test data (3) accuracy (acc) was calculated as the number of all correct predictions divided by the total number of the test data. the formula of acc showed in (4). acc = total number of fish species identified correctly total number of test data (4) 2.4 evaluation protocol the process of evaluating test results was calculating the values of gar, far, frr, and accuracy from both of faster r-cnn and ssd models. gar, far, and frr was used based on this research references [1]. accuracy is used to complement the evaluation of test results. the formula of gar, far, frr, and accuracy could be seen in section 2.3. the detection result used was the recognition result with the highest confidence percentage. 3. result and discussion this section describes the results and discussion of this research about fish species recognition using the r-cnn faster and ssd method with inception-v2 architecture with the qut fish dataset. 3.1. preparing training data and testing data training data was the data used in the model training process. the training data used were 10 data for each class. total fish classes used in this research were 50 fish classes. total training lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 148 data used were 500 data from the qut fish dataset. examples of training data used in this research could be seen in figure 3. test data was the data used in the testing data phase. the test data used were 5 data for each class. the total fish class used in this research were 50 fish classes. total test data used were 250 data from the qut fish dataset. examples of test data used in this research could be seen in figure 4. 3.2. implementation this subsection contained the implementation of the testing phase. the testing phase was done by running the detection process upon the test image using the object detection model of the training result. the optimum threshold used in faster r-cnn model testing was 72%, which was the optimum threshold of the far and frr values. the optimum threshold used in single shot detector (ssd) model testing was 54%, which was the optimum threshold of the far and frr values. figure 5 was an example of a detection result with one correct detection result. figure 5 was an example of test results with one correct detection result, which belonged to the genuine acceptance rate (gar). the class object contained in the image was aluterus scriptus, and the detection results obtained were the aluterus scriptus class with 99% confidence. the confidence value was the percentage of object similarity in the image to the object recognized according to the object detection model or object classification model. in the detection results of the object detection method, there might be images that had more than one detection result which had confidence above the threshold value. an example of this case could be seen in figure 5. figure 4. testing data samples figure 3. training data samples lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 149 figure 6 was an example of test results that get more than one detection result. the image used was bodianus diana class test image. the detection results obtained were the cirrhilabrus cyanopleura class with 86% confidence and diana bodianus class with 77% confidence. in this test image, the detection results used were cirrhilabrus cyanopleura class because it had the highest confidence percentage. this test data result belonged to the false acceptance rate (far) because it had wrong recognition. figure 7 was an example of test results that did not get figure 5. the test results with one correct detection result figure 6. the test results with more than one detection result figure 7. the test results without any detection result lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 150 any detection results. the test results from figure 7 belonged to the false rejection rate (frr). the test image used was the stethojulis bandanensis class test image. 3.3. testing result this section contained the testing result of the faster r-cnn and ssd model in fish species detection. fish species detection was recognized as the fish species inside a raw fish image. the raw fish image was an image of fish that not has been preprocessed. table 3 contained a comparison of the testing result between faster r-cnn and ssd. evaluation of the testing result used was gar, far, frr, and accuracy. the performance of each faster r-cnn and ssd model could be seen in table 3. the faster rcnn model had much better performance than the ssd model. faster r-cnn accuracy was 80.4%, much better than ssd accuracy that was 49.2%. ssd model made a more wrong prediction of up to 24.8% (far) and more no detection result up to 26% (frr). more wrong predictions and no detection result cause the ssd model to have low accuracy, although already using the optimum threshold in the testing phase. faster r-cnn had higher performance than the ssd model proved that faster r-cnn was more reliable for fish species detection. test data that had the most failed prediction in faster r-cnn were from four class fish, such as anyperodon leucogrammicus, bodianus diana, cephalopholis sexmaculata, and pseudocheilinus hexataenia. all test data from the anyperodon leucogrammicus class got a failed prediction. three test data got the wrong prediction, and two test data got no detection result. figure 8. some samples of anyperodon leucogrammicus training data figure 8 showed some samples of anyperodon leucogrammicus training data. those anyperodon leucogrammicus training data had inconsistent features that made the model difficult to recognize the fish species in anyperodon leucogrammicus tests data. there were two training table 3. comparison of gar, far, frr, and acc between faster r-cnn and ssd method gar far frr acc ssd inception-v2 74% 24.8% 26% 49.2% faster r-cnn inception-v2 90.4% 10% 9,6% 80.4% lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 151 data with binary color mode. in faster r-cnn, object color was an important feature of an object. those binary colored images interfered with the training of the model. then there were two training data with greeny color that the fish did not have a dorsal fin. that inconsistency shape in training data caused the faster r-cnn model could not detect the fish in test data correctly. four test data from bodianus diana's class got failed prediction. two test data got the wrong prediction, and two test data got no detection result. figure 9. some samples of bodianus diana testing data figure 9 showed some samples of not good bodianus diana training data. these two binary colored images caused one wrong prediction and one test data with no detecting result. another two test data with failed prediction was in good quality images so that two another failed prediction caused by the failure of faster r-cnn model. four test data from the cephalopholis sexmaculata class got failed prediction. those four test data got got no detection result. figure 10. cephalopholis sexmaculata testing data that got failed prediction figure 10 showed cephalopholis sexmaculata testing data that got failed prediction. there were two data that got any prediction result, but the confidence level below the optimum threshold used (72%). one of those two data got the correct prediction result, so one failed prediction result was caused by the threshold used to high. another three test data with failed prediction was in good lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 152 quality images, so that three another failed prediction caused by the failure of faster r-cnn model. three test data from pseudocheilinus hexataenia got failed prediction. those three test data got got wrong prediction result. figure 11. three pseudocheilinus hexataenia testing data (left) and three samples of halichoeres melanurus training data (right) figure 11 showed three pseudocheilinus hexataenia testing data on the left side and three samples of halichoeres melanurus training data on the right side. pseudocheilinus hexataenia had a similar pattern with halichoeres melanurus that was horizontal lines. faster r-cnn failed to extract more features from pseudocheilinus hexataenia like head shape and the fish fin, so the model probably made the wrong prediction in pseudocheilinus hexataenia test data. overall faster r-cnn model had a good performance on fish species detection with 80.4% accuracy than ssd with 49.2% accuracy. faster r-cnn probably could get better accuracy in fish species detection if using other architecture that more suitable for extracting fish features. need more research to got that more suitable architecture for extracting fish features in faster rcnn. 4. conclusion overall faster r-cnn model had a good performance on fish species detection with 80.4% accuracy than ssd with 49.2% accuracy. faster r-cnn got worse prediction result upon test data on anyperodon leucogrammicus, bodianus diana, cephalopholis sexmaculata, and pseudocheilinus hexataenia class object. faster r-cnn probably could get better accuracy in fish species detection if using other architecture that more suitable for extracting fish features. need more research to get more suitable architecture for extracting fish features in faster rcnn. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 153 references [1] p. hridayami, i. k. g. d. putra, and k. s. wibawa, "fish species recognition using vgg16 deep convolutional neural network," the journal of computer science and engineering, vol. 13, no. 3, pp. 124–130, 2019, doi: 10.5626/jcse.2019.13.3.124. [2] c. qiu, s. zhang, c. wang, z. yu, h. zheng, and b. zheng, "improving transfer learning and squeezeand-excitation networks for small-scale fine-grained fish image classification," ieee access, vol. 6, pp. 78503–78512, 2018, doi: 10.1109/access.2018.2885055. [3] m. sarigül and m. avci, "comparison of different deep structures for fish classification," international journal of computer theory and engineering, vol. 9, no. 5, pp. 362–366, 2017, doi: 10.7763/ijcte.2017.v9.1167. [4] t. v. janahiraman and m. s. m. subuhan, "traffic light detection using tensorflow object detection framework," 2019 ieee 9th international conference on system engineering and technology (icset) 2019 proceeding, no. october, pp. 108–113, 2019, doi: 10.1109/icsengt.2019.8906486. [5] l. han, p. tao, and r. r. martin, "livestock detection in aerial images using a fully convolutional network," computational visual media, vol. 5, no. 2, pp. 221–228, 2019, doi: 10.1007/s41095-019-0132-5. [6] h. basri, i. syarif, and s. sukaridhoto, "faster r-cnn implementation method for multi-fruit detection using tensorflow platform," international electronics symposium on knowledge creation and intelligent computing (ies-kcic) 2018 proceedings, pp. 337–340, 2019, doi: 10.1109/kcic.2018.8628566. [7] a. karad, g. padhar, r. agarwal, and s. kumar, "fish species detection using computer vision," vol. 4, no. 6, pp. 2–6, 2020. [8] d. kristianto, c. fatichah, b. amaliah, and k. sambodho, "prediction of wave-induced liquefaction using artificial neural network and wide genetic algorithm," lontar komputer jurnal ilmiah teknologi informasi, vol. 8, no. 1, p. 1, 2017, doi: 10.24843/lkjiti.2017.v08.i01.p01. [9] o. sudana, i. w. gunaya, and i. k. g. d. putra, "handwriting identification using deep convolutional neural network method," telkomnika (telecommunication, computing, electronics and control, vol. 18, no. 4, pp. 1934–1941, 2020, doi: 10.12928/telkomnika.v18i4.14864. [10] i. m. mika parwita and d. siahaan, "classification of mobile application reviews using word embedding and convolutional neural network," lontar komputer jurnal ilmiah teknologi informasi, vol. 10, no. 1, p. 1, 2019, doi: 10.24843/lkjiti.2019.v10.i01.p01. [11] s. wang, m. huang, and z. deng, "densely connected cnn with multi-scale feature attention for text classification," international joint conference on artificial intelligence., vol. 2018-july, pp. 4468–4474, 2018, doi: 10.24963/ijcai.2018/621. [12] h. jiang and e. learned-miller, "face detection with the faster r-cnn," proc. 12th ieee international conference on automatic face gesture recognition, fg 2017 1st int. work. adapt. shot learn. gesture underst. prod. asl4gup 2017, biometrics wild, bwild 2017, heteroge, pp. 650–657, 2017, doi: 10.1109/fg.2017.82. [13] p. garg, d. r. chowdhury, and v. n. more, "traffic sign recognition and classification using yolov2, faster rcnn and ssd," 2019 10th int. conf. comput. commun. netw. technol., pp. 1–5, 2019. [14] k. wang, y. dong, h. bai, y. zhao, and k. hu, "use fast r-cnn and cascade structure for face detection," vcip 2016 30th anniversary of visual communication and image processing, pp. 4–7, 2017, doi: 10.1109/vcip.2016.7805472. [15] l. zhang, l. lin, x. liang, and k. he, "is faster r-cnn doing well for pedestrian detection?," lect. notes comput. sci. (including subser. lect. notes artif. intell. lect. notes bioinformatics), vol. 9906 lncs, pp. 443–457, 2016, doi: 10.1007/978-3-319-46475-6_28. [16] s. ren, k. he, r. girshick, and j. sun, "faster r-cnn: towards real-time object detection with region proposal networks," the ieee transactions on pattern analysis and machine intelligence, vol. 39, no. 6, pp. 1137–1149, 2016, doi: 10.1109/tpami.2016.2577031. [17] y. nagaoka, t. miyazaki, y. sugaya, and s. omachi, "text detection by faster r-cnn with multiple region proposal networks," proc. international conference on document analysis and recognition, pp. 15–20, 2017, doi: 10.1109/icdar.2017.343. [18] w. liu et al., "ssd: single shot multibox detector wei," european conference on computer lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p03 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 154 vision, vol. 1, pp. 21–37, 2016, doi: 10.1007/978-3-319-46448-0 2. [19] t. s. indi and y. a. gunge, "early stage disease diagnosis system using human nail image processing," international journal of information technology and computer science., vol. 8, no. 7, pp. 30–35, 2016, doi: 10.5815/ijitcs.2016.07.05. [20] z. waheed, a. waheed, and m. u. akram, "a robust non-vascular retina recognition system using structural features of retinal image," proc. 2016 13th international bhurban conference on applied sciences & technology technol. ibcast 2016, pp. 101–105, 2016, doi: 10.1109/ibcast.2016.7429862. [21] s. bharathi and r. sudhakar, "biometric recognition using finger and palm vein images," soft computing, vol. 23, no. 6, pp. 1843–1855, 2019, doi: 10.1007/s00500-018-3295-6. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 40 deteksi batik parang menggunakan fitur co-occurrence matrix dan geometric moment invariant dengan klasifikasi knn ni luh wiwik sri rahayu g magister ilmu komputer, universitas pendidikan ganesha singaraja arya.krishna110610@gmail.com abstrak motif batik merupakan suatu dasar atau pokok suatu pola gambar yang merupakan pusat suatu rancangan gambar sehingga makna dari tanda, simbol atau lambang dibalik motif batik tersebut dapat diungkapkan. identifikasi secara visual memerlukan skill penglihatan dan pengetahuan dalam mengklasifikasikan pola yang terbentuk dari citra batik. kurangnya media informasi yang dibuat tentang motif batik menjadikan masyarakat luas kurang mendapatkan informasi tentang motif batik. berdasarkan hal tersebut penelitian ini dilakukan guna mengimplementasikan identifikasi secara visual ke dalam komputer yang dapat membantu dan memudahkan dalam mengidentifikasi jenis batik. pengenalan citra batik dengan menggunakan metode co occurrence matrix sebagai ekstraksi ciri tekstur dan geometric moment invariant dan pengklasifikasian citra batik dengan menggunakan k nearest neighbor. menghasilkan nilai akurasi yang diperoleh dengan metode geometric moment invariant lebih baik dalam mengenali pola batik parang yang termasuk jenis batik geometric yaitu 80% dibandingkan dengan hasil pada metode co-occurence matrix yaitu 70%. kata kunci: motif batik, identifikasi. co-occurrence matrix, geometric moment invariant, k nearest neighhbor. abstract batik motifs are the base or the blueprint of batik patterns which serve as the core of the batik image design, and therefore the meaning of a sign, symbol or logo in a batik work can be revealed through its motifs. visual identification requires visual skills and knowledge in classifying patterns formed in a batik image. lack of media providing information on batik motifs makes the public unable to have sufficient information about batik motifs. looking at this phenomenon, this study is conducted in order to perform visual identification using a computer that can assist and facilitate in identifying the types of batik. the methods used for batik image recognition are the co-occurrence matrix method to provide extraction of batik texture features, and the geometric moment invariant method, while k nearest neighbor is used to classify batik images. the results on the accuracy values obtained reveal that the of 80%, compared to the accuracy value result using the co-occurrence matrix method that is 70%. keywords: batik motifs, identification, co-occurrence matrix, geometric moment invariant, k nearest neighhbor. 1. pendahuluan negara indonesia merupakan negara yang terdiri dari aneka ragam pulau,suku bangsa,bahasa dan budaya. salah satu yang menjadi ciri khas indonesia dimata dunia adalah batik. batik merupakan warisan asli budaya indonesia yang tidak hanya indah secara visual, lebih jauh batik memiliki nilai filosofi yang tinggi dan syarat akan makna. batik indonesia hampir saja diklaim oleh negara lain akan tetapi pada tanggal 2 oktober 2009 unesco telah mengakui bahwa batik merupakan hak kebudayaan intelektual bangsa indonesia. motif batik merupakan suatu dasar atau pokok suatu pola gambar yang merupakan pusat suatu rancangan gambar sehingga makna dari tanda, simbol atau lambang dibalik motif batik tersebut lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 41 dapat diungkapkan. identifikasi secara visual memerlukan skill penglihatan dan pengetahuan dalam mengklasifikasikan pola yang terbentuk dari citra batik. kurangnya media informasi yang dibuat tentang motif batik menjadikan masyarakat luas kurang mendapatkan informasi tentang motif batik. berdasarkan hal tersebut penelitian ini dilakukan guna mengimplementasikan identifikasi secara visual ke dalam komputer yang dapat membantu dan memudahkan dalam mengidentifikasi jenis batik. berbagai jenis batik yang ada di indonesia memiliki suatu pola yang khusus satu sama lainnya. seperti halnya dengan batik parang yang berasal dari daerah d.i yogyakarta. batik parang memiliki karakteristik familiar sebagai pola pedang atau keris oleh orang luar. parang sendiri diartikan sebagai pertarungan antara manusia melawan kejahatan dengan cara mengendalikan keinginan mereka sehingga mereka menjadi mulia, bijaksana dan akan menang. parang rusak memiliki ciri dari segi warna umumnya putih tulang pada bagian dalam, dan bergaris coklat, warna agak gelap dan warna alami. motif perulangan, agak miring dan arah bolak balik,garisgaris lengkung. beberapa penelitian sebelumnya tentang batik dan klasifikasinya [1] yang salah satunya telah dilakukan oleh dhani pratikaningtyas dengan menggunakan metode transformasi paket wavelet, pada penelitian ini citra batik diklasifikan ke dalam 6 kelas yaitu parang, nitik, megamendung, tambal, buket dan garuda. metode wavelet yang digunakan dalam penelitiannya adalah wavelet db-2, wavelet db-3 dan wavelet coif-1. hasil yang diperoleh dari penelitian menunjukan metode wavelet db-2, memiliki kesalahan paling sedikit dibanding dengan filter atau jenis wavelet yang lain. kesalahan pengklasifikasian pada penelitian ini disebabkan oleh beberapa hal antara lain adanya kemiripan secara visual yaitu kesalahan identifikasi yang dapat terjadi apabila terdapat citra pada basis data yang memiliki ciri-ciri atau pola informasi yang sangat dekat atau hampir sama (mirip). dan adanya cacat pada citra, meskipun secara visual tidak mirip tetapi kedekatan ciri-ciri atau pola informasi bisa terjadi karena adanya cacat pada citra. berdasarkan uji coba yang telah dilakukan sebelumnya dapat ditarik kesimpulan motif yang berbeda akan mempunyai nilai energi yang berbeda pula, demikian pula saat dilakukan rotasi akan menghasilkan suatu nilai energi yang tidak sama dengan tekstur tanpa rotasi. 2. metodologi penelitian 2.1. akuisisi data akuisisi data merupakan proses pengubahan data dari analog menjadi citra rgb dengan bantuan kamera digital dan citra akan disimpan dalam format .jpg yang kemudian akan diproses ke tahapan preprocessing. 2.2. preprocessing citra batik yang dihasilkan dari proses akuisisi data akan dilakukan proses pemotongan untuk memudahkan proses selanjutnya dengan ukuran 256 x 256 pixel. contoh citra yang belum dicrop dapat dilihat pada gambar di bawah ini. gambar 1. citra sebelum di-cropping. citra batik yang belum di crop memiliki ukuran pixel yang besar,sehingga untuk mempermudah proses selanjutnya citra di crop dengan ukuran 256 x 256 pixel seperti pada gambar dibawah ini. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 42 gambar 2. citra hasil crop. 2.3. ekstraksi ciri ekstraksi ciri dilakukan menggunakan fitur tekstur citra dan bentuk. gambar 3 menunjukkan ekstraksi ciri yang digunakan. gambar 3. ekstraksi ciri 2.4. ekstraksi ciri tekstur ekstraksi ciri tektur dilakukan untuk memperoleh ciri citra untuk kemudian diklasifikasikan berdasarkan ciri hasil ekstraksi tersebut. berikut diagram alir ekstraksi ciri tekstur. gambar 4. diagram alir ekstraksi ciri tekstur lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 43 keterangan gambar : a. dalam penelitian ini, tingkat keabuan 256 dikuantisasi menjadi 8x8 co-occurrence matrix, tingkat keabuan 1-32 dianggap sebagai 1, maka 33 berikutnya sebagai 2 dan seterusnya. tabel 1. kuantitas tingkat keabuan. tingkat keabuan dari sebuah citra kuantitas tingkat keabuan 1 – 32 1 33 – 64 2 65 – 96 3 97– 128 4 129 – 160 5 161 – 192 6 193– 244 7 245 – 256 7 b. tentukan co-occurrence matrix, yaitu menghitung dengan empat arah 00, 450, 900, dan 1350. jadi untuk setiap citra akan didapatkan empat co-occurrence matrix [2]. c. dari hasil perhitungan terhadap empat arah diperoleh 4 x 16 = 64 co-occurrence matrix. untuk mengurangi dimensi dan lamanya waktu komputasi, maka dilakukan perhitungan rata-rata, dengan menggunakan rumus : (1) d. energy, moment, entropy, probability, dihitung untuk setiap co-occurrence matrix, untuk lebih menghemat waktu komputasi jumlahk an terlebih dahulu empat nilai masingmasing arah 00, 450, 900, dan 1350. 2.5. ekstraksi ciri bentuk tahapan pada proses ekstraksi ciri bentuk dengan metode geometric moment invariant. pertama segmentasi background untuk memisahkan objek dengan background dari citra, kemudian threshold sehingga menjadi gambar biner, dengan menggunakan tolak ukur pengubahan nilai pixel apakah menjadi 0 (hitam) atau 225 (putih). hitung moment dan moment pusat menggunakan persamaan: (2) dan (3) selanjutnya moment pusat dinormalisasi menggunakan persamaan : (4) kemudian hitung geometric moment 1 sampai dengan 4 untuk menghitung translasi, skala dan rotasi menggunakan persamaan : (5) (6) (7) (8) diagram alir proses ekstraksi ciri bentuk dapat dilihat pada gambar dibawah ini: lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 44 gambar 5. diagram ekstraksi ciri bentuk 2.6. klasifikasi citra baru yang akan diklasifikasikan dipraolah dan fitur dibuat dari citra uji, kemudian dibandingkan dengan fitur yang berada pada basis data. metode klasifikasi k nearest neighbor digunakan untuk menentukan kelas dari citra batik yang baru. klasifikasi k nearest neighbor dilakukan dengan mencari k buah tetangga terdekat dari data uji dan memilih kelas dengan anggota terbanyak. dalam hal ini jumlah data/tetangga terdekat ditentukan oleh user yang dinyatakan dengan k, misalnya ditentukan k-6, maka setiap data testing dihitung jaraknya terhadap data training dan dipilih 6 data training yang jaraknya paling dekat ke data testing. lalu periksa output atau labelnya masing-masing, kemudian tentukan output mana yang frekuensinya paling banyak. untuk mendefinisikan jarak antara dua titik yaitu titik pada data training (x) dan titik pada data testing (y) maka digunakan rumus euclidean. (9) dengan d adalah jarak antara titik pada data training x dan titik data testing y yang akan diklasifikasi, dimana dan dan merepresentasikan nilai atribut serta merupakan dimensi atribut. klasifikasi menggunakan algoritma k-nearest neighbor (knn) dapat dilihat pada gambar 6 dengan k=6. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 45 gambar 6. klasifikasi k-nearest neighbor (knn) langkah-langkah untuk menghitung metode k-nearest neighbor : a. menentukan parameter k (jumlah tetangga paling dekat) b. menghitung kuadrat jarak euclidean (query instance) masing-masing objek terhadap data sample yang diberikan. c. kemudian mengurutkan objek -objek tersebut ke dalam kelompok yang mempunyai jarak euclidean terkecil d. mengumpulkan kategori y (klasifikasi nearest neighbor) e. dengan menggunakan kategori nearest neighbor yang paling mayoritas maka dapat diprediksikan nilai query instance yang telah dihitung 3. kajian pustaka 3.1. batik kata “batik” berasal dari gabungan dua kata bahasa jawa: “amba”, yang bermakna “menulis” dan “titik” yang bermakna “titik”. batik memiliki berbagau macam motof yang bervariasi. setiap daerah di indonesia memiliki ciri khas tertentu pada motif batik. batik memiliki keunikan, keunikan ini terletak pada motif,pakem (cara motif diorganisasi),dan insen-insen (ornamen ornamen kecil yang digunakan untuk mengisi ruangan yang kosong diantara motif utama). motif batik dapat berbentuk geometris maupun non geometris. motif memiliki peranan penting dalam mendefinisikan filosofi atau arti batik. motif batik dapat disebut juga corak batik atau pola batik. motif batik terbagi menjadi dua kelompok besar yaitu : a. motif geometri 1. motif parang, motif ini terdiri atas satu atau lebih ragam hias yang tersusun membentuk garis-garis sejajar dengan sudut miring 450. terdapat ragam hias bentuk belah ketupat sejajar dengan deretan ragam hias utama pola parang disebut mlinjo. berikut ini adalah gambar contoh motif batik parang. gambar 7. batik parang 2. motif ceplok, merupakan motif batik yang didalamnya terdapat gambar-gambar segi empat,lingkaran, dan segala variasinya dalam membuat sebuah pola yang teratur. berikut ini adalah gambar batik ceplok. gambar 8. batik ceplok lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 46 b. motif non geometri 1. motif semen, ragam hias yang merupakan ciri pola semen adalah meru. hakikat meru adalah lambang gunung atau tempat tumbuhan bertunas atau bersemi sehingga motif ini disebut semen, yang diambil dari kata dasar semi. berikut adalah gambar dari contoh motif batik semen. gambar 9. batik semen 2. motif lung-lungan, sebagaian besar motif lung-lungan mempunyai ragam hias serupa dengan motif semen. berbeda dengan pola semen, ragam hias utama lunglungan tidak selalu mengandung ragam hias meru. gambar 10. batik lung-lungan 3.2. pengenalan pola secara umum pengenalan pola (pattern recognition) adalah suatu ilmu kuantitatif fitur atau sifat utama dari suatu objek [2]. pengenalan pola terdapat beberapa tahapan [3]. a. pattern pertama kali ditangkap oleh sensor untuk dianalisa dan didapat berbagai fiturnya. b. setelah mendapat informasi dari fitur yang ada maka selanjutnya adalah melakukan generate terhadap fitur. c. tidak semua fitur yang didapat dari sensor digunakan untuk pengenalan pola tersebut. maka langkah selanjutnya adalah dengan memilih fitur yang tepat untuk pengklasifikasian objek tersebut. d. selanjutnya mendesain pengklasifikasian, tipe nonlinearity bagaimana yang diadopsi, dan bagaimana mendapatkan kriteria/fitur yang optimal. e. ketika terjadi error dalam pengklasifikasian maka terjadi ketidak beresan dalam sistem maka sistem perlu diadakan evaluasi. 3.3. ekstraksi ciri ekstrasi ciri merupakan proses pengideksan suatu basis data citra dengan isi nya. komponen vektor ciri dihitung dengan pemrosesan citra dan teknik analisis serta digunakan untuk membandingkan citra yang satu dengan citra yang lainnya. ekstraksi citra diklasifikasikan kedalam tiga jenis yaitu low-level, middle level dan high level. low level feature merupakan ekstraksi ciri berdasarkan isi visual seperti warna dan tekstur, middle level feature merupakan ekstraksi berdasarkan wilayah citra yang ditentukan dengan segmentasi, sedangkan high level feature merupakan ekstrasi ciri berdasarkan informasi semantik yang terkandung dalam citra [4]. 3.4. co-ocurrence matrix co-occurrence matrix mempunyai sekumpulan informasi tentang derajat keabuan (intensitas) suatu piksel dengan tetangganya, pada jarak dan orientasi yang tepat. ide dasarnya adalah untuk men-scan citra untuk mencari jejak derajat keabuan setiap dua buah piksel yang dipisahkan dengan jarak d dan sudut 0 yang tetap, tetapi umumnya tidak hanya satu jarak atau lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 47 sudut saja cukup untuk menggambarkan ciri tekstur citra tersebut, sehingga harus digunakan lebih dari satu jarak dan arah. umumnya digunakan empat arah horizontal, vertical dan dua arah diagonal. 3.5. ekstraksi ciri bentuk ciri bentuk suatu gambar dapat ditentukan oleh tepi (sketsa), atau besaran moment dari suatu gambar. deteksi tepi merupakan operasi yang digunakan untuk mendeteksi garis tepi (edges) yang m embatasi dua wilayah citra homogen yang memiliki tingkat kecerahan yang berbeda. momen dapat menggambarkan suatu objek dalam hal area, posisi, orientasi dan parameter terdefi nisi lainnya. 3.6. klasifikasi klasifikasi adalah proses menemukan model untuk membedakan kelas atau konsep agar model yang diperoleh dapat digunakan untuk mengetahui kelas dari objek yang belum diketahui karakteristiknya. proses klasifikasi terbagi atas dua tahapan, yaitu learning dan testing. pada tahapan learning, sebagian data yang telah diketahui kelas datanya (training set) digunakan untuk membentuk model. selanjutnya pada tahapan testing, model dengan sebagian data lainnya (test set) untuk mengetahui akurasi dari model tersebut. 4. percobaan dan hasil percobaan 1 pada penelitian ini menggunakan data set dengan ukuran citra 256x256 pixel dan 512x512 pixel sebanyak 120 citra. jumlah untuk citra latih sebanyak 70 citra dan jumlah untuk uji coba sebanyak 50 citra dan pada percobaan 2 akan digunakan dataset sebanyak 100. jumlah data latih dan data uji coba yaitu 50 citra. proses memasukkan citra dengan fitur co-occurence matrix sebagai data latih untuk disimpan di dalam basis data gambar 11. tampilan awal gambar 12. proses pengambilan citra latih untuk co-occurrence matrix selanjutnya citra untuk data latih di load dan dilakukan ekstraksi ciri tekstur dengan fitur co occurence matrix dengan arah 00,450,900 dan 1350 serta penentuan kelas dari citra dan hasilnya disimpan di dalam basis data. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 48 gambar 13. hasil ekstraksi ciri tekstur pada citra latih proses memasukkan citra dengan fitur geometric moment invariant sebagai data latih yang kemudian dimasukkan kedalam basis data : gambar 14. tampilan awal fitur geometric moment invariant. gambar 15. proses pengambilan citra latih untuk geometric moment invariant. selanjutnya citra untuk data latih di load dan dilakukan ekstraksi ciri bentuk dengan fitur geometric moment invariant serta penentuan kelas dari citra dan hasilnya disimpan di dalam basis data. lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 49 gambar 16. hasil ekstraksi ciri bentuk pada citra latih setelah data latih selesai diproses maka selanjutnya akan dilakukan pengujian untuk citra batik. citra yang diambil akan di uji dengan arah 00, 450, 900 dan 1350 dan dengan rentang nilai k 110 untuk klasifikasi k nearest neighbor. gambar 17. hasil pengujian deteksi batik parang dengan menggunakan rumus perhitungan akurasi seperti berikut: (3) maka diperoleh hasil pada percobaan 1 dan 2 dengan ukuran citra 256x256 pixel dengan d=1 tabel 2. hasil percobaan dengan citra 256x256 pixel. jumlah data latih jumlah data uji co-occurrence matrix geometric moment invariant 70 50 66,5% 82,6% 50 50 65,7% 79% dari tabel diatas dengan ukuran citra 256x256 pixel dan jumlah data latih 70 citra dan jumlah data uji 50 citra nilai akurasi rata-rata co-occurence matrix sebesar 66,5% dan nilai akurasi geometric moment invariant sebesar 82,6%. hasil pengujian yang dilakukan dengan menurunkan jumlah data latih (training) cenderung menurun karena sistem semakin banyak data yang dilatih (training) maka semakin baik dalam proses klasifikasi motif batik begitu juga sebaliknya. tabel 3. hasil percobaan dengan citra 512x512 pixel. jumlah data latih jumlah data uji co-occurrence matrix geometric moment invariant 70 50 51% 83% 50 50 64,4% 79% lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p05 e-issn 2541-5832 50 pada percobaan dengan ukuran citra 512x512 pixel dan dengan jumlah data latih 70 serta jumlah data uji 50 nilai akurasi dengan menggunakan metode co-occurence matrix adalah 51% hal ini mengalami penurunan dibandingkan pada percobaan dengan citra berukuran 256x256 pixel, dan dengan metode geometric moment invariant pada percobaan citra berukuran 512x512 nilai akurasinya 83%mengalami peningkatan dibandingkan dengan percobaan pada ukuran citra 256x256 pixel. ketika jumlah citra latih(training) dan jumlah data uji 50 citra nilai akurasi dengan metode co-occurence matrix sebesar 64,4% dan geometric moment invariant sebesar 79%. pada akurasi co-occurence matrix mengalami penurunan sementara pada akurasi geometric moment invariant tetap. 5. kesimpulan berdasarkan hasil pengujian sistem maka dapat disimpulkan bahwa nilai akurasi dengan menggunakan metode geometric moment invariant memiliki nilai lebih baik daripada akurasi dengan menggunakan metode co-occurence matrix. nilai akurasi pada metode geometric moment invariant tetap meskipun jumlah data latih dan data uji diturunkan. sehingga untuk pengenalan motif batik parang yang tergolong batik geometric, metode yang memiliki akurasi lebih baik adalah geometric moment invariant. daftar pustaka [1] w. eka widya, “klasifikasi motif batik menggunakan metode transformasi paket wavelet,” 2013. [2] d. putra, pengolahan citra digital. yogyakarta: andi, 2010. [3] t. sergios, pattern recognition second edition. usa: academic press an imprint of elsevier, 2003. [4] a. winarni, i. k. g. d. putra, n. ary, and e. dewi, “ekstraksi ciri warna dan tekstur untuk temu kembali citra batik,” 2012. pengaruh dukungan manajemen puncak, pengalaman dan keahlian ti luar organisasi terhadap keselarasan strategis (studi kasus pada ukm eksportir di provinsi bali) lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541   www.it.unud.ac.id  pengaruh dukungan manajemen puncak... (i ketut adi purnawan) 22 pengaruh dukungan manajemen puncak, pengalaman ti dan keahlian ti luar organisasi terhadap keselarasan strategis (studi kasus pada ukm eksportir di provinsi bali) i ketut adi purnawan staff pengajar teknologi informasi, fakultas teknik, universitas udayana email: dosenadi@yahoo.com abstrak penelitian ini bertujuan untuk mengetahui dan membuktikan pengaruh dukungan manajemen puncak, pengalaman ti dan keahlian ti luar organisasi terhadap keselarasan strategis. hipotesis yang diajukan adalah: (1) dukungan manajemen puncak berpengaruh positif terhadap keselarasan strategis, (2) pengalaman ti organisasi berpengaruh positif terhadap keselarasan strategis dan (3) keahlian ti luar organisasi berpengaruh positif terhadap keselarasan strategis. objek penelitian berjumlah 60 perusahaan, yang terdiri dari perusahaan kargo, tekstil dan produk tekstil, handicraft, kerajinan perak, furniture dan produk lainnya yang ada di provinsi bali. pengumpulan data dilakukan dengan metode angket kuesioner. metode statistik yang digunakan adalah analisis regresi berganda. hasil analisis penelitian menunjukkan hubungan yang positif signifikan antara dukungan manajemen puncak, pengalaman ti dan keahlian ti luar organisasi terhadap keselarasan strategis pada ukm eksportir di provinsi bali. (r2=0.184 ; adjusted r2 =0.140; f =4.199; sig. f = 0,009). kata kunci: dukungan manajemen, pengalaman ti, keahlian ti luar, keselarasan strategis abstract this research aim is to know and prove influence of top management support, it experience and external it expertise to strategic alignment. hypothesis that raised is: (1) top management support has a positive effect to strategic alignment, (2) it experience has a positive effect to strategic alignment and (3) external it expertise has a positive effect to strategic alignment. research object amounts of 60 companies, that consist of company cargo, textile and textile product, handicraft, silver jewelries, furniture and other product that exist in bali province. data collection is conducted with questionnaire method. statistical methods that used is double reggression analysis. result of research analysis shows significant positive corelation between top management support, it experience and external it expertise to strategic alignment at small exporter firm in bali province. (r2=0.184 ; adjusted r2 =0.140; f =4.199; sig. f = 0,009). key words: management support, it experience, expertise outside of it, strategic alignment 1. pendahuluan keberadaan dan peranan teknologi informasi (ti) disegala sektor kehidupan tanpa kita sadari telah membawa dunia memasuki era baru globalisasi lebih cepat dari yang kita bayangkan semula. bagi perusahaan-perusahaan modern teknologi informasi tidak hanya berfungsi sebagai sarana pendukung untuk meningkatkan kinerja perusahaan dari waktu kewaktu, tetapi lebih jauh lagi telah menjadi senjata utama dalam bersaing (indrajit, 2001). melalui penyelarasan antara strategi bisnis dan strategi ti, sumber daya informasi akan mendukung tujuan bisnis dan meraih keuntungan dalam memanfaatkan strategi ti (premkumar and king, 1991). dengan demikian peningkatan unjuk kerja ukm dapat dicapai dan keuntungan kompetitif dapat diraih. penelitian ini akan memfokuskan pada dukungan manajemen puncak, pengalaman ti dan keahlian ti dari luar organisasi terhadap keselarasan. pengukuran akan menggunakan lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541   www.it.unud.ac.id  pengaruh dukungan manajemen puncak... (i ketut adi purnawan) 23 instrumen/kuesioner yang telah dikembangkan oleh hussin, et al., (2002). unit usaha yang menjadi sampel dalam penelitian ini adalah ukm eksportir yang terdaftar pada dinas perindustrian dan perdagangan propinsi bali. 2. metode 2.1. keselarasan strategis henderson&venkatraman (1993), menyatakan keselarasan sebagai kecocokan internal dan fungsi integrasi antara strategi bisnis dan strategi ti dan penggabungan ini sangat penting untuk meningkatkan keuntungan kompetitif. keselarasan strategis merupakan isu yang sangat menarik untuk diteliti. keselarasan strategis diukur dengan melihat nilai dari item-item strategi bisnis (bs) dengan nilai item-item dari strategi ti (its). nilai tertinggi untuk strategi bisnis dan strategi ti mengindikasikan pencapaian tingkat keselarasan strategis yang tinggi untuk perusahaan, sedangkan untuk nilai terendah pada strategi bisnis dan strategi ti mengindikasikan pencapaian tingkat keselarasan yang rendah. 2.2. dukungan manajemen puncak peran eksekutif bisnis sangat menentukan keselarasan dari implementasi ti yang dilakukan pada suatu organisasi. beberapa penelitian sebelumnya menyatakan peran ekekutif senior sangat berpengaruh pada keselarasan, (husin, et al, 2002). luftman et al (1999) menemukan dukungan eksekutif senior terhadap pemanfaatan ti sebagai pemampu keselarasan. pengembangan sistem informasi dalam banyak kajian literatur tidak terlepas dari keterlibatan eksekutif dan dukungan manajemen puncak, sadatamrul (2004). pengukuran dukungan manajemen puncak dalam penelitian ini menggunakan tiga cara; penggunaan personal ti (diadopsi dari cragg&king, 1992); keakraban atau pengetahuan paket perangkat lunak umum (diadopsi dari magal&lewis, 1995) terdiri dari tujuh pernyataan yaitu wordprocessing, spreadsheet, database, aplikasi keuangan, cad/cam, internet, edi. 2.3. keahlian ti luar organisasi ukm pada umumnya tidak memiliki bagian yang secara khusus mengelola ti. mereka pada awalnya lebih mengandalkan bantuan pihak luar seperti pemasok atau konsultan untuk melaksanakan kegiatan yang terkait dengan pemanfaatan ti yang berbasis komputer. ketergantungan dengan pihak eksternal akan berkurang manakala pemilik dan atau manajer ukm telah memiliki pemahaman yang cukup terhadap ti yang dicapai melalui proses pembelajaran organisasi. pengalaman ti diukur menggunakan pertanyaan yang diambil dari penelitian raymond&pare, (1992). tiga aspek yang termasuk dalam pengalaman ti; tipe teknologi (terdiri dari delapan daftar aplikasi), target tingkat keputusan (terdiri dari tiga level berdasarkan kepentingan); keadaan yang menggambarkan sistem informasi pada perusahaan yang terdiri dari tiga pilihan. pengukuran meliputi partisipasi dalam pemilihan sumber daya terdiri dari lima pernyataan pilihan, yaitu: perangkat keras, pengembangan/kustomisasi perangkat lunak, pelatihan, perawatan sistem, perencanaan dan perumusan strategi ti dengan enam pilihan jawaban yaitu: konsultan ti, vendor/dealer ti, agen lokal, rekan bisnis, teman dan pegawai internal. 2.4. pengembangan hipotesis hipotesis yang dikembangkan dalam penelitian ini adalah peran eksekutif bisnis sangat menentukan keselarasan dari implementasi ti yang dilakukan pada suatu organisasi. luftman et al (1999), menemukan dukungan eksekutif senior terhadap pemanfaatan ti sebagai pemampu keselarasan. dukungan eksekutif senior mempengaruhi penggunaan personal komputer dan pemanfaatan ti pada usaha kecil. dari penjelasan tersebut dapat dibangun hipotesis sebagai berikut: h1: dukungan manajemen puncak terhadap ti berpengaruh positif terhadap keselarasan strategis. infrastruktur ti merujuk ke banyak sumberdaya, termasuk proses, teknologi dan tenaga manusia (raymond&pare, 1992). garsombke&garsombke (1989), menemukan bahwa level pengalaman ti berkaitan dengan level pembelajaran ti organisasi. pembagian pengetahuan ti dan bisnis juga berpengaruh penting terhadap keselarasan strategis, reich&benbasat (2000). dari penjelasan tersebut dapat dibangun hipotesis sebagai berikut: h2: pengalaman ti berpengaruh positif terhadap keselarasan strategis. ukm pada umumnya tidak memiliki bagian yang secara khusus mengelola ti. mereka pada awalnya lebih mengandalkan bantuan pihak luar seperti pemasok atau konsultan untuk melaksanakan kegiatan yang terkait dengan pemanfaatan ti yang berbasis komputer, utomo (2001). konsultan ti dan vendor terlihat memiliki pengaruh terhadap kesuksesan implementasi ti dan penggunaan lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541   www.it.unud.ac.id  pengaruh dukungan manajemen puncak... (i ketut adi purnawan) 24 komputer personal pada usaha kecil, thong et al., (1996). dari penjelasan tersebut dapat dibangun hipotesis sebagai berikut: h3: keahlian ti dari luar organisasi berpengaruh positif terhadap keselarasan strategis. gambar 2.1 model hipotesis 2.5. teknik analisis data metodologi yang digunakan adalah penyampelan bersasaran (purposive sampling) yaitu tidak seratus persen bersifat acak dan ada pertimbangan-pertimbangan untuk tujuan tertentu (cooper and shcindler, 2001). masing-masing ukm sampel diharapkan ada dua orang (pejabat tertinggi dan pejabat ti) yang mengisi kuisioner untuk menghindari dominasi persepsi satu responden yang mewakili sampel. 1. uji validitas pengujian awal instrumen yang dilakukan adalah pengujian validitas. validitas menunjukkan seberapa nyata suatu pengujian mengukur apa yang seharusnya diukur (hartono, 2004). validitas juga berhubungan dengan ketepatan alat ukur untuk melakukan tugasnya mencapai sasaran. pengujian validitas konstruksi dilakukan dengan analisis faktor menggunakan bantuan program komputer spss 16, yaitu dengan mengkorelasikan antara skor item instrumen dengan rumus pearson product moment. 2. uji reliabilitas langkah selanjutnya adalah pengujian kelengkapan statistik yang kedua, yaitu reliabilitas. reliabilitas berhubungan dengan akurasi dari pengukurannya atau reliabilitas berhubungan dengan konsistensi dari pengukur (sekaran, 2003). pada umumnya, besaran tingkat reliabilitas ditunjukkan oleh nilai koefisien yang disebut koefisien reliabilitas. instrumen dikatakan reliable jika koefisien cronbach’s alpha lebih dari 0,60 (nunnnaly, 1967 dalam badera, 2006). 3. model pengujian hipotesis model persamaan yang dibuat adalah analisis regresi berganda yang akan dianalisis menggunakan perangkat lunak komputer yaitu spss 16. analisis berganda digunakan karena penelitian ini menggunakan tiga variabel independen. hipotesis h1, h2 dan h3 diuji dengan membandingkan tingkat signifikansi (sig-t) dengan taraf signifikansi 05,0=α (5%). apabila tingkat siginifikansi (sig-t) lebih kecil dari 05,0=α (5%), maka h1, h2 dan h3 didukung, artinya variabel dukungan manajemen puncak, pengalaman ti dan keahlian ti luar berpengaruh signifikan terhadap keselarasan strategis. ketepatan dari fungsi regresi sampel dalam menaksir nilai aktual dapat di ukur dari goodness of fit. secara statistik goodness of fit di ukur dari nilai koefisien determinasi (r2), nilai statistik f dan nilai statistik t. nilai r2 dimaksudkan seberapa jauh variasi keselarasan strategis mampu dijelaskan oleh variasi variabel dukungan manajemen puncak, pengalaman ti dan keahlian ti luar organisasi. uji statistik f dimaksudkan apakah model regresi dapat digunakan untuk memprediksi keselarasan strategis atau dapat dikatakan bahwa variabel independen yang digunakan dalam penelitian ini secara kualitas berpengaruh terhadap keselarasan strategis. uji statistik t pada dasar menunjukkan seberapa jauh pengaruh satu variabel penjelas atau independen secara individual dalam menerangkan variasi variabel dependen. 3. hasil dan pembahasan berdasarkan tabel 3.1, statistik deskriptif yang ditunjukkan adalah rata-rata dan deviasi standar dengan n adalah banyak kasus yang diolah yaitu 60 perusahaan. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541   www.it.unud.ac.id  pengaruh dukungan manajemen puncak... (i ketut adi purnawan) 25 tabel 3.1 statistik deskriptif descriptive statistics 60 56.00 95.00 69.1750 6.21615 60 14.00 42.00 30.6917 8.23752 60 10.00 27.50 23.0667 3.84054 60 6.00 30.00 21.6333 6.16707 60 y x1 x2 x3 valid n (listwise n minimum maximum mean std. deviation berdasarkan uji validitas dengan pearson correlation menunjukkan nilai korelasi diatas 0,30 dan signifikan secara statistik pada p>0,05 (ghozali, 2005). uji reliabilitas merupakan pengujian yang dilakukan untuk mengetahui ketepatan jawaban kuesioner pada periode yang satu dengan periode lainnya. instrumen yang digunakan dikatakan reliabel jika koefisien cronbach’s alpha ( )α lebih dari 0,60 (nunnaly, 1967). tabel 3.2 koefisien coefficientsa 67.513 4.992 13.523 .000 .354 .100 .469 3.532 .001 .828 1.208 .289 .213 .579 4.260 .009 .845 1.184 .317 .126 .416 3.927 .018 .934 1.070 (constan x1 x2 x3 model 1 b std. error unstandardized coefficients beta standardized coefficients t sig. tolerance vif collinearity statistics dependent variable: ya. r2=0.184 adjusted r2 =0.140 f =4.199 sig. f = 0,009 berdasarkan nilai koefisien determinasi (r2) sebesar 0,184 atau 18,40%, menunjukkan bahwa variasi variabel keselarasan strategi bisnis/ti (y) mampu dijelaskan oleh variasi variabel independen (x1, x2, dan x3), sedangkan sisanya 81,60% (100%-18,40%) dipengaruhi oleh sebab-sebab lain di luar model. uji statistik f hitung sebesar 4,199 dengan probabilitas 0,009, karena probabilitas jauh lebih kecil dari 0,05, maka model regresi dapat digunakan untuk memprediksi keselarasan strategis atau dapat dikatakan bahwa variabel independen secara simultan berpengaruh terhadap keselarasan strategis. variabel dukungan manajemen puncak (h1) berpengaruh positif terhadap keselarasan strategis dengan nilai t sebesar 3,532 dan sig=0,001 signifikan secara statistik pada p<0,05. pengujian hipotesis dua (h2) yang menyatakan bahwa pengalaman ti berpengaruh positif terhadap keselarasan strategis terbukti, dengan nilai t hitung sebesar 4,260 dan sig=0,009 signifikan secara statistik pada p<0,05. dukungan juga terjadi pada pengujian hipotesis tiga (h3), nilai t hitung 3,927 dan sig=0,018 atau signifikan secara statistik p<0,05. dalam penelitian ini, hipotesis pertama memberikan dukungan pada penelitian yang dilakukan sebelumnya oleh luftman et al (1999), yang menemukan dukungan eksekutif senior terhadap pemanfaatan ti sebagai pemicu keselarasan. hal ini berarti dukungan manajemen puncak sebagai pengambil kebijakan yang konsisten akan meningkatkan keselarasan strategis perusahaan pengujian hipotesis dua mendukung penelitian-penelitian yang dilakukan sebelumnya. penelitian-penelitian tersebut adalah sebagai berikut. reich dan benbasat (2000), menemukan bahwa proses perencanaan memiliki pengaruh terhadap keselarasan. pernyataan ini didukung pula oleh earl (1993) yang menyatakan bahwa kebutuhan dalam proses perencanaan diperlukan untuk menyelaraskan strategi ti dan strategi bisnis. hasil pengujian hipotesis ketiga memberikan dukungan pada penelitian sebelumnya. utomo (2001), brouthers et al., (1998), dalam hussin et al., (2001), menyatakan pihak luar organisasi berpengaruh terhadap keputusan pada usaha kecil terutama sekali jika pihak luar tersebut memiliki kekuatan untuk perusahaan tersebut. 4. kesimpulan berdasarkan hasil analisis data dan pembahasan hasil penelitian sebelumnya dapat disimpulkan sebagai berikut. a. keselarasan strategis dipengaruhi secara positif oleh dukungan manajemen puncak. temuan ini memberikan implikasi bahwa dukungan manajemen puncak yang makin tinggi akan dapat meningkatkan keselarasan strategis. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541   www.it.unud.ac.id  pengaruh dukungan manajemen puncak... (i ketut adi purnawan) 26 b. pengalaman ti berpengaruh positif terhadap keselarasan strategis. temuan ini bermakna bahwa semakin banyak pengalaman manajemen tentang ti maka keselarasan strategis akan semakin tinggi pula. keahlian ti luar organisasi (eksternal) berpengaruh positif terhadap keselarasan strategis. temuan ini memberikan implikasi bahwa keahlian ti luar organisasi (eksternal) yang semakin meningkat akan dapat meningkatkan keselarasan strategis perusahaan. 5. daftar pustaka [1] badera, d.,n., 2008. pengaruh kesesuaian hubungan corporate governance dengan budaya korporasi terhadap kinerja perusahaan. desertasi tidak terpublikasi. yogyakarta: universitas gadjah mada. [2] beeson, i., & mahamid, s., 2003. survey of strategic alignment indicators in manufacturing companies in the south-west of england. cems, p(1-13). [3] chan, y., sabherwal, r. & thatcher, j., 2006. antecedents and outcomes of strategic is alignment: an empirical investigation. ieee transactions on engineering management. vol 53, no 1 p(27-47). [4] cronteau, m., solomon, s., raymond, l., & bergeron, f., 2001. organizational and technologycal infrastructures alignment. vol 1, p(1-10). [5] ghozali, i., 2001, aplikasi analisis multivariat dengan spss. semarang penerbit universitas diponegoro. [6] hale, a., & cragg, p., 1996. measuring strategic alignment in small firm. iscnz, ieee. p(1-9). [7] hartono, j., 2004. metodologi penelitian bisnis: salah kaprah dan pengalaman-pengalaman. yogyakarta: penerbit bpfe. universitas gadjah mada. [8] hartono, j., 2006. sistem informasi strategik untuk keunggulan kompetitif memenagkan persaingan dengan sistem teknologi informasi. edisi 2, yogyakata : penerbit andi. [9] hartung, s., reich, b., & benbasat, i., 2000. information technology alignment in the canadian force. canadian journal of administrative sciences. 17 (4). p(285-302). [10] hu,q., & huang, d., 2005. aligning it with firm business strategies using the balanced scorecard system.proceedings of the 38th hawaii international conference on system sciences. ieee. p(1-10). [11] hussin, h., king, m., & cragg, p., 2002. it alignment in small firms. european journal of information systems. vol 11. p(108-127). [12] indrajit, r.e., 2001. pengantar konsep dasar manajemen sistem informasi dan teknologi informasi, jakarta: elex media komputindo. [13] iman, n., & hartono, j., 2005. pengaruh penyelarasan strategik terhadap kinerja organisasi pada sektor perbankan di indonesia. simposium nasional akuntansi ix. padang: p(1-18). [14] jurnali, t., 2002. pengaruh faktor kesesuaian tugas teknologi dan pemanfaatan ti terhadap kinerja akutan publik. jurnal riset akuntansi indonesia, vol. 5. no. 2. hal 214-228. [15] kefi, h & kalika, m., 2005. survey of strategic alignment impacts on organizational performance in international european companies. ieee. p(1-10). [16] kurniawan, a., 2006, studi empiris tentang pemanfaatan ti pada ukm di diy. tesis tidak terpublikasi. yogyakarta: universitas gadjah mada. [17] lau, k., ang, y., & winley, g., alignment of technology and information system tasks: a singapore perspective. industrial and management data systems. 99(6). p(235-246). [18] lin, p., sepulveda, e., & nunez, j., on the applicability of a computer model for business performance analysis in smes : a case study from chile. ios press. p(33-44). [19] lindrianasari, 2001. hubungan keahlian dengan partisipasi dan hubungan partisipasi dengan variabel lain dalam pengembangan sistem informasi. jurnal riset akuntansi, vol 3, no. 2. hal 82-98. [20] moeljono, d., 2002. pengaruh budaya korporat (corporate culture) terhadap produktivitas pelayanan di pt. bank rakyat indonesia (persero), desertasi tidak terpublikasi. yogyakarta: universitas gadjah mada. [21] papp, r., 2001. introduction to strategic alignment. idea group publishing. p(1-18) [22] riduan, 2007. belajar mudah penelitian untuk guru-karyawan dan peneliti pemula, bandung: penerbit alfabeta. [23] sadatamrul, 2004. hubungan antara partisipasi dalam pengembangan sistem informasi dengan perkembangan penggunaan teknologi informasi (suatu tinjauan dengan dua faktor kontijensi). seminar nasional akuntansi vii, 2-3 desember. [24] seyal, a., rahim, m., & rahman, m., 2000. an empirical investigation of use of information technology among small and medium business organizations: a bruneian scenario. ejisdc. 2(7). p(1-16). [25] sugiyono, 2006. metodologi penelitian bisnis. bandung: penerbit alfabeta. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541   www.it.unud.ac.id  pengaruh dukungan manajemen puncak... (i ketut adi purnawan) 27 [26] sugiyono, 2007. statistika untuk penelitian. bandung: penerbit alfabeta. [27] thong, j., yap, c.s., & rahman, k.s., 1996. top management support, external expertise and information systems implementation in small business. information systems research. vol 7. no. 2. p (248-267). [28] utomo, h., 2001. studi eksplorasi tentang penyebaran teknologi informasi untuk usaha kecil dan menengah. jurnal ekonomi dan bisnis indonesia. vol 16. no. 2. hal 153-163. 2011-08-11t14:46:36+0800 lontar komputer 22 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p03 e-issn 2541-5832 optimasi naïve bayes dengan pemilihan fitur dan pembobotan gain ratio i. gusti. a. socrates1, afrizal l. akbar2, m. sonhaji akbar 3 teknik informatika, institut teknologi sepuluh nopember, surabaya, indonesia 1socrates15@mhs.if.its.ac.id 2afrizal.la@gmail.com 3mson.akbar@gmail.com abstrak naïve bayes merupakan salah satu metode data mining yang umum digunakan dalam klasifikasi dokumen berbasis text. kelebihan dari metode ini adalah algoritma yang sederhana dengan kompleksitas perhitungan yang rendah. akan tetapi, pada metode naïve bayes terdapat kelemahan dimana sifat independensi dari fitur naïve bayes tidak dapat selalu diterapkan sehingga akan berpengaruh pada tingkat akurasi perhitungan. maka dari itu, metode naïve bayes perlu dioptimasi dengan cara pemberian bobot mengunakan gain ratio. namun, pemberian bobot pada naïve bayes menimbulkan permasalahan pada penghitungan probabilitas setiap dokumen, dimana fitur yang tidak merepresentasikan kelas yang diuji banyak muncul sehingga terjadi kesalahan klasifikasi. oleh karena itu, pembobotan naïve bayes masih belum optimal. paper ini mengusulkan optimasi metode naïve bayes mengunakan pembobotan gain ratio yang ditambahkan dengan metode pemilihan fitur pada kasus klasifikasi teks. hasil penelitian ini menunjukkan bahwa optimasi metode naïve bayes menggunakan pemilihan fitur dan pembobotan menghasilkan akurasi sebesar 94%. kata kunci: data mining, naïve bayes, weighted naïve bayes, gain ratio, pemilihan fitur. abstract naïve bayes is one of data mining methods that are commonly used in text-based document classification. the advantage of this method is a simple algorithm with low computation complexity. however, there is weaknesses on naïve bayes methods where independence of naïve bayes features can’t be always implemented that would affect the accuracy of the calculation. therefore, naïve bayes methods need to be optimized by assigning weights using gain ratio on its features. however, assigning weights on naïve bayes’s features cause problems in calculating the probability of each document which is caused by there are many features in the document that not represent the tested class. therefore, the weighting naïve bayes is still not optimal. this paper proposes optimization of naïve bayes method using weighted by gain ratio and feature selection method in the case of text classification. results of this study pointed-out that naïve bayes optimization using feature selection and weighting produces accuracy of 94%. keywords: data mining, naïve bayes, weighted naïve bayes, gain ratio, feature selection. 1. pendahuluan klasifikasi merupakan proses pengidentifikasian obyek ke dalam sebuah kelas, kelompok, atau kategori berdasarkan prosedur, karakteristik dan definisi yang telah ditentukan sebelumnya [1]. salah satu bentuk klasifikasi yaitu klasifikasi dokumen atau teks. klasifikasi dokumen atau teks adalah bidang penelitian dalam pengolahan informasi. tujuan dari klasifikasi dokumen adalah mengembangkan sebuah metode dalam menentukan atau mengkategorikan suatu dokumen ke dalam satu atau lebih kelompok secara otomatis berdasarkan isi dokumen [2]. pada era ini pengelompokkan teks atau dokumen digunakan untuk proses pencarian sebuah dokumen. mailto:socrates15@mhs.if.its.ac.id mailto:afrizal.la@gmail.com mailto:mson.akbar@gmail.com 23 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p03 e-issn 2541-5832 maka dari itu, kebutuhan untuk pengelompokkan dokumen secara cepat dan mudah sangat penting. sedangkan saat ini, pengelompokkan dokumen masih menggunakan cara manual. pengelompokkan dokumen dilakukan dengan cara pemberian label terhadap kategori dokumen. dibutuhkan waktu yang cukup lama dalam mengklasifikasikan dokumen. maka dari itu, dibutuhkan metode yang dapat digunakan dalam proses klasifikasi atau pengelompokkan dokumen secara cepat dan akurat. salah satu metode klasifikasi yang biasa digunakan adalah naïve bayes. klasifikasi naïve bayes pertama kali dikemukakan oleh revered thomas bayes. penggunaan metode naïve bayes sudah dikenalkan sejak tahun 1702-1761. naive bayes (atau dikenal sebagai simple bayes) menurut lewis, hand dan yu merupakan pendekatan yang sangat sederhana dan sangat efektif untuk classification learning [3][4]. sedangkan menurut kononenko dan langley menyimpulkan bahwa naïve bayes merupakan kemungkinan label kelas data atau bisa diasumsikan sebagai atribut kelas yang diberi label [5][6]. menurut hamzah naïve bayes memiliki beberapa kelebihan, yaitu algoritma yang sederhana, lebih cepat dalam penghitungan dan berakurasi tinggi [7]. akan tetapi, pada metode naïve bayes juga memiliki kelemahan dimana sebuah probabilitas tidak bisa mengukur seberapa besar tingkat keakuratan sebuah prediksi. maka dari itu, metode naïve bayes perlu dioptimasi dengan cara pemberian bobot mengunakan gain ratio. pemberian bobot pada naïve bayes menimbulkan permasalahan pada penghitungan probabilitas setiap dokumen. dimana fitur yang tidak merepresentasikan kelas yang diuji banyak muncul sehingga terjadi kesalahan klasifikasi. oleh karena itu, pembobotan naïve bayes masih belum optimal. maka dari itu, paper ini mengusulkan optimasi metode naïve bayes mengunakan pembobotan gain ratio yang ditambahkan dengan metode pemilihan fitur pada kasus pemilihan teks. 2. metode penelitian metode naïve bayes merupakan salah satu algoritma yang efektif dan efisien dalam proses klasifikasi [3][4]. pada gambar 1 menampilkan metode usulan weighted naïve bayes dengan menggunakan gain ratio. gambar 1. alur metode penelitian 2.1. dataset dataset yang digunakan dalam penelitian ini diambil dari media online yaitu kompas, detik, dan tempo. kemudian dilakukan proses penentuan kata dasar, penentuan kata umum yang sering muncul atau stopwords, dan penentuan kategori. proses pengolahan dataset dapat dilihat pada gambar 2. gambar 2. dataset 2.2. preprocessing preprocessing adalah proses awal pada klasifikasi dokumen yang bertujuan untuk menyiapkan data agar menjadi terstruktur. hasil dari preprocessing akan berupa nilai numerik sehingga dapat dijadikan sebagai sumber data yang dapat diolah lebih lanjut. preprocessing ini terbagi menjadi beberapa proses yang terdiri dari case folding, tokenizing, filtering, stemming dan penghitungan bobot kata. http://www.pdfcomplete.com/cms/hppl/tabid/108/default.aspx?r=q8b3uige22 24 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p03 e-issn 2541-5832 pada gambar 3 terdapat proses preprocessing. case folding merupakan tahap awal dari preprocessing text yang mengubah karakter huruf teks menjadi huruf kecil semua [8]. karakter yang diterima hanya ‘a’ hingga ‘z’. karakter selain huruf akan dihilangkan dan dianggap sebagai delimiter. tokenizing adalah tahap pemotongan string input berdasarkan tiap kata yang menyusunnya [9]. filtering adalah proses menentukan kata-kata (terms) apa saja yang akan digunakan untuk merepresentasikan dokumen. selain untuk menggambarkan isi dokumen, term ini juga berguna untuk membedakan dokumen yang satu dengan dokumen lainnya pada koleksi dokumen. proses ini dilakukan dengan mengambil kata-kata penting dari hasil token dan menghapus stop words. stop words adalah kata-kata yang tidak deskriptif sehingga dapat dibuang atau dihilangkan dan tidak berpengaruh ke dalam proses [8]. dalam bahasa indonesia, contoh stop words seperti “yang”, “dan”, “dari”, “di”, “seperti” dan lainnya. tahap stemming adalah tahap mencari root (akar) kata dari kata hasil filtering. pada tahap ini dilakukan proses pengambilan berbagai bentukan kata ke dalam suatu representasi yang sama. stem (akar kata) merupakan bagian dari kata yang tersisa setelah dihilangkan imbuhannya (awalan dan akhiran). contoh kata beri adalah stem dari memberi, diberikan, memberikan dan pemberian. gambar 3. preprocessing 2.3. penghitungan bobot a. bayes naive bayes adalah metode yang digunakan dalam statistika untuk menghitung peluang dari suatu hipotesis, naïve bayes menghitung peluang suatu kelas berdasarkan pada atribut yang dimiliki dan menentukan kelas yang memiliki probabilitas paling tinggi. naive bayes mengklasifikasikan kelas berdasarkan pada probabilitas sederhana dengan mangasumsikan bahwa setiap atribut dalam data tersebut bersifat saling terpisah. metode naive bayes merupakan salah satu metode yang banyak digunakan berdasarkan beberapa sifatnya yang sederhana, metode naive bayes mengklasifikasikan data berdasarkan probabilitas p atribut x dari setiap kelas y data. pada model probablitas setiap kelas k dan jumlah atribut a yang dapat dituliskan seperti persamaan (1) [2] berikut. 𝑃(𝑦𝑘|𝑥1,𝑥2,….𝑥𝑎) (1) penghitungan naïve bayes yaitu probabilitas dari kemunculan dokumen xa pada kategori kelas yk p(xa|yk), dikali dengan probabilitas kategori kelas p(yk). dari hasil kali tersebut kemudian dilakukan pembagian terhadap probabilitas kemunculan dokumen p(xa). sehingga didapatkan rumus penghitungan naïve bayes dituliskan pada persamaan (2) [2]. 𝑃(𝑦𝑘|𝑥𝑎) = 𝑃(𝑦𝑘)𝑃(𝑥𝑎|𝑦𝑘) 𝑃(𝑥𝑎) (2) kemudian dilakukan proses pemilihan kelas yang optimal maka dipilih nilai peluang terbesar dari setiap probabilitas kelas yang ada. sehingga didapatkan rumus untuk memilih nilai terbesar pada persamaan (3) [10]. 𝑦(𝑥𝑖) = argmax𝑃(𝑦)∏ 𝑃(𝑋𝑖|𝑦) 𝑎 𝑖=1 (3) 25 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p03 e-issn 2541-5832 b. weighted naive bayes menurut hilden, ferreira, dan hall pembobotan atribut kelas dapat meningkatkan pengaruh prediksi [11][12][13]. dengan memperhitungkan bobot atribut terhadap kelas, maka yang menjadi dasar ketepatan klasisifikasi bukan hanya probabilitas melainkan juga dari bobot setiap atribut terhadap kelas. pembobotan naïve bayes dihitung dengan cara menambahkan bobot wi pada setiap atribut. sehingga didapatkan rumus untuk pembobotan naïve bayes dituliskan pada persamaan (4). 𝑃(𝑦,𝑥) = 𝑃(𝑦)∏ 𝑃(𝑋𝑖|𝑦) 𝑊𝑖 𝑎 𝑖=1 (4) pembobotan dapat dirumuskan menggunakan gain ratio [10]. dimana dari setiap atribut gain ratio dikali jumlah data n kemudian dibagi dengan rata-rata gain ratio semua atribut. 𝑤𝑖 = 𝐺𝑎𝑖𝑛𝑅𝑎𝑡𝑖𝑜(𝑖) 1 𝑎 ∑ 𝐺𝑎𝑖𝑛𝑅𝑎𝑡𝑖𝑜(𝑖)𝑎𝑖=1 (5) atribut dari gain ratio sendiri merupakan hasil bagi dari mutual information dan entropy. mutual information (mi) merupakan nilai ukur yang menyatakan keterikatan atau ketergantungan antara dua variabel atau lebih. unit pengukur yang umum digunakan untuk menghitung mi adalah bit, sehingga menggunakan logaritma (log) basis 2. secara formal, mi digunakan antara 2 variabel a dan b yang didefinisikan oleh kulback dan leibler [ 1 4 ] , [ 1 5 ] . selain mi, entropy digunakan sebagai pembagi dari mi yang digunakan untuk menentukan atribut mana yang terbaik atau optimal. penghitungan mutual information dituliskan pada persamaan 6 [ 1 4 ] [ 1 5 ] . 𝑀𝐼(𝑥𝑖,𝑦) = ∑ ∑ 𝑃(𝑥𝑖,𝑦) 𝑥1𝑦 log 𝑃(𝑥1,𝑦) 𝑃(𝑥1)𝑃(𝑦) (6) sebelum mendapatkan nilai gain ratio dilakukan pencarian nilai entropy e. entropy digunakan untuk menentukan seberapa informatif sebuah masukan atribut untuk menghasilkan keluaran atribut. penghitungan entropy dengan menjumlahkan probabilitas dituliskan pada persamaan (7). 𝐸(𝑥𝑖) = ∑ 𝑃(𝑥1) 𝑥1 log 1 𝑃(𝑥1) (7) maka dari itu penghitungan gain ratio adalah hasil dari penghitungan mutual information dibagi dengan hasil penghitungan entropy penghitungan gain ratio dituliskan pada persamaan (8). 𝐺𝑎𝑖𝑛𝑅𝑎𝑡𝑖𝑜(𝑖) = 𝑀𝐼(𝑥𝑖,𝑦) 𝐸(𝑥𝑖) = ∑ ∑ 𝑃(𝑥𝑖,𝑦)𝑥1𝑦 log 𝑃(𝑥1,𝑦) 𝑃(𝑥1)𝑃(𝑦) ∑ 𝑃(𝑥1)𝑥1 log 1 𝑃(𝑥1) (8) 26 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p03 e-issn 2541-5832 proses penghitungan weighted naïve bayes menggunakan gain ratio dibagi menjadi dua tahap. tahap pertama adalah proses training (pelatihan). pada proses training diambil data latih kemudian dilakukan preprocessing. setelah itu hitung peluang kata (term) perkategori dan hitung peluang kategori (class). kemudian dicari nilai gain ratio menggunakan persamaan 8. proses training dapat dilihat pada gambar 4. gambar 4. proses training tahap kedua adalah proses testing (pelatihan). pada proses testing diambil data uji kemudian dilakukan preprocessing. setelah itu ambil nilai gain ratio tiap kata dan kategori. setelah itu, dilakukan proses perankingan kata sebanyak r (jumlah kata yang ditentukan). dari kata sebanyak r yang diambil dilakukakn proses penghitungan gain ratio. kemudian dicari nilai weighted naïve bayes menggunakan persamaan 4. proses testing dapat dilihat pada gambar 5. 27 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p03 e-issn 2541-5832 gambar 5. proses testing c. metode evaluasi pada tahap evaluasi bertujuan untuk mengetahui tingkat akurasi dari hasil penggunaan metode weighted naïve bayes. dari evaluasi akan tersedia informasi mengenai seberapa besar akurasi yang telah dicapai. pada proses pengujian dikenal sebagai matriks confusion yang merepresentasikan kebenaran dari sebuah klasifikasi. tabel matriks confusion dapat dilihat pada tabel 1. tabel 1. matriks confusion hasil prediksi + kenyataan + true positive false positive false negative true negative  true positive (tp) menunjukkan bahwa dokumen yang termasuk dalam hasil pengelompokkan oleh sistem memang merupakan anggota kelas.  false positive (fp) menunjukkan bahwa dokumen yang termasuk dalam hasil pengelompokkan oleh sistem ternyata seharusnya bukan merupakan anggota kelas. 28 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p03 e-issn 2541-5832  false negative (fn) menunjukkan bahwa dokumen yang tidak termasuk dalam hasil pengelompokkan oleh sistem ternyata seharusnya merupakan anggota kelas.  true negative (tn) menunjukkan bahwa dokumen yang tidak termasuk dalam hasil pengelompokkan oleh sistem ternyata seharusnya bukan merupakan anggota kelas. untuk menghitung tingkat akurasi digunakan persamaan 9 [16]. 𝐴𝑘𝑢𝑟𝑎𝑠𝑖 = 𝑇𝑃 + 𝑇𝑁 𝑇𝑃 + 𝑇𝑁 + 𝐹𝑃 + 𝐹𝑁 (9) 3. eksperimen dan hasil pengujian hasil menggunakan metode wighted naïve bayes dilakukan dengan membandingkan hasil percobaan naïve bayes tanpa menggunakan pembobotan. perbandingan dilakukan terhadap dokumen berita sejumlah 65 dokumen pada uji coba 1 dan 145 dokumen pada uji coba 2. hasil yang dibandingkan adalah akurasi data yang dihasilkan dengan menghitung selisih antara weighted naïve bayes dan naïve bayes biasa. penghitungan akurasi tersebut dapat dilihat pada persamaan 9. dilakukan uji coba 1 terhadap metode usulan dengan menggunakan data latih sebanyak 35 dokumen dan data uji sebanyak 30 dokumen. pada uji coba 2, data uji yang digunakan sebanyak 110 dokumen dan data latih yang digunakan sama seperti uji coba 1. dimana, pada data latih terdapat 7 kategori, yaitu sepak bola, otomotif, kesehatan, teknologi, ekonomi, politik, dan hukum. pada masing-masing kategori berisi 5 dokumen. dari hasil uji coba 1 didapatkan hasil akurasi naïve bayes sebesar 92% sedangkan pada weighted naïve bayes sebesar 94%. selain itu, dari hasil uji coba 2 didapatkan hasil akurasi naïve bayes sebesar 92% dan weighted naïve bayes sebesar 84%. hasil akurasi dapat dilihat pada tabel 2. tabel 2. hasil akurasi metode akurasi % uji coba 1 uji coba 2 naïve bayes 92 92 weighted naïve bayes 94 84 berdasarkan uji coba 2, dilakukan proses pemilihan fitur sebanyak r (50, 30, dan 10 term terbaik). dari hasil pemilihan fitur menggunakan 50 dan 30 term terbaik didapatkan akurasi sebesar 91% untuk metode usulan dan 95% untuk metode naïve bayes biasa. sedangkan ketika menggunakan 10 term terbaik didapatkan akurasi sebesar 94% untuk metode usulan dan 91% untuk metode naïve bayes biasa. hasil uji coba terhadap pemilihan fitur dapat dilihat pada tabel 3. tabel 3. pemilihan fitur term terbaik metode usulan % naïve bayes % 50 91 95 30 91 95 10 94 91 4. pembahasan dari hasil uji coba 1 didapatkan nilai akurasi naïve bayes sebesar 92% sedangkan nilai akurasi untuk metode yang diusulkan atau weighted naïve bayes sebesar 94%. hasil metode yang diusulkan lebih tinggi disebabkan oleh pemberian bobot pada probabilitas dari setiap kata pada dokumen terhadap kategori. pemberian bobot pada probabilitas mengakibatkan jarak antar peluang satu kata terhadap kategori semakin jauh. hasil dari penelitian yang diusulkan sesuai 29 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p03 e-issn 2541-5832 dengan penelitian hilden, ferreira dan hall yang berpendapat bahwa pembobotan atribut kelas dapat meningkatkan pengaruh prediksi [11][12][13]. akan tetapi pada uji coba 2, akurasi pada metode yang diusulkan cenderung rendah dibandingkan dengan naïve bayes biasa. hal ini dikarenakan term yang sering muncul pada seluruh kategori dokumen menghasilkan nilai gain ratio yang tinggi dan mengakibatkan terjadinya kesalahan klasifikasi. setelah diketahui hasil akurasi pada uji coba 2 rendah. maka, dilakukan proses pemilihan fitur terbaik untuk mengatasi kesalahan klasifikasi yang disebabkan oleh sering munculnya term pada seluruh dokumen. dari hasil uji coba pemilihan fitur menggunakan 50 dan 30 term terbaik didapatkan akurasi sebesar 91% untuk metode usulan dan 95% untuk metode naïve bayes biasa. hal ini dikarenakan term yang sering muncul pada kelas lain terdapat pula pada kelas yang diuji. sedangkan ketika menggunakan 10 term terbaik didapatkan akurasi sebesar 94% untuk metode usulan dan 91% untuk metode naïve bayes biasa. hal ini dikarenakan term yang digunakan pada kelas yang diuji merepresentasikan kelas tersebut. sehingga pada uji coba ini diketahui bahwa pemilihan fitur terbaik dapat mengurangi jumlah term yang sering muncul pada kelas lain. 5. kesimpulan metode weighted naïve bayes dapat mengoptimalkan nilai akurasi metode naïve bayes biasa. hal ini dapat dilihat dari hasil akurasi weighted naïve bayes sebesar 94% dibandingkan dengan naïve bayes biasa sebesar 92%. weighted naïve bayes dapat menghasilkan tingkat akurasi yang lebih tinggi dikarenakan setiap probabilitas dari atribut diberi bobot yang menghasilkan nilai yang lebih tinggi. ketika dilakukan pemilihan fitur mengunkan 10 term terbaik didapatkan akurasi sebesar 94% untuk metode usulan dan 91% untuk metode naïve bayes biasa. hal ini dapat disimpulkan bahwa pemilihan fitur dapat mengatasi kesalahan klasifikasi. daftar pustaka [1] u. s. f. dan w. service, “definitions of the terms and phrases of amer-,” english, 2013. [online]. available: http://www.fws.gov/stand/defterms.html. [accessed: 12-dec-2015]. [2] l. tenenboim, b. shapira, and p. shoval, “ontology-based classification of news in an electronic newspaper,” inf. syst., 2008. [3] d. d. lewis, naive(bayes)at forty: the independence assumption in information retrieval. 1998. [4] d. j. hand and k. m. yu, “idiot’s bayes not so stupid after all?,” int. stat. rev., 2001. [5] i. konokenko, “comparison of inductive and naive bayesian learning approaches to automatic knowledge acquisition,” current trends knowledge acquisition, pp. 190–197, 1990. [6] p. langley and s. sage, “induction of selective bayesian classifiers,” proceedings tenth international conference on uncertainty in artificial inteligence, 1994. [7] a. hamzah, “klasifikasi teks dengan naïve bayes classifier (nbc) untuk pengelompokan teks berita dan abstract akademis,” prosiding seminar nasional aplikasi sains dan teknologi periode iii, 2012. [8] s. garcia, “search engine optimisation using past queries,” school of computer science and information technology, 2007. [9] p. baldi, p. frasconi, and p. smyth, “modeling the internet and the web: probabilistic methods and algorithms,” information processing and management, 2003. [10] h. zhang and s. sheng, “learning weighted naive bayes with accurate ranking,” in proceedings fourth ieee international conference on data mining, icdm 2004, 2004. [11] j. hilden and b. bjerregaard, computer-aided diagnosis and the atypical case. north holland publishing co., 1976. [12] j. t. a. s. ferreira, d. g. t. denison, and d. j. hand, “weighted naive bayes modelling for data mining,” citeseerx, pp. 1–20, 2001. [13] m. hall, “a decision tree-based attribute weighting filter for naive bayes,” acm, vol. 20, no. 2, pp. 120–126, 2007. [14] s. kullback and r. a. leibler, “on information and sufficiency,” the annals of mathematical statistic, vol. 22, no. 1, pp. 79–86, 1951. [15] a. renyi, “on information and sufficiency,” in proceedings of the 4th berkeley 30 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p03 e-issn 2541-5832 symposium on mathematics, 1961, pp. 547–561. [16] n. hermaduanti and s. kusumadewi, “sistem pendukung keputusan berbasis sms untuk menentukan status gizi dengan metode k-nearest neighbor,” in seminar nasional aplikasi teknologi informasi (snati), 2008, pp. 49–56. sebuah kajian pustaka: lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 13 helmet monitoring system using hough circle and hog based on knn rachmad jibril aa1, fitri utaminingruma2, agung setia budia3 afaculty of computer science, university of brawijaya, malang, indonesia malang 65141, fax +62 0341-565420 1jibril.rachmad@gmail.com 2f3_ningrum@ub.ac.id (corresponding author) 3agungsetiabudi@ub.ac.id abstract indonesian citizens who use motorized vehicles are increasing every year. every motorcyclist in indonesia must wear a helmet when riding a motorcycle. even though there are rules that require motorbike riders to wear helmets, there are still many motorists who disobey the rules. to overcome this, police officers have carried out various operations (such as traffic operation, warning, etc.). this is not effective because of the number of police officers available, and the probability of police officers make a mistake when detecting violations that might be caused due to fatigue. this study asks the system to detect motorcyclists who do not wear helmets through a surveillance camera. referring to this reason, the circular hough transform (cht), histogram of oriented gradient (hog), and k-nearest neighbor (knn) are used. testing was done by using images taken from surveillance cameras divided into 200 training data and 40 testing data obtained an accuracy rate of 82.5%. keywords: machine learning, helmet detection, histogram of an oriented gradient, k-nearest neighbor, circular hough transform 1. introduction motorized vehicles are one type of transportation used in many parts of the world, especially motorbikes. in indonesia, the number of people has been using motorbikes was increasing. based on police headquarters data in 2013, the number of motorbikes in indonesia ware 84,732,652 units, a large number of motorbikes caused a high number of traffic accidents involving motorcycles. in 2013 there were 119,560 motorbikes involved in the accident. referring to the number of an accident has been recorded the total fatalities reached 26,416 (national police headquarters)[1]. there are several factors that cause accidents, namely human factors, vehicle factors, and environmental factors[2]. these factors are related to each other, but human factors are the biggest cause of accidents. this is indicated by the records of the national police headquarters in 2010-2016, which showed 70% of the causes of accidents were human factors. many human factors also resulted in the loss of lives. to overcome this, police officers have carried out various operations (such as traffic operation, warning, etc.). this is not effective because of the number of police officers available, and the probability of police officers make mistakes when detecting violations that might be caused due to fatigue. over the past few years, many attempts have been made to analyze traffic, including vehicle detection and classification and helmet detection. modern traffic systems usually use computer vision algorithms, such as background and foreground image detection for the segmentation of moving objects. the use of computer vision algorithms can be applied to the results of video captured by a surveillance camera that is installed on a crossroad or a large road. previous research about helmet detection has been done by many researchers. many methods are used for helmet detection, either feature extraction, shape detection, and image classification. dongmala and klubsuwan[3]. proposes to detect half and full helmets using haar like feature and circular hough transform. they use a haar-like feature to detect the helmet. mailto:1jibril.rachmad@gmail.com mailto:2f3_ningrum@ub.ac.id mailto:3agungsetiabudi@ub.ac.id lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 14 region that is face/nose/mouth/left eye/right eye, but it can not distinguish between half and full helmet. so, they use cht to detect the half and full helmet. wen et al. [4]. proposed circle arc detection based on the circular hough transform method. they applied it to detect helmets through surveillance cameras at atms. the disadvantage of this method is that they only use the geometry feature to verify whether there is a helmet on the image captured by the camera. geometry features are not enough to detect helmets. the head can be detected as a helmet because it is similarly circular. rubaiyat et. al.[5]. proposed helmet detection uses for construction safety. they use discrete cosine transform + histogram of oriented gradient (hog) for human detection method and color + cht for the helmet detection method. in this study, helmet figure 1. proposed method lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 15 detection was carried out after color filtration so that helmet detection could be more accurate. however, this method will provide a disadvantage when the detected helmet is a different color. based on the research above, we can see that cht is good for detecting circles. therefore it can be used to detect helmets that are also circular. meanwhile, hog is used to get the feature value to classify the circle that comes from the helmet itself as the main target of detection with a human head without a helmet. the classification method we chose is k-nearest neighbor (knn). knn was chosen because it is a simple method, only by setting the value for k by analyzing the number of neighbors by looking for the closest distance value as the basis for the classification parameter. also, knn can be applied to a multiclass system, wherein my research is divided into two classes, namely the helmet-wearing rider class and the un-helmeted rider class. based on the above problems and previous literature studies, we propose automatic helmet detection using circular hough transform (cht) for shape detection, histogram of oriented gradient (hog) for feature extraction, and k-nearest neighbor (knn) for image classifier. data is obtained from taking frames on surveillance videos. 2. research method in this research, the proposed method can be seen in fig. 1. the first step is to get the image from a surveillance video. the second step is used to search for a circular object in the image using cht. the third step is feature extraction using hog. the fourth step is to classify the extracted feature using knn. the last step is to get the accuracy, precision, and recall from the knn classifier. 2.1. input 2.1.1. surveillance video the video used in this research is a surveillance video that we got from a surveillance camera placed in sideroad and crossroads with a resolution of 1920x1080. 2.1.2. frames we save each frame from the video. the video has 25 fps, so we get 25 images each second of the video. after that, we save the image and will be used in the next steps. 2.2. detection circular object 2.2.1. grayscale a grayscale image or gray level image is one of the color spaces of an image. the gray level represents the number of quantization intervals in grayscale image processing. at this time, the most used method for storage is 8-bit storage. in an 8 bit grayscale image, there are 256 gray levels from 0 to 255. with 0 is black and 255 is white [6]. in this research, we used equation (1) to convert the rgb image to a grayscale image. 𝐺𝑟𝑎𝑦𝑠𝑐𝑎𝑙𝑒 = 𝑅+𝐺+𝐵 3 (1) r is the intensity of the pixel in the red channel, g is the intensity of the pixel in the green channel, and b is the intensity of the pixel in the blue channel. 2.2.2. circular hough transform circular hough transform (cht) is a method to detect a circular object. many research has been done using cht, such as detecting a person from surveillance video[7] and cell detection for bee comb image[8]. cht is based on the hough transform. to detect circle cht is using a voting process that calculates the possibility of edge point that is lying on a circle. it uses the circle formula to set the parameter of three-dimensional space to collect votes and to search a circle within a fixed radius. the votes will be saved in an accumulator. the objective of the cht is to find the center point from every edge point of a circle in the image through the iteration of the equation (2) and (3). lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 16 𝑥 = 𝑎 + 𝑅 × cos (𝜃) (2) 𝑦 = 𝑏 + 𝑅 × sin (𝜃) (3) denotes 𝑎 and 𝑏 is the center point, 𝑅 is the radius, and 𝜃 is the angle. after the iteration accumulator with the most votes is the true center point of a circle. 2.2.3. save the detected object save all detected images. the stored image will later be used for training and testing data in the classification process. 2.3. histogram of oriented gradient (hog) extraction (a) (b) figure 2. aspect ratio in hog; (a) original image 69x79 pixel; (b) resize image 64x128 pixel (a) (b) figure 3. two computation unit in hog; (a) cells; (b) block figure 4. calculation process in each cell histogram of oriented gradients algorithm is a feature descriptor that is used to extract features from images. the algorithm is based on the distribution of the gradient in the image. the final feature is a one-dimensional array of histograms from the extracted image. in the hog, there are two computation units for feature extraction. it is cell and block. the cell size is 8x8 pixels, and the block size is 16x16 pixels. there are four cells in one block. figure 3. shows the example of the two computation units for feature extraction. after the computation of the current block, it moves to the next block with an overlap of 1 cell[9]. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 17 2.3.1. preprocessing in the preprocessing step, the hog input image needs to have a fixed aspect ratio, so we get the same amount of feature. in this case, we use a 1:2 ratio, for example, 32x64, 64x128, or 1000x2000, but we cannot use 103x150 because it is not a 1:2 ratio. in this research, we use an image size of 64x128 pixels. each image is scaled, keeping its aspect ratio preserve. therefore before we calculate the gradients, we resize every image. the example of the resize image can be seen in figure 2. 2.3.2. calculate gradient after we get the resized image, we calculate the gradient. in this process, we calculate the gradient magnitude and direction from every pixel using equations (4) and (5). 𝑔 = √𝑔𝑥 2 + 𝑔𝑦 2 (4) 𝜃 = 𝑎𝑟𝑐𝑡𝑎𝑛 𝑔𝑦 𝑔𝑥 (5) denotes 𝑔 is a gradient magnitude, 𝜃 is gradient direction and 𝑔𝑥 , 𝑔𝑦 is a gradient of the 𝑥-axes and 𝑦-axes. we can calculate the 𝑔𝑥 , 𝑔𝑦 by using sobel filtering. 2.3.3. calculate hog in each cell in this step, we calculate the histogram of gradient in each cell (8x8 pixels). the histogram is a vector or an array of 9 bins corresponding to angles 0, 20, 40, …, 160 degrees. so we must put gradient direction and magnitude into a histogram of gradient. the gradient of direction is the bins or array, and the gradient of magnitude is the value of the bins or array. the calculation process can be seen in figure 4. 2.3.4. normalization of each block after we get the histogram of gradient in each cell, we normalize the histogram from each block (16x16 pixels). a histogram normalization computation is done by combining all histograms that belong to one block. one block has four cells and has nine feature vectors, so in one block, we have 36 (4 cells x 9 bins) feature vectors. we normalize the block using equation (6). 𝑥𝑖 𝑛 = 𝑥𝑖 √𝑥1 2+ 𝑥2 2+⋯+ 𝑥36 2 (6) 𝑥𝑖 𝑛is the normalization of each block result, 𝑥𝑖 is the feature vector and 𝑖 is a number feature in a block from 1 to 36. 2.3.5. calculate the feature the last step of hog is to calculate the total feature vector from all blocks. in this research, we use an image of 64x128 pixels, so we have seven blocks in a horizontal position and 15 blocks in a vertical position. the total block we have is 105 (7x15) blocks. each block has 36 feature vectors, so in total, we have 3780 (36x105) feature vectors. table 1 shows an example of the hog feature. each data have 3780 feature vectors. table 1. the example of hog feature feature f1 f2 f3 … f3778 f3779 f3780 data 1 0.206719 0.013714 0.077928 … 0.054473 0.235448 0.130019 data 2 0.046905 0.033736 0.033864 … 0.019585 0.024376 0.112724 data 3 0.47073 0.0784 0.006978 … 0.000861 0.003578 0.010856 data 4 0.093873 0.076953 0.025398 … 0.043547 0.014677 0.073801 lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 18 2.4. classification process using k-nearest neighbor (knn) k-nearest neighbor algorithm [10,11] is a method for classifying objects based on the closest distance between the training data and testing data. this algorithm is a simple classifier and easy to apply an algorithm that works well with recognition issues [12]. the training process for knn only consists of the store the features and labels from training data. the classification process only searched for distance and assigned the label from the k-nearest neighbor who has the most votes. 2.4.1. set train and test data knn uses a distance system to calculate classification results. therefore it requires training data and testing data. the data is obtained from a video with a 1080p resolution and has a frame rate of 25 fps. after that, we crop the area around the head of the motorcyclist to distinguish which one belongs to the positive and negative class. image with helmet becomes the positive class, and image without helmet becomes the negative class. the video was taken in daytime conditions, and the camera is placed on the side of a road or intersection with a height of 2-4 meters. in this research, we used 200 data consisting of 100 helmet wearing data (positive class) and 100 non-helmet wearing data (negative class). the test data used 40 data consisting of 20 helmetwearing data (positive class) and 20 non-helmet-wearing data (negative class). the training data used 160 data consisting of 80 helmet wearing data (positive class) and 80 non-helmet wearing data (negative class). 2.4.2. set k-value in the knn classification, we need a k-value. the k-value used to determine how many calculation results will be used for voting. 2.4.3. calculate distance in this research, we use euclidean distance to calculate the distance between neighbors in knn. the equation for euclidean distance is shown in equation (7). 𝑑(𝑇𝑟, 𝑇𝑦) = √(𝑓1𝑇𝑟 − 𝑓1𝑇𝑦 ) 2 + (𝑓2𝑇𝑟 − 𝑓2𝑇𝑦 ) 2 + ⋯ + (𝑓3780𝑇𝑟 − 𝑓3780𝑇𝑦 ) 2 (7) 𝑑(𝑇𝑟, 𝑇𝑦) is the distance, 𝑇𝑟 is testing data, and 𝑇𝑦 is training data. 2.4.4. sort the distance after we get the distance, we sort the distance from the smallest distance to the largest distance. then we take some of the top data by following the k-value that has been set. for example, if we set the k-value to 5, then we take the five most top data. 2.4.5. determine the class the result of classification is the class that has the most votes in the k-nearest neighbor. for example, we have a k-value of 5. in the five smallest data, we have 3 data with the label of 0 and 2 data with the label of 1, so the classification result is class 0 because it has more votes than class 1 [13]. 3. result and discussion in this section, the proposed method was tested by using a dataset that we collect from several frames from the surveillance video. the output of the system is the result of the knn classification. the result is either the circular object is the helmet-wearing class or the non-helmet wearing class. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 19 table 2. sample data of visual experimental result input result actual detected 1 1 2 2 3 2 2 1 figure 5. example of the dataset 3.1. visual result the proposed method has been implemented. first, the original image is transformed to grayscale, and cht will be implemented to it. the cht's purpose is to detect the head region of the motorcyclist. in this research, we select the cht result that shows the head region because our purpose is to detect the helmet. the result of cht will be cropped and then saved to build training and testing data. the data divided into 200 training data, which was obtained from selected frames consisting of 100 helmets wearing motorcyclist head image and 100 non-helmet wearing motorcyclist head image. the test data used 40 images 20 helmet wearing motorcyclist head image and 20 non-helmet wearing motorcyclist head image that was obtained from a different surveillance video with training data. the data divided into two classes, helmet-wearing class and non-helmet wearing class. figure 5. shows the example of the dataset. to classify the data, we need to extract the feature from the image. we use hog for feature extraction. there are 3780 features from each image. after that, we do labeling for each data. we do the feature extraction into both classes. the result is the same, only different in value table 2. shows the example of the visual experimental results, the detected helmet is marked with a green circle, and the other is not marked. several conditions cause detection failure, the image of the lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 20 head is not intact or covered with something, and the image of the head is too small. we conducted this experiment 40 times. 3.2. quantitative result in order to present the performance of the proposed method, an experiment is conducted using the dataset. the measurement method uses the accuracy equation (8), precision equation (9), and recall equation (10). we use all the data in this experiment, which are 40 testing data and 160 training data. the testing data is divided by four, each has ten images, and we will calculate the average accuracy. table 3. confucion matrix predictive relevant irrelevant actual relevant true positive (tp) false negative (fn) irrelevant false positive (fp) true negative (tn) table 4. testing result data kvalue accuracy precision recall 1 1 0.80 0.80 0.80 3 0.70 0.66 0.80 5 0.70 0.66 0.80 7 0.70 0.66 0.80 2 1 0.60 0.66 0.40 3 0.60 0.66 0.40 5 0.60 0.66 0.40 7 0.70 0.75 0.60 3 1 1.00 1.00 1.00 3 0.90 1.00 0.80 5 0.90 1.00 0.80 7 0.90 1.00 0.80 4 1 0.90 1.00 0.80 3 1.00 1.00 1.00 5 1.00 1.00 1.00 7 1.00 1.00 1.00 average 1 0.825 0.865 0.75 3 0.80 0.83 0.75 5 0.80 0.83 0.75 7 0.825 0.852 0.80 table 5. comparison result author method acccuracy wonghabut et. al. [14] aspec ratio 74 % rubaiyat et. al. [5] color + cht 81 % proposed method knn + hog 82.5 % lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 21 table 6. computation time result test number time (s) 1 1.40369 2 1.42919 3 1.48211 4 1.44819 5 1.42123 6 1.44429 7 1.43858 8 1.42197 9 1.42451 10 1.43190 average 1.43457 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 = 𝑇𝑃+𝑇𝑁 𝑇𝑃+𝑇𝑁+𝐹𝑃+𝐹𝑁 (8) 𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 = 𝑇𝑃 𝑇𝑃+𝐹𝑃 (9) 𝑅𝑒𝑐𝑎𝑙𝑙 = 𝑇𝑃 𝑇𝑃+𝐹𝑁 (10) tp (true positif) is the number of correct predictions in positive class, in this case, is the helmetwearing class, tn (true negatif) is the number of correct predictions in negative class, in this case, is the non-helmet wearing class. fp (false positif) is the number of incorrect predictions in the positive class, and fn (false negatif) is the number of incorrect predictions in the negative[15]. the confusion matrix is shown in table 3. testing was done by using different k-value in the knn classifier. in this research, the k-value that users ware 1,3,5 and 7. in this research, we classify the data into two classes, the first, the helmet-wearing class, and the second, is non-helmet wearing class. each k-value produce a different result, but the result ware satisfactory. the result of the test is shown in table 4. the average accuracy, precision, and recall are relatively high, and it is shown that the k-value of 1 and 7 produces the highest score, but the k-value of 1 is better because it useless calculation than k-value 7. after getting the best result from our experiment, we compare it with previous research. we compare our work with two other research about helmet detection, and the result is our work produce slightly better accuracy when detecting helmet. comparison results can be seen in table 5. 3.3. computation time resul in order to know how fast the detection time of the proposed method, we do a computation time test. the test was done on a computer that runs microsoft windows 10 with a processor intel(r) core(tm) i5-4460 and 8 gb memory. the data we use in the test is the training and testing data mention in section 2.4.1. we run the program ten times with k-value 1, and the result is shown in table 6. the average time we got from the experiments is 1.43457 s. in this research, we use the knn classification because previous studies have good accuracy. meanwhile, the consumption of computation time could be reduced by sklearn's tools in phyton. knn classification uses sklearn's tools, only takes 0.4 seconds. besides that, to increase the speed performance, we resize the original image that has a different size to become 64x128 pixel so, resizing the size of data also will be decreased the speed of knn performance. the test results show a computation time for each detection. this shows that the proposed method produces a fast time to detect so that it can be implemented in real-time, although the quality is poor. we can improve the quality of real-time implementation by reducing computation lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 22 time. this problem can be resolved by improving the quality of the computer or using a faster classification method. 4. conclusion this study comes about the detection of motorcyclists without a helmet. the system builds based on computer vision technology, which is divided as follows: shape detection, feature extraction, and image classification. the results were satisfactory. the knn classifier using the feature from hog can classify between the helmet-wearing motorcyclist and the motorcyclist that is not wearing a helmet. we use different k-value in the testing process. the k-value that got the best result is 1 and 7, with an average accuracy of 82.5 % and average computation time is 1.43457 s. the present result is promising but can be improved. one of the future works is license plate recognition with the purpose of detecting the license plate from motorcyclists that are not wearing a helmet. for this, it is necessary an image with better quality to recognize the characters. references [1] badan pusat statistik kota salatiga, “salatiga dalam angka tahun 2013,” pp. 1, 115, 155, 2013. [2] l. gicquel, p. ordonneau, e. blot, c. toillon, p. ingrand, and l. romo, "description of various factors contributing to traffic accidents in youth and measures proposed to alleviate recurrence," frontiers of psychiatry, vol. 8, no. jun, pp. 1–10, 2017, doi: 10.11591/ijeei.v6i4.463 [3] p. doungmala and k. klubsuwan, "half and full helmet wearing detection in thailand using haar like feature and circle hough transform on image processing pathasu," proc. 2016 16th ieee int. conference on computer and information technology cit 2016, 2016 6th international symposium cloud and service computing ieee sc2 2016 2016 international symposium security and privacy in social networks and big data, pp. 611– 614, 2017, doi: 10.1109/cit.2016.87 [4] l. j. l. c. wen c. chiu s., "the safety helmet detection for atm's surveillance system via the modified hough transform," proceedings of annual ieee international carnahan conference on security technology, pp. 259–263, 2003, doi: 10.1109/ccst.2003.1297588 [5] a. h. m. rubaiyat et al., "automatic detection of helmet uses for construction safety," proceedings 2016 ieee/wic/acm international conference on web intelligence workshops, wiw 2016, no. november, pp. 135–142, 2017, doi: 10.1109/wiw.2016.10 [6] t. kumar and k. verma, "a theory based on conversion of rgb image to gray image," international journal of computer applications., vol. 7, no. 2, pp. 5–12, 2010, doi: 10.5120/1140-1493 [7] h. liu, y. qian, and s. lin, "detecting persons using hough circle transform in surveillance video," visapp 2010 proceedings of the international conference on computer vision theory and applications, vol. 2, no. january, 2010, doi: 10.5220/0002856002670270 [8] l. h. liew, b. y. lee, and m. chan, "cell detection for bee comb images using circular hough transformation," cssr 2010 2010 international conference on science and social research, no. cssr, pp. 191–195, 2010, doi: 10.1109/cssr.2010.5773764 [9] pei-yin chen, chien-chuan huang, chih-yuan lien, and yu-hsien tsai, "an efficient hardware implementation of hog feature extraction for human detection," ieee transactions on intelligent transportation systems, vol. 15, no. 2, pp. 656–662, 2014, doi: 10.1109/tits.2013.2284666 [10] k. n. stevens, t. m. cover, and p. e. hart, "nearest neighbor pattern classification," vol. it-13, no. 1, pp. 21–27, 1967. [11] j. maillo, s. ramírez, i. triguero, and f. herrera, "knn-is: an iterative spark-based design of the k-nearest neighbors classifier for big data," knowledge-based system, vol. 117, pp. 3–15, 2017, doi: 10.1016/j.knosys.2016.06.012 [12] f. a. mufarroha and f. utaminingrum, "hand gesture recognition using adaptive network based fuzzy inference system and k-nearest neighbor," international journal of technology, vol. 8, no. 3, p. 559, 2017, doi: 10.14716/ijtech.v8i3.3146 [13] j. kim, b.s. kim, and s. savarese, "comparing image classification methods: k-nearestneighbor and support-vector-machines," applied mathematics in electrical and computer lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p02 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 23 engineering, pp. 133–138, 2012. [14] p. wonghabut, j. kumphong, t. satiennam, r. ung-arunyawee, and w. leelapatra, "automatic helmet-wearing detection for law enforcement using cctv cameras," iop conference series: earth and environmental science, vol. 143, no. 1, 2018. doi: 10.1088/1755-1315/143/1/012063 [15] s. tiwari, "blur classification using segmentation based fractal texture analysis," indonesian journal of electrical engineering and informatics, vol. 6, no. 4, pp. 373–384, 2018. doi: 10.11591/ijeei.v6i4.463 panduan lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 150 penerapan mobile crowdsourching untuk estimasi waktu kedatangan bis berdasarkan informasi masyarakat yuli fauziaha1, heru cahya rustamajia2, rihadina pambudi ramadhana3 ajurusan teknik informatika, fakultas teknik industri upn “veteran” yogyakarta jalan swk 104, di yogyakarta, indonesia 1yuli.if@gmail.com 2herucr@gmail.com 3adireyramadhan@gmail.com abstrak trans jogja merupakan sebuah sistem transportasi massa yang beroperasi di kota yogyakarta, dimana sistem ini memiliki masalah pada ketepatan waktu pemberangkatan maupun kedatangan bus, sehingga jadwal kedatangan bus yang tidak bisa dipastikan. untuk itu, penelitian ini merancang penerapan konsep mobile crowdsourcing untuk membantu antar pengguna bus trans jogja dalam hal estimasi kedatangan bus. pengguna membroadcast lokasi ataupun ketika penumpang naik sehingga end-user penumpang bisa mendapatkan estimasi berapa lama bus akan datang. metode yang digunakan adalah metode kualitatif dengan mengumpulkan sumber data primer (wawancara, observasi dan studi pustaka). penelitian ini melibatkan penumpang bus trans jogja pengguna smartphone android. penumpang memposting status menggunakan aplikasi untuk mengirimkan lokasi bus. penumpang lain yang telah menanti di halte dapat mengetahui waktu kedatangan bus di halte. berdasarkan hasil pengujian performance, dapat diperoleh selisih rata-rata waktu kedatangan bus di aplikasi dengan waktu kedatangan bus hasil survei di jalur 1a adalah 1,86 menit. kata kunci: crowdsourcing, trans jogja, waktu, kedatangan, bus abstract trans jogja is a mass transportation system operating in yogyakarta city, where the system has problems with the timeliness of departure and bus arrival, so the bus arrival schedule can not be ascertained. so, this study designs the application of mobile crowdsourcing concept to assist trans jogja bus users in terms of bus arrival estimation. the user broadcasts the location or when the passenger goes up so that the end-user passengers can get an estimate of how long the bus will come. the method used is qualitative method by collecting primary data source (interview, observation and literature study). this research involves passengers of trans jogja bus android smartphone users. passengers post the status using the app to send the bus location. other passengers who have been waiting at the bus stop can know the bus arrival time at the bus stop. based on performance test result, it can be obtained the average difference of bus arrival time in application with bus arrival time of survey result in line 1a is 1.86 minutes. keywords: crowdsourcing, trans jogja, time, arrival, bus 1. pendahuluan transportasi merupakan kebutuhan manusia untuk dapat bergerak dari satu tempat asal ke tempat lain. peran transportasi juga sangat penting untuk dapat menghubungkan satu daerah dengan daerah lain. transportasi digolongkan menjadi tiga jenis yaitu transportasi darat, laut dan udara. beberapa mode transportasi darat yang ada saat ini seperti sepeda, sepeda motor, mobil pribadi, truk bahkan angkutan publik seperti kereta api dan bus. kebutuhan masyarakat akan jasa transportasi di indonesia tergolong besar. transportasi dijadikan suatu bidang usaha yang sangat potensial dikarenakan semua aspek kehidupan membutuhkan transportasi untuk mailto:yuli.if@gmail.com mailto:herucr@gmail.com lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 151 mempercepat akses kepada suatu tujuan tertentu. dilihat dari keuntungan yang akan didapatkan maka berdiri perusahaan atau instansi jasa transportasi terutama jasa transportasi umum seperti perusahaan-perusahaan bus. jasa angkutan umum inilah yang menjadi sektor penting ekonomi masyarakat menengah ke bawah karena harga yang terjangkau serta ekonomis dalam bepergian, bekerja, maupun tujuan khusus lainnya [1]. berdasarkan data dari badan pusat statistik provinsi daerah istimewa yogyakarta tahun 2012, yogyakarta memiliki jumlah penduduk sebanyak 3.514.762 jiwa dan tercatat jumlah kendaraan bermotor yang terdaftar menurut jenisnya di daerah istimewa yogyakarta yaitu mobil barang sebanyak 48.508, mobil penumpang sebanyak 152.178, mobil bus sebanyak 11.019 dan motor sebanyak 1.537.534. salah satu transportasi darat yang saat ini sangat mendukung di yogyakarta adalah trans-jogja. trans-jogja merupakan salah satu bagian dari program penerapan bus rapid transit (brt) yang dicanangkan departemen perhubungan. sistem ini mulai dioperasikan pada awal bulan maret 2008 oleh dinas perhubungan, pemerintah provinsi diy. moto pelayanannya adalah "aman, nyaman, andal, terjangkau, dan ramah lingkungan. trans jogja beroperasi setiap hari mulai pukul 05.30 21.30 wib [2]. penumpang adalah target utama dari suatu perusahaan atau instansi jasa transportasi umum ini, karena dengan penumpang yang banyak maka perusahaan atau instansi dapat berkembang dengan baik. permasalahan yang sering timbul dari sisi penumpang adalah penumpang kurang memahami jadwal kedatangan bus trans-jogja sehingga akan menimbulkan banyaknya penumpang yang menumpuk di shelter. berdasarkan hasil kuesioner yang dibagikan ke 20 orang penumpang dengan jumlah 10 pertanyaan diketahui bahwa 6 orang (30% responden) berlangganan bus trans-jogja dan 14 orang (70% responden) lainnya tidak berlangganan. dari ke 20 responden terdapat 4 orang (20% responden) mengetahui jadwal kedatangan bus, 15 orang (75% responden) mengatakan kurang mengetahui waktu kedatangan bus dan 1 (5% responden) orang lainnya mengatakan sama sekali tidak mengetahui jadwal kedatangan bus ketika melakukan perjalanan, kemudian ketika ditanya cara untuk mengetahui waktu kedatangan bus 17 orang (85% responden) menjawab bertanya kepada petugas dan 3 orang (15% responden) lainnya tidak melakukan apa-apa. terkait dengan kejelasan waktu kedatangan, dari hasil kuesioner sebanyak 12 penumpang (60% responden) menyatakan sangat setuju sekali jika waktu kedatangan bus trans-jogja diperjelas, 3 penumpang (15% responden) menyatakan setuju sekali, 4 penumpang (20% responden) menyatakan setuju sehingga dapat dinyatakan mayoritas (95% responden) sangat menyambut baik jika waktu kedatangan bus trans-jogja diperjelas. terkait fasilitas monitor di shelter, dari hasil kuesioner sebanyak 3 orang (15% responden) menjawab bahwa monitor yang terdapat di shelter dimanfaatkan, 13 orang (65% responden) menjawab monitor shelter kurang dimanfaatkan, 4 orang (20% responden) menjawab sama sekali tidak dimanfaatkan. pertanyaan terkait perlu dibangunnya sebuah aplikasi yang dapat membantu para penumpang untuk mengetahui waktu kedatangan bus dijawab 13 penumpang (65% responden) menyatakan sangat perlu sekali, 5 penumpang (25% responden) menyatakan perlu sekali, 2 orang (10%) menyatakan perlu, jadi dapat disimpulkan semua (100% responden) penumpang menyatakan perlunya dibangun aplikasi untuk memberikan waktu kedatangan bus. beberapa shelter trans–jogja sudah memiliki fasilitas monitor yang menampilkan rencana penjadwalan bus akan tetapi monitor yang ada tidak dimanfaatkan dengan baik karena informasi yang ditampilkan di monitor tersebut belum memberikan informasi yang relevan, kemudian sistem yang ada juga tidak membuahkan solusi dari permasalahan penjadwalan bus sendiri karena sistem yang berjalan hanya merupakan rencana penjadwalan dan bukan berdasarkan aktivitas bus yang sebenarnya. pihak trans–jogja melakukan pencatatan jeda waktu kedatangan masing-masing bus sebagai arsip data karena monitor belum digunakan secara maksimal dan belum berjalannya sistem. namun hal tersebut tidak memberikan informasi yang memuaskan bagi penumpang karena data interval yang dicatat dapat berubah setiap saat. berdasarkan hasil kuesioner juga diketahui bahwa para responden menjawab perlu dibangunnya sebuah aplikasi yang dapat membantu para penumpang dalam mengetahui waktu kedatangan bus secara real-time. estimasi kedatangan bus menjadi hal yang selalu ditanyakan oleh calon penumpang trans–jogja pada saat akan menaiki bus sementara bus yang ditunggu tidak kunjung datang. kemacetan di perjalanan menjadi sebab hal ini terjadi, karena bus trans– jogja tidak memiliki jalur tersendiri. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 152 pengguna smartphone di indonesia cukup tinggi. menurut hasil studi bertajuk "getting mobile right" yang diprakarsai oleh yahoo dan mindshare, saat ini ada sekitar 41,3 juta pengguna smartphone dan 6 juta pengguna tablet di indonesia. jumlah tersebut diyakini bakal terus berkembang dengan pesat khususnya di wilayah perkotaan. bahkan, pihak yahoo dan mindshare memprediksi bahwa akan ada sekitar 103,7 juta pengguna smartphone dan 16,2 juta pengguna tablet di indonesia pada tahun 2017 mendatang. selain itu, penelitian ini juga dilatarbelakangi oleh kebutuhan pengguna akan aplikasi yang mewadahi untuk berbagi/posting informasi dan saling berinteraksi untuk menemukan solusi paling baik. berdasarkan hasil riset yang dilakukan dengan metode focus group discussion (fgd), diketahui bahwa konsep crowdsourcing menarik minat user dan merupakan solusi untuk pemecahan masalah [3]. hal ini dilakukan dengan pertimbangan bahwa aplikasi mobile mempunyai beberapa kelebihan dibanding web, yaitu performa lebih memuaskan karena kemampuan mengakses fitur yang dimiliki perangkat mobile, lebih cepat mengakses data dibandingkan web, user interface lebih sesuai dengan perangkat mobile sehingga memungkinkan user berinteraksi dengan lebih baik, user friendly karena pengaturan tata letak sudah disesuaikan dengan perangkat mobile. banyaknya populasi yang menggunakan smartphone menimbulkan banyaknya arus informasi dan pertukaran informasi yang terjadi. penumpang bus trans jogja dapat memanfaatkan smartphone untuk saling berbagi informasi mengenai bus. seperti yang biasa dilakukan para calon penumpang dalam posisi yang berlainan, dimana selama ini para calon penumpang menggunakan media sosial. tujuan dari makalah ini adalah untuk menggabungkan permasalahan pada sisi penumpang bus trans jogja dan memanfaatkan kelebihan dari smartphone untuk mendapatkan pemahaman yang lebih baik dari fungsi khusus aspek desain untuk dipertimbangkan selama pengembangan dan evaluasi sistem kolaboratif tersebut. bagaimana aplikasi mobile crowdsourcing dikembangkan akan bergeser dari cara ad-hoc ke kegiatan rutin yang direncanakan. berdasarkan tinjauan literatur, kategorisasi aplikasi yang ada sistem mobile crowdsourcing, dan gambaran dari aspek desain khusus sistem mobile crowdsourcing, arsitektur umum untuk sistem mobile crowdsourcing akan dijelaskan. arsitektur umum untuk mobile crowdsourcing sistem yang diusulkan. dari permasalahan di atas pula maka perlu dirancang sebuah aplikasi yang dapat memberikan estimasi waktu kedatangan bus trans-jogja dengan memanfaatkan smartphone, dengan harapan akan membantu memberikan kepastian informasi kedatangan bus kepada para calon penumpang yang menanti di shelter sesuai tujuan bus. 2. metodologi penelitian 2.1. obyek penelitian obyek penelitian yang akan dibahas adalah distribusi informasi kedatangan bus. penelitian ini akan menghasilkan kategorisasi aplikasi yang ada sistem mobile crowdsourcing, dan gambaran dari aspek desain khusus sistem mobile crowdsourcing, arsitektur umum untuk sistem mobile crowdsourcing akan dijelaskan dan diterapkan dengan aplikasi estimasi kedatangan bus transjogja yang diharapkan mampu untuk memberikan informasi kepada penumpang trans–jogja mengenai posisi dan estimasi waktu kedatangan bus trans–jogja pada halte selanjutnya yang diinginkan penumpang. 2.2. metode pengumpulan data metode pengumpulan data yang dilakukan dalam penelitian ini adalah sebagai berikut: 2.2.1. observasi metode observasi merupakan teknik atau pendekatan untuk mendapatkan data primer dengan melakukan pengamatan langsung dengan mengamati kondisi di beberapa shelter trans–jogja. observasi yang dilakukan oleh peneliti yaitu pada shelter-shelter yang melewati rute bus trans– jogja b1, dengan jumlah halte sebanyak 31 titik. pengamatan dilakukan untuk melihat kondisi ketika tidak adanya penjadwalan kedatangan bus akan menimbulkan adanya penumpukan penumpang pada suatu shelter. metode observasi juga dilakukan dengan cara pengukuran fisik pada saat sebelum perancangan, pengukuran lokasi shelter yaitu pengambilan latitude dan longitude menggunakan alat bantu gps. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 153 2.2.2. wawancara metode pengumpulan data dilakukan dengan melakukan wawancara petugas dan para penumpang shelter gembira loka. wawancara yang dilakukan kepada petugas shelter yaitu mengenai keadaan di shelter dan masalah-masalah yang dihadapi para petugas shelter. sistem yang ada saat ini adalah fasilitas monitor dan handy talky. fasilitas monitor yang seharusnya memberikan informasi waktu kedatangan bus tidak berfungsi, fasilitas tersebut sekarang berfungsi hanya untuk informasi jalur saja. fasilitas handy talk digunakan sebagai alat komunikasi petugas halte baik yang berada di bus dan di halte. handy talk digunakan untuk informasi pemberangkatan bus, tetapi paling sering hanya untuk informasi bila barang penumpang tertinggal di halte dan bus sedangkan pertanyaan yang diajukan kepada para penumpang yaitu mengenai kemanfaatan monitor di shelter dan perlunya informasi yang lebih jelas mengenai waktu kedatangan bus sehingga mengurangi waktu tunggu penumpang di halte. 2.2.3. studi pustaka penelitian ini dilakukan dengan membaca literatur berupa buku, makalah, dan artikel yang relevan dengan topik penelitian ini. adapun studi pustaka yang digunakan adalah sebagai berikut: a. referensi tentang pemrograman php framework codeigniter dan pemrograman android. b. naskah publikasi terkait dengan manajemen pengelolaan informasi kedatangan bus. c. selain itu dilakukan juga browsing atau searching untuk mengetahui informasi pada website yang terdapat informasi seputar layanan, rute dan trayek bus. 3. kajian pustaka berdasarkan penelitian yang dilakukan oleh lutfi fanani dkk., menyebutkan bahwa memprediksi kedatangan bus merupakan tantangan utama dalam konteks membangun sistem transportasi publik yang cerdas. waktu kedatangan bus adalah informasi utama untuk menyediakan penumpang dengan sistem informasi yang akurat yang dapat mengurangi waktu tunggu penumpang. penelitian ini menggunakan metode distribusi normal dengan random data perjalanan dalam sejumlah jalur bus 243 di daerah taipei. dalam mengembangkan model, data dikumpulkan dari perusahaan bus taipei. sebuah metode distribusi normal digunakan untuk memprediksi waktu kedatangan bus di halte bus untuk memastikan pengguna tidak ketinggalan bus, dan membandingkan hasilnya dengan aplikasi yang sudah ada. hasil penelitian ini menunjukkan bahwa metode yang diusulkan memiliki prediksi yang lebih baik dari aplikasi yang sudah ada, dengan pengguna probabilitas tidak ketinggalan bus di waktu puncak adalah 93% dan dalam waktu normal 85%, lebih besar dari aplikasi yang sudah ada dengan 65 probabilitas% dalam waktu puncak, dan 70% dalam waktu normal [4]. berdasarkan penelitian yang dilakukan oleh yeyen meithia putri jalni dan herman yuliansyah, menyebutkan bahwa estimasi kedatangan bus mendapat informasi dari smartphone para sopir bus ketika bus akan bergerak memulai rute bus, sopir akan mengaktifkan satu aplikasi mobile dan aplikasi mobile tersebut akan secara kontinu memberikan koordinat lokasi bus bergerak. data yang dikirimkan oleh aplikasi mobile tersebut akan dikirimkan ke basis data eksternal untuk diolah dengan bantuan aplikasi web sehingga dapat menghasilkan informasi yang berguna bagi para penumpang karena informasi tersebut berupa estimasi waktu kedatangan bus [5]. berdasarkan penelitian yang dilakukan oleh kari edison watkins dkk., menyatakan bahwa dalam rangka memberikan lebih banyak pilihan bagi para penumpang, layanan transit tidak hanya harus memiliki layanan tingkat tinggi dalam hal frekuensi dan waktu perjalanan, tetapi juga harus dapat diandalkan. salah satu cara murah untuk memerangi persepsi tidak dapat diandalkan dari perspektif pengguna adalah informasi yang perjalanan real-time. sistem transit informasi wisatawan onebusaway menyediakan informasi real-time bus melalui website, telepon, pesan teks, dan aplikasi ponsel pintar. untuk studi ini, peneliti mengamati penumpang tiba di daerah bus berhenti untuk mengukur waktu tunggu penumpang dengan mengajukan serangkaian pertanyaan, termasuk berapa lama penumpang menyadari bahwa penumpang memiliki toleransi menunggu. ditemukan bahwa untuk penumpang tanpa informasi real-time, merasa waktu menunggu lebih besar dari waktu riil untuk menunggu yang diukur. namun, lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 154 penumpang dengan menggunakan informasi real-time tidak merasakan waktu menunggu menjadi lebih lama dari waktu tunggu yang diukur. pengguna informasi real-time mengatakan bahwa waktu tunggu rata-rata adalah 7,5 menit dibandingkan 9,9 menit untuk yang menggunakan informasi kedatangan tradisional, perbedaan sekitar 30%. sebuah model untuk memprediksi waktu tunggu yang dirasakan pengendara bus dikembangkan, dengan variabel signifikan yang mencakup menunggu waktu yang diukur, variabel indikator untuk informasi realtime, variabel indikator untuk periode puncak pm, frekuensi bus di bus per jam, dan tingkat kejengkelan khas dilaporkan sendiri. penambahan informasi real-time mengurangi waktu menunggu dirasakan oleh 0,7 menit (sekitar 13%). temuan penting dari penelitian ini adalah bahwa informasi mobile real-time tidak hanya mengurangi waktu menunggu yang dirasakan, tetapi juga waktu tunggu yang sebenarnya dialami oleh pelanggan. pengguna informasi realtime menunggu hampir 2 menit kurang dari informasi jadwal tradisional. informasi mobile realtime memiliki kemampuan untuk meningkatkan pengalaman penumpang angkutan dengan membuat informasi yang tersedia sebelum mencapai berhenti [6]. berdasarkan penelitian yang dilakukan oleh jian zhang dkk., menyatakan bahwa sistem informasi layanan transportasi perkotaan umum untuk waktu kedatangan bus ditunjukkan pada elektronik papan di stasiun/terminal, dirancang untuk memberikan informasi yang akurat dan tepat waktu yang dapat membantu wisatawan untuk memilih jalur transit dan jalur terpendek, dapat meningkatkan efisiensi perjalanan dan menarik lebih banyak potensial wisatawan. namun, saat waktu kedatangan bus, model prediksi pada aplikasi ini tidak dapat mencapai hasil yang memuaskan. oleh karena itu, penelitian ini menganalisis komponen teknologi dari waktu kedatangan bus, dan membangun real-time model dinamis untuk setiap komponen. akhirnya, harus ditambahkan semua komponen teknologi dari waktu kedatangan bus, mendapat model yang lebih akurat prediksi [7]. berdasarkan penelitian yang dilakukan oleh rabi g. mishalani, melakukan kuantifikasi hubungan antara waktu tunggu yang dirasakan dan aktual yang dialami oleh penumpang menunggu kedatangan bus di sebuah halte bus. memahami hubungan seperti itu akan berguna dalam mengukur nilai menyediakan informasi real-time untuk penumpang di waktu sampai bus berikutnya diharapkan tiba di halte bus. hasil penelitian menunjukkan bahwa penumpang merasakan waktu untuk menjadi lebih besar dari jumlah yang sebenarnya waktu menunggu. namun, hipotesis bahwa laju perubahan waktu yang dirasakan tidak berbeda sehubungan dengan waktu tunggu yang sebenarnya tidak dapat ditolak (pada rentang 3 sampai 15 menit). dengan asumsi bahwa penumpang dirasakan menunggu waktu sama dengan waktu yang sebenarnya ketika disajikan dengan informasi real-time kedatangan bus yang akurat, nilai waktu tambahan dihilangkan dan dinilai dalam bentuk pengurangan jam kendaraan per hari yang dihasilkan dari kemajuan lagi yang menghasilkan waktu tunggu penumpang rata-rata sama. waktu tambahan yang dihilangkan juga dinilai dalam bentuk ketidakpastian dalam kemajuan yang mengakibatkan waktu tunggu tambahan yang sama. tentu, manfaat tersebut informasi penumpang hanya dapat dikonfirmasi ketika efek yang sebenarnya dari informasi tentang persepsi waktu tunggu yang diukur [8]. miftah, teddy, & budi telah mendeskripsikan bahwa crowdsourcing apabila didefinisikan kata per kata terdiri dari dua kata yaitu crowd yang berarti kerumunan dan sourcing (kata kerja dari source) yang berarti sumber daya. apabila digabungkan akan berarti suatu konsep atau sistem yang mempunyai sumber daya berbasis kerumunan [9]. sistem di dalam crowdsourcing biasanya menggunakan penawaran dan persetujuan. ketika suatu pekerjaan ditawarkan pada kerumunan sumber daya manusia dengan tingkat keahlian yang berbeda-beda berkumpul dengan tujuan menyelesaikan pekerjaan tersebut. crowdsource adalah sebuah aktivitas, proses ataupun model bisnis dimana sebuah individu, organisasi maupun perusahaan mengajukan sebuah permasalahan kepada sekumpulan masyarakat luas secara terbuka untuk dicarikan solusinya. dengan sistem crowdsource ini perusahaan akan mendapatkan akses kepada tenaga kerja yang sangat besar sehingga dapat menyelesaikan sebuah permasalahan dengan biaya yang lebih sedikit dan hasil yang memuaskan. dalam waktu kedepan akan ada banyak perusahaan yang menggunakan crowdsource untuk menyelesaikan berbagai macam pekerjaan [10]. berdasarkan beberapa kajian tersebut menunjukkan bahwa menginformasikan waktu kedatangan bus merupakan hal yang sangat penting dan dibutuhkan oleh para pengguna jasa lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 155 transportasi publik seperti bus sehingga dengan begitu memberikan kepastian terkait kedatangan bus dan diharapkan mampu mengurangi waktu menunggu yang dirasakan oleh pelanggan. hal yang membedakan pada penelitian ini adalah pada penelitian ini penentuan posisi bus dilakukan dengan memanfaatkan perangkat smartphone yang secara teknis dapat dibawa dalam keadaan yang aman dan tidak mengganggu aktivitas dari para masyarakat calon penumpang dan penumpang. para partisipan tersebut menginformasikan posisi bus dari smartphone ketika melihat bis pada rute bus, disesuaikan dengan halte terdekat pada koordinat lokasi bus bergerak. data yang dikirimkan oleh aplikasi mobile tersebut akan dikirimkan ke basis data eksternal untuk diolah dengan bantuan aplikasi web sehingga dapat menghasilkan informasi yang berguna bagi para penumpang karena informasi tersebut berupa estimasi waktu kedatangan bus dengan melalui terlebih dahulu perhitungan menggunakan metode haversine. 4. hasil dan pembahasan 4.1. hasil pengumpulan data pengumpulan data dilakukan dengan pengukuran fisik yaitu pengambilan koordinat latitude dan longitude lokasi shelter dan belokan berdasarkan rute bus trans–jogja yang akan dimasukkan ke basis data, yaitu jarak halte, data perkiraan waktu tempuh atau estimation time of arrival (eta) menit, dan kecepatan rata-rata bus diperoleh dari hasil survei langsung di lapangan sesuai dengan jalur 1a pengambilan koordinat menggunakan gpsmap garmin 78s. latitude dan longitude, ditunjukkan pada tabel 1. tabel 1. data jalur 1a halte jarak halte tujuan (meter) eta(menit) kec(km/jam) 1 terminal prambanan -7.755730 110.489889 halte no.2 5.200 6 52 2 kr2 -7.782511 110.449187 halte no.3 1.600 5 19 3 bandara adisutjipto -7.784598 110.436326 halte no.4 2.000 6 20 4 jl.solo (jayakarta) -7.783503 110.419480 halte no.5 1.300 5 16 5 janti 1 (janti fly over) -7.786282 110.410360 halte no.6 1.400 6 14 6 jogja bisnis (ambarukmo plaza) -7.783281 110.401099 halte no.7 1.000 4 15 7 mandala bhakti wanitatama -7.783173 110.393134 halte no.8 0.750 7 6 8 empire xxi -7.783185 110.386903 halte no.9 0.900 5 11 9 bethesda sudirman 1 -7.783110 110.378693 halte no.10 0.550 4 8 10 bopkri gondolayu sudirman 2 -7.782993 110.369761 halte no.11 0.500 4 8 11 mangkubumi 1 (tugu) -7.784718 110.366876 halte no.12 0.350 2 11 12 mangkubumi 2 (pln) -7.787725 110.366506 halte no.13 1.000 6 10 13 malioboro 1 (hotel inna garuda) -7.790359 110.366071 halte no.14 0.500 1 30 14 malioboro 2 (kepatihan) -7.795221 110.365525 halte no.15 0.650 1 39 15 ahmad yani benteng (vredeburg) -7.798797 110.365047 halte no.16 0.500 2 15 16 senopati (taman pintar yogyakarta) -7.801440 110.367702 halte no.17 0.800 7 7 17 puro pakualaman (transfer ke 4a) -7.801648 110.375894 halte no.18 0.900 6 9 18 kusumanegara 1 (gedung keuangan negara) -7.801875 110.383340 halte no.19 1.000 6 10 19 kusumanegara 3 (sgm 1) -7.802154 110.392822 halte no.20 0.750 5 9 20 kusumanegara (gedung joang 45) -7.802252 110.399771 halte no.21 0.750 4 11 21 gedong kuning jec (gudeg bu tjitro) -7.798566 110.402787 halte no.22 2.500 3 50 22 janti 2 (jl.solo) -7.783170 110.410894 halte no.23 1.000 1 60 23 jl solo (alfa carrefour maguwo) -7.783266 110.419947 halte no.24 1.300 3 26 24 jl solo (maguwoharjo) -7.783468 110.431961 halte no.25 1.000 3 20 25 bandara internasional adisutjipto -7.784598 110.436326 halte no.26 2.100 3 42 26 kr 1 utara -7.782456 110.448820 halte no.27 2.600 3 52 27 pasar kalasan -7.769930 110.468960 halte no.28 3.000 5 36 28 terminal prambanan -7.755730 110.489889 no 05.00 08.00 halte sekarang latitude longitude 4.2. arsitektur sistem mobile crowdsourcing menurut estrin, arsitektur mobile crowdsourcing memiliki dua komponen, yaitu data capturing dan data processing, atau lebih dikenal sebagai bentuk arsitektur client-server dengan mobile client sebagai ubiquitous data capturing, server untuk data storage, processing, and lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 156 visualization [11]. dari analisis sistem yang berjalan dan analisis kebutuhan sistem serta arsitektur secara umum dari sistem mobile crowdsourcing disusun arsitektur baru. arsitektur sistem mobile crowdsourcing yang dirancang pada pembangunan aplikasi estimasi waktu kedatangan bus trans-jogja dikembangkan menjadi lebih detail seperti pada gambar 2. arsitektur sistem mobile crowdsourcing estimasi waktu kedatangan bus trans-jogja menggunakan arsitektur client-server, yaitu komponen penumpang dan end-user penumpang serta pengelola. gambar 1. arsitektur sistem mobile crowdsourcing rule yang dijalankan adalah sebagai berikut: (1) pengelola: menginisiasikan dan melakukan monitoring data, serta melakukan pengawasan dan koordinasi masyarakat yang berpartisipasi terhadap sistem. (2) penumpang: melakukan kontribusi terhadap sistem, dengan cara memposting lokasi secara geospasial menggunakan mobile device yang dimiliki penumpang. (3) end user penumpang: mengakses dan memproses data yang diposting oleh penumpang yang sesuai dengan kebutuhannya. lebih lanjut dapat dijelaskan pada gambar 2. gambar 2. komponen arsitektur dan rule pada aplikasi mobile crowdsourcing 4.3. skenario proses aplikasi ini terdapat dua aktor yaitu user atau penumpang bus trans jogja dan admin atau pengelola bus trans jogja. penumpang mempunyai hak yaitu untuk mengakses login untuk menjalankan aplikasi android. bagi penumpang yang belum mempunyai akun dapat mendaftar terlebih dahulu. penumpang dapat menjalankan empat proses, yaitu diantaranya dapat melakukan registrasi jika belum memiliki akun, mengetahui waktu kedatangan bus, memposting status dan melihat tentang aplikasi. aktor kedua adalah pengelola, sebelum menjalankan pengolahan data yang terdapat pada aplikasi server, admin terlebih dahulu harus melakukan login. admin dapat menjalankan enam proses yaitu mengolah data halte, mengolah data rute, mengolah data traffic, mengolah data lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 157 eta, dan melihat data postingan dari penumpang. pengolahan data yang dilakukan admin adalah menambahkan data, memperbarui data, melihat data, dan menghapus data di web service. skenario aplikasi ini dapat dilihat pada gambar 3. pada use case diagram dalam aplikasi ini terdapat dua aktor yaitu user atau penumpang bus trans jogja dan admin. penumpang mempunyai hak yaitu untuk mengakses login untuk menjalankan aplikasi android. bagi penumpang yang belum mempunyai akun dapat mendaftar terlebih dahulu. penumpang dapat menjalankan empat use case, yaitu diantaranya dapat melakukan registrasi jika belum memiliki akun, penumpang/masyarakat memposting status (posisi secara spasial bus) dan end-user penumpang yang mengetahui waktu kedatangan bus. aktor kedua adalah admin. sebelum menjalankan pengolahan data yang terdapat pada aplikasi server, admin terlebih dahulu harus melakukan login. admin dapat menjalankan enam use case yaitu mengolah data halte, mengolah data rute, mengolah data traffic, mengolah data eta, dan melihat data postingan dari penumpang. pengolahan data yang dilakukan admin adalah menambahkan data, memperbarui data, melihat data, dan menghapus data di web service. use case diagram dari aplikasi ini dapat dilihat pada gambar 3. gambar 3. skenario aplikasi mobile crodwsourching 4.4. perhitungan estimasi waktu kedatangan bus penumpang terlebih dahulu memilih jalur, lalu memilih halte tujuan untuk mengetahui waktu kedatangan bus di halte tersebut. terdapat tiga partition pada activity diagram waktu kedatangan bus yaitu penumpang, sistem dan web service. activity diagram waktu kedatangan bus dapat dilihat pada gambar 4. 4.5. implementasi sistem aplikasi dalam mobile device terdapat halaman untuk menampilkan halaman menu utama. pada halaman tersebut terdapat beberapa menu diantaranya menu waktu kedatangan bus, menu posting status, menu tentang aplikasi, dan logout. tampilan dari halaman menu utama dapat dilihat pada gambar 5. halaman selanjutnya adalah sebuah halaman untuk menampilkan halaman posting status yang digunakan penumpang untuk memposting status. penumpang memilih jalur lalu memilih halte lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 158 terakhir yang penumpang lewati. sedangkan untuk end-user penumpang yang menginginkan estimasi waktu kedatangan bus yang sesuai dengan yang dibutuhkan. tampilan dari halaman posting status dan tampilan dari halaman estimasi waktu kedatangan bus dapat dilihat pada gambar 6. 4.6. performance testing pengujian performace merupakan proses menentukan efektivitas yang bertujuan untuk mengukur performa sistem yang dibangun, artinya membandingkan waktu kedatangan bus di sistem dengan waktu kedatangan bus di lapangan. gambar 4. flow aktivitas pada perhitungan estimasi waktu pada performance testing, penguji membandingkan waktu kedatangan bus jalur 1a penguji melakukan survei di jalur 1a dengan menggunakan bus trans jogja dan menggunakan dua device android yang terinstal aplikasi. device tersebut digunakan untuk melakukan posting lokasi bus dan mengetahui waktu kedatangan. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 159 hasil pengujian menggunakan performance testing jalur 1a dapat diperoleh kesimpulan bahwa selisih rata-rata waktu kedatangan bus di aplikasi dengan waktu kedatangan bus hasil survei adalah selisih 1,86 menit. gambar 5. menu utama sistem gambar 6. masukan informasi lokasi bus dan keluaran sistem berupa estimasi jalur 1a lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 160 tabel 2. tabel hasil pengujian performance jalur 1a no urutan halte posting lokasi bus waktu kedatangan bus selisih waktu aplikasi survei (menit) 1 terminal prambanan 2 kr2 halte no.1 16.28 16.29 1 3 bandara adisutjipto 4 jl.solo (jayakarta) halte no.2 16.39 16.41 2 5 janti 1 (janti fly over) 6 jogja bisnis (ambarukmo plaza) halte no.4 16.47 16.45 2 7 mandala bhakti wanitatama 8 empire xxi halte no.6 16.56 16.55 1 9 bethesda sudirman 1 10 bopkri gondolayu sudirman 2 halte no.8 17.05 17.06 1 11 mangkubumi 1 (tugu) 12 mangkubumi 2 (pln) halte no.10 17.08 17.08 0 13 malioboro 1 (hotel inna garuda) 14 malioboro 2 (kepatihan) halte no.12 17.12 17.15 3 15 ahmad yani benteng (vredeburg) 16 senopati (taman pintar yogyakarta) halte no.14 17.16 17.17 1 17 puro pakualaman (transfer ke 4a) 18 kusumanegara 1 (gedung keuangan) halte no.16 17.28 17.26 2 19 kusumanegara 3 (sgm 1) 20 kusumanegara (gedung joang 45) halte no.18 17.39 17.40 1 21 gedong kuning jec (gudeg bu tjitro) 22 janti 2 (jl.solo) halte no.20 17.46 17.44 1 23 jl solo (alfa carrefour maguwo) 24 jl solo (maguwoharjo) halte no.22 17.53 17.55 2 25 bandara internasional adisutjipto 26 kr 1 utara 27 pasar kalasan halte no.26 18.03 18.04 1 28 terminal prambanan halte no.27 18.08 18.16 8 selisih rata-rata waktu kedatangan bus 1.86 5. kesimpulan sistem mobile crowdsourching ini bersifat client dan server yang terdiri dari aplikasi client (penumpang trans jogja pengguna android) dan aplikasi server (admin). penumpang dapat memperoleh waktu kedatangan bus berdasarkan hasil postingan penumpang lain. hasil waktu kedatangan bus diolah berdasarkan hasil survei waktu kedatangan bus antar halte dan kecepatan rata-rata bus pada waktu kemacetan. partisipasi penumpang bus trans jogja menjadi hal yang sangat penting di dalam kegunaan sistem ini. daftar pustaka [1] r. excalanta, “perancangan sistem informasi penjadwalan bus dengan metode round robin,” universitas kristen satya wacana, 2012. [2] “bus umum yang aman, nyaman, dan terjangkau,” trans jogja, yogyakarta, 2013. [3] b. rahmawan, “membangun portal web crowdsourcing health treatment dengan menggunakan metode iterative incremental dan metode pencarian vector space model,” institut teknologi telkom, bandung, 2013. lontar komputer vol. 7, no.3, desember 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i03.p03 e-issn 2541-5832 161 [4] l. fanani, a. basuki, and d. liang, “bus arrival prediction – to ensure users not to miss the bus,” international journal of electrical and computer engineering (ijece), vol. 5, no. 2, pp. 2088–8708, 2015. [5] y. m. p. jalni and h. yuliansyah, “rancangan aplikasi web monitoring estimasi kedatangan bus trans-jogja berdasarkan lokasi bus dengan gps smartphone,” in simposium nasional teknologi terapan (sntt) 3, 2015. [6] k. e. watkins, b. ferris, a. borning, g. s. rutherford, and d. layton, “where is my bus? impact of mobile real-time information on the perceived and actual wait time of transit riders,” transportation research part a policy pract., vol. 45, no. 8, pp. 839–848, 2011. [7] j. zhang, l. yan, y. han, and j.-j. zhang, “study on the prediction model of bus arrival time,” in proceedings international conference on management and service science, mass, 2009. [8] r. mishalani, m. mccord, and j. wirtz, “passenger wait time perceptions at bus stops: empirical results and impact on evaluating real time bus arrival information,” journal of public transportation, vol. 9, no. 2, pp. 89–106, 2006. [9] m. andriansyah, t. oswari, and b. prijanto, “crowdsourcing: konsep sumber daya kerumunan dalam abad partisipasi komunitas internet.” [10] j. howe, “bringing essential knowledge & book summaries to high achievers c rowdsourcing why the power of the crowd is driving the future of business,” new york: crown business, p. 320, 2008. [11] d. estrin, “participatory sensing: applications and architecture,” ieee internet computing, 2010. steganografi pada citra jpeg dengan metode sequential dan spreading lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 52 steganografi pada citra jpeg dengan metode sequential dan spreading i nyoman piarsa staf pengajar teknologi informasi, fakultas teknik, universitas udayana e-mail: manpits@gmail.com abstrak faktor keamanan data dalam proses pertukaran data antar perangkat informasi dalam sebuah jaringan informasi menjadi sebuah topik permasalahan yang sangat penting untuk diperhatikan seiring dengan kerahasiaan dari data yang dimiliki. teknik kriptografi yang menyandikan informasi menjadi sekumpulan kode-kode acak terkadang tidak cukup dalam penyembunyian informasi karena bentuk informasi yang dikirimkan akan memudahkan pihak ketiga untuk menerka dan memecahkan sandi dari enkripsi tersebut. alternatif lain adalah dengan menggunakan metode steganografi yang bertujuan untuk menyembunyikan informasi yang sebenarnya dalam sebuah data yang tidak dicurigai oleh pihak ketiga sebagai pesan rahasia. teknik steganografi pada penelitian ini diimplementasikan pada data citra dengan format jpeg menggunakan metode sequential (low bit coding) dan spreading. metode sequential melakukan penyisipan secara berurutan pada koefisien dari dct sedangkan metode spreading melakukan penyisipan secara acak berdasarkan proses hashing yang digunakan. proses pengujian yang dilakukan terdiri dari perbandingan kapasitas perhitungan dengan kapasitas pengujian, perhitungan statistik error measurement, pengujian dengan metode mos untuk mengukur kualitas data citra serta ketahanan teknik steganografi yang digunakan terhadap penyerangan yang dilakukan. hasil pengujian menunjukkan bahwa teknik steganografi dengan transformasi dct bisa menghasilkan data hiding dengan tingkat validitas mencapai 100% dengan catatan bahwa data citra memiliki kapasitas penyisipan yang memadai. penyisipan data yang dilakukan tidak berpengaruh terlalu banyak pada kualitas data citra yang dihasilkan, serta nilai psnr yang dimiliki data citra terstego lebih besar sama dengan 30 db. tingkat kemiripan antara citra asli dengan citra terstego mencapai 96%. teknik steganografi dengan metode spreading dan sequential tidak robust terhadap manipulasi yang dilakukan pada media stegonya sehingga data yang ada akan rusak jika terjadi manipulasi sekecil apapun pada media stegonya kata kunci: informasi, keamanan data, citra jpeg, enkripsi dan steganografi. abstract data security factors in the process of information data exchange between devices within a network is very important issue to be considered along with the confidentiality of data. cryptographic techniques to encode information into a set of random code sometimes is not enough in hiding information because the information submitted form will allow third parties to guess and crack password of the encryption. another alternative is to use steganographic method that aims to hide the information in a data format which is not suspected by any third party as a secret message. steganographic techniques in this research implemented in a jpeg image by using the sequential method (low-bit coding) and spreading. sequential method insert data sequentially of the dct coefficients while the method of spreading conduct random insertion process-based hashing used. the tests consists of comparisons calculation capacity versus testing capacity, the calculation of statistical measurement error, the test with mos method to measure image data quality and durability steganographic techniques that are used against attacks. the results show that the technique of steganography with dct transformation can generate data hiding with validity rates reached 100% with a note that the image data has an adequate insertion capacity. insertion of data do not affect too much on the quality of the resulting image, and the psnr values of stego image greater or equal to 30 db. level of lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 53 similarity between the original image with the stego image is 96%. steganographic techniques with spreading and sequential method is not robust against manipulation by the stego media so existing data will be damaged if there is a slight manipulation of the stego media. key words: information, data security, image jpeg, encryption and steganography. 1. pendahuluan perkembangan teknologi informasi yang terjadi dalam beberapa dekade terakhir ini telah mengalami kemajuan yang cukup pesat serta melahirkan beberapa inovasi baru dalam bidang komunikasi. pertukaran berbagai informasi dan data dalam sebuah jaringan akan menimbulkan suatu masalah baru dalam hal keamanan data tersebut manakala data atau informasi yang dikirim tersebut memiliki aspek kerahasiaan yang cukup berharga dan tidak boleh diakses oleh sembarang orang yang tidak berhak. permasalahan tersebut membuat aspek keamanan dalam bidang komunikasi data merupakan suatu hal yang harus mendapatkan perhatian yang cukup serius karena menyangkut kerahasiaan suatu informasi atau data yang cukup berharga bagi beberapa orang dimana data atau informasi tersebut dikirim melalui jaringan internet seperti e-mail contohnya. beberapa cara telah dilakukan untuk menjaga keamanan dan kerahasiaan suatu data (seperti dokumen penting, e-mail, serta data yang bersifat rahasia) dari pihak-pihak yang tidak berkepentingan terhadap data tersebut, salah satunya cara adalah menggunakan kriptografi. metode kriptografi menjamin keamanan data tersebut dengan cara mengenkripsi data tersebut dengan mengubahnya menjadi kode-kode acak yang bersifat random sehingga membuat data tersebut tidak dapat dibaca dan dimengerti oleh pihak lain. sampai sekarang metode-metode tersebut masih digunakan oleh beberapa pihak untuk menjaga kerahasiaan data mereka baik dalam proses transaksi secara on-line ataupun sekedar mengirim data kepada seseorang lewat jaringan internet. penggunaan metode kriptografi tersebut memang cukup membuat kerahasiaan serta keamanan data tersebut tetap terjaga. tetapi penggunaan metode enkripsi tersebut tidak selalu menjamin keamanan data tersebut. penggunaan metode enkripsi yang umum seperti rsa atau algoritma des pada beberapa jaringan akan membuat suatu kecurigaan yang sangat besar bagi beberapa pihak yang terkait. dalam hal ini, beberapa pihak seperti badan intelijen negara serta beberapa isp (internet service provider) akan dengan sangat mudah menemukan data di dalam suatu jaringan internet yang telah dienkripsi karena data tersebut bukan merupakan jenis data yang biasanya dijumpai karena data yang telah terenkripsi adalah merupakan data yang berisi kode-kode acak yang sangat sulit untuk dimengerti oleh orang awam sehingga dapat diibaratkan dengan melihat noda hitam di atas kertas putih atau dengan kata lain dapat dianggap sebagai hal yang tidak lazim. alternatif baru ditawarkan dalam dunia komunikasi untuk mengatasi masalah tersebut serta untuk menjaga kerahasiaan serta keamanan data tersebut tanpa menimbulkan beberapa kecurigaan bagi pihak-pihak yang bersangkutan. alternatif tersebut dikenal dengan teknik penyembunyian data dalam sebuah data yang dipakai sebagai media stego atau lebih dikenal dengan teknik steganografi yaitu menyembunyikan data dalam sebuah medium yang dapat berupa jenis data apapun seperti file image, audio, video, maupun jenis data yang lainnya. penggunaan teknik steganografi yang biasanya digabungkan dengan metode enkripsi tersebut menyebabkan data yang disembunyikan akan terlihat seperti data biasa karena yang terlihat adalah bentuk data pembungkusnya bukan data yang telah terenkripsi sehingga tidak akan menimbulkan kecurigaan bagi pihak lainnya. 2. kajian pustaka 2.1. steganografi steganografi / steganography[1] merupakan seni untuk menyembunyikan pesan di dalam pesan lainnya sedemikian rupa sehingga orang lain tidak menyadari ada sesuatu di dalam pesan tersebut. kata steganografi (steganography) berasal dari bahasa yunani steganos, yang artinya 'terselubung', dan graphein, yang artinya 'menulis' sehingga kurang lebih artinya "menulis (tulisan) terselubung". teknik ini meliputi banyak sekali metode komunikasi untuk menyembunyikan pesan rahasia. metode ini termasuk tinta yang tidak tampak, microdots, pengaturan kata, tanda tangan digital, jalur tersembunyi dan komunikasi spektrum lebar. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 54 walaupun steganografi dapat dikatakan mempunyai hubungan yang erat dengan kriptografi, tapi metoda ini sangat berbeda dengan kriptografi. kriptografi mengacak pesan sehingga tidak dimengerti, sedangkan steganografi menyembunyikan pesan sehingga tidak terlihat. pesan dalam cipherteks mungkin akan menimbulkan kecurigaan sedangkan pesan yang dibuat dengan steganografi tidak akan. kedua teknik ini pada umumnya selalu dikombinasikan untuk mendapatkan metode pengiriman rahasia yang sulit dilacak. pertama pesan dienkrip, kemudian cipherteks disembunyikan dengan cara steganografi pada media yang tampak tidak mencurigakan. 2.2. proses steganografi penelitian steganografi ini menggunakan 3 (tiga) tahapan dalam prosesnya yaitu tahapan kompresi (untuk memperbesar kapasitas penyisipan), enkripsi (untuk lebih menjaga keamanan data) dan embedding (proses penyisipan data pesan ke media stego). gambar 1 blok diagram dari tahapan steganografi[4] 2.3. steganografi pada jpeg format selain metode sequential (low bit coding) yang umum digunakan dalam proses steganografi, metode spreading juga merupakan salah satu algoritma yang dipakai dalam melakukan proses steganografi pada citra dengan format jpeg. alur dari algoritma spreading ini dapat dilihat seperti diagram blok pada gambar 2. terdapat beberapa proses tambahan yang harus dilakukan pada proses embedding data, algoritma ini menggunakan metode hashing untuk mendapat posisi offset pada data citra untuk melakukan penyisipan data pada koefisien dct. algoritma ini juga menggunakan matrix encoding untuk melakukan optimasi pada proses embedding data. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 55 dct function quantizer quantizer table entrophy encoder huffman table stegoed jpeg data source image 8 x 8 blocks steganography embedding function permutation embedding matrix encoding pseudo random number generator data to embedd gambar 2 alur algoritma spreading[2] adapun urutan tahapan-tahapan yang harus dilakukan dalam implementasi algoritma ini adalah sebagai beikut : 1. melakukan proses kompresi citra jpeg. dimulai dari pengambilan blok 8x8 pada citra asli, lalu dilanjutkan dengan proses transformasi dct. setelah itu dilanjutkan dengan proses kuantisasi. hentikan proses kompresi sementara sampai pada tahap kuantisasi. 2. menginisialisasi prng (pseudo random generator number) dengan menggunakan key dari kata sandi yang diberikan. 3. melakukan proses permutasi dengan menggunakan parameter prng dan jumlah dari koefisien dct. 4. menentukan nilai k dari kapasitas embedding pada data citra dan dari panjang data pesan yang akan disisipkan. 5. menentukan panjang dari code word (array yang akan menampung koefisien non zero) dengan rumus, yaitu n = 2k – 1. 6. melakukan proses embedding untuk menyisipkan data pesan dengan algoritma (1, n, k) untuk matrix encoding. a. mengisi array buffer dengan koefisien non zero (koefisien dct yang <> 0). b. melakukan proses hashing pada buffer (untuk menghasilkan nilai hash dengan k bitplaces). c. menambahkan k bit berikutnya dari data pesan pada nilai hash (lakukan pada bit per bit dengan operator xor). d. jika hasil yang didapatkan sama dengan 0, maka nilai buffer dibiarkan tetap dan tidak diubah. tetapi jika hasil yang didapat sama dengan nilai rentang index pada buffer, yaitu 1 ... n, maka nilai absolut dari elemen pada index tersebut harus dikurangi 1. e. melakukan pengecekan jika koefisien yang dirubah tidak sama dengan 0. jika sama, maka terjadi proses shrinkage. jika peristiwa ini terjadi maka tambahkan satu koefisien non zero pada buffer dan hilangkan nilai koefisien 0 tadi. lalu ulangi langkah 6a f. jika tidak terjadi peristiwa shrinkage maka isi buffer dengan koefisien dct selanjutnya (dimulai dari index koefisien terakhir ditambah satu). jika masih ada data pesan yang akan disisipkan maka ulangi langkah 6a. g. jika semua proses embedding telah selesai, maka lanjutkan proses kompresi data jpeg hingga tahap kompresi akhir (proses huffman coding, rle dan seterusnya). 7. output berupa data citra jpeg yang terstego. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 56 3. hasil dan pembahasan pengujian dilakukan terhadap 30 (tiga puluh) buah data citra serta 5 (lima) buah file teks dengan ukuran yang berbeda. tujuan dari pengujian ini adalah untuk menjawab beberapa hal penting yang berkaitan dengan kemampuan dari proses steganografi dalam menyisipkan data pesan yang tersembunyi dengan menggunakan metode sequential/low bit coding dan spreading. 3.1. pengujian kapasitas embedding pengujian kapasitas embedding ini dilakukan untuk mengetahui tingkat kapasitas embedding yang dapat digunakan dalam setiap data citra serta faktor-faktor yang dapat mempengaruhi besar kapasitas embedding itu sendiri. tabel 1 data pengujian kapasitas embedding terhadap ukuran pixels pada data citra (sequential) ukuran pixels ukuran data citra (bytes) kapasitas embedding (bytes) kapasitas uji (bytes) sequential spreading sequential spreading 64 x 64 1806 137 147 133 134 128 x 128 4526 462 496 458 464 256 x 256 13909 1617 1731 1613 1613 512 x 512 47401 5789 6155 5785 5783 1024 x 1024 154631 18264 19130 18260 18263 grafik berikut menunjukkan pengaruh ukuran pixels terhadap kapasitas embedding yang dimiliki oleh data citra yang diujikan. gambar 3 grafik kapasitas embedding terhadap ukuran pixels data citra kecenderungan yang diperoleh adalah semakin besar ukuran pixels dari data citra maka semakin besar pula kapasitas embedding yang dimiliki data citra tersebut. sehingga dari pengujian dapat disimpulkan bahwa besar ukuran pixels mempunyai perbandingan yang searah dengan kapasitas embedding dari data citra. 3.2. pengujian statistik data citra asli dan data citra stego pengujian statistik dilakukan dengan menghitung error measurement yang terjadi pada data citra yang asli dengan data citra yang telah mengalami proses steganografi (data citra terstego). nilai yang digunakan dalam pengujian statistik ini antara lain [13] : maximum absolute difference (mad), normalized euclidean distance (ned), average quantization error (avq), signal-to-noise ratio(snr), peak signal-to-noise ratio (psnr), pearson correlation (corr). 3.2.1. pengaruh jumlah penyisipan bytes terhadap nilai error measurement pengujian pertama digunakan sebuah sample citra untuk melakukan pengujian embedding 5 (lima) sample data teks dengan ukuran berbeda. hasil pengujian embedding disajikan sebagai berikut. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 57 tabel 2 data statistik error measurement dengan metode sequential data teks (kilobytes) error measurement mad ned aqe snr psnr corr 1 30 0.005155 1.546835 40.05438 45.1205 0.996497 2 30 0.007269 2.159716 37.06888 42.1102 0.994389 3 36 0.008928 2.730948 35.28274 40.34929 0.992133 4 36 0.010189 3.283038 34.13467 38.58838 0.990435 5 36 0.011407 3.846665 33.1534 37.71688 0.988462 gambar 4 data citra dan histogram hasil pengujian metode sequential (semua sample teks) tabel 3 data statistik error measurement pada sebuah citra yang dipilih dengan metode spreading data teks (kilobytes) error measurement mad ned aqe snr psnr corr 1 23 0.005273 1.780571 39.85741 45.1205 0.994972 2 33 0.008061 2.633772 36.17 41.1411 0.992397 3 35 0.010637 3.423045 33.76029 38.58838 0.989969 4 44 0.012153 4.203143 32.6031 37.33899 0.987153 5 44 0.014198 4.713135 31.25156 35.82631 0.985961 lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 58 gambar 5 data citra dan histogram hasil pengujian metode spreading (semua sample teks) hasil pengujian menunjukkan bahwa ukuran data pesan yang disisipkan tidak terlalu mempengaruhi kualitas data citra yang dihasilkan dalam proses embedding. sekilas kualitas citra terstego dibandingkan dengan kualitas citra asli tidak memiliki perbedaan yang signifikan bahkan perbedaan dan distorsi tersebut tidak terlihat. hal yang sama juga dapat dilihat pada data histogram masing-masing citra tersebut. pengujian berikutnya dilakukan pada 30 sample citra dengan meng-embedding ke-lima sample data teks dengan menggunakan metode sequential dan spreading. tabel 4 nilai rata-rata error measurement 30 sample data citra untuk metode sequential data teks (kilobytes) error measurement mad ned aqe snr psnr corr 1 32.4 0.005474 1.529533 39.80925 45.22248 0.984923 2 36.667 0.007202 2.089217 37.41286 42.44726 0.979284 3 38.1 0.008472 2.580346 36.06698 40.92374 0.974347 4 39.033 0.009214 2.91164 35.42993 40.14555 0.971113 5 39.333 0.009601 3.088245 35.14047 39.90031 0.969927 tabel 5 nilai rata-rata error measurement 30 sample data citra untuk metode spreading data teks (kilobytes) error measurement mad ned aqe snr psnr corr 1 33.9 0.005952 1.801817 39.06144 44.50646 0.981002 2 40.733 0.008467 2.553017 36.02142 40.95175 0.974081 3 45.733 0.010182 3.146298 34.48915 39.26572 0.968911 4 48.767 0.011181 3.547169 33.79026 38.50696 0.965217 5 49.767 0.011694 3.748553 33.47351 38.16348 0.963609 lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 59 gambar 6 nilai rata-rata error measurement pada embedding sample data teks hasil pengujian menunjukkan bahwa kedua metode menghasilkan citra output yang mempunyai kualitas yang cukup bagus, ditunjukkan dari nilai rata-rata untuk snr dan psnr. 3.2.2. pengaruh ukuran pixels data citra terhadap nilai error measurement pengujian dilakukan pada sebuah sample citra yang dipilih, memilki ukuran pixel yaitu 64x64, 128x128, 256x256, serta 512x512 pixel. hasil pengujian embedding sebagai berikut: tabel 6 data pengujian pengaruh ukuran pixels terhadap error measurement (sequential) ukuran pixels error measurement mad ned aqe snr psnr corr 64x64 34 0.1376776 6.8948257 30.111474 34.151404 0.7663323 128x128 32 0.0312741 2.5308529 36.974909 41.141104 0.9355016 256x256 18 0.0089523 1.5502978 41.825288 48.130804 0.9515505 512x512 14 0.0030639 1.0419203 45.124042 48.991199 0.9711906 1024x1024 14 0.001433 0.9886923 45.707647 49.571191 0.9724178 tabel 7 data pengujian pengaruh ukuran pixels terhadap error measurement (spreading) ukuran pixels error measurement mad ned aqe snr psnr corr 64x64 46 0.1626737 8.0746003 28.662873 32.567779 0.794704 128x128 22 0.0329109 3.0549178 36.531159 41.141104 0.9220173 256x256 14 0.0089439 1.6846132 41.833553 48.130804 0.9549142 512x512 10 0.002985 1.0477657 45.350788 49.217851 0.9717263 1024x1024 13 0.0014252 0.9893081 45.755227 49.618774 0.9724016 lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 60 gambar 7 pengaruh pengujian ukuran pixels terhadap error measurement hasil pengujian menunjukkan bahwa ukuran pixel mempunyai pengaruh yang cukup besar terhadap nilai error measurement antara citra terstego dengan citra asli. 3.3 pengujian kualitas citra dengan mos (mean opinion score) pengujian kualitas data citra juga berkaitan dengan kemungkinan penyerangan steganografi dengan menggunakan metode visual attack. pengujian ini diujikan dengan melakukan survey pada 30 koresponden yang menilai kualitas citra tersebut secara subyektif. pengujian dilakukan dengan menganalisa citra yang telah mengalami proses steganografi baik dengan metode sequential dan spreading. data citra tersebut dianalisa untuk mengetahui distorsi yang terjadi akibat proses steganografi serta analisa mengenai baik buruknya kualitas citra yang dihasilkan. pengujian ini dilakukan dengan menggunakan hvs (human visual system) atau sistem penglihatan manusia. tabel dan grafik berikut menunjukkan hasil pengujian tersebut. tabel 8 hasil pengujian metode mos (mean opinion score) nilai metode embedding sequential spreading 1 0 0 2 0 0 3 0 1 4 15 13 5 15 16 lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 61 mos 4.5 4.5 grafik nilai mos (mean opinion score) 0 2 4 6 8 10 12 14 16 18 1 2 3 4 5 nilai mos citra ju m la h r es po nd en sequential spreading gambar 8 grafik pengujian metode mos (mean opinion score) tabel 9 keterangan nilai mos [15] : mos kualitas citra keterangan 5 sangat bagus kesamaan citra mencapai 100 – 90% 4 bagus kesamaan citra mencapai 90 – 70% 3 sedang kesamaan citra mencapai 70 – 60% 2 buruk kesamaan citra mencapai 60 – 40% 1 sangat buruk kesamaan citra mencapai < 40% tabel 8 serta grafik pada gambar 8 menunjukkan bahwa kualitas citra yang dihasilkan cukup bagus dimana dalam pengujian dengan metode mos (mean opinion score), nilai mos yang didapatkan oleh kedua metode tersebut adalah sama, yaitu 4.5 atau mendekati kualitas sangat bagus. 3.3. pengujian penyerangan pada sistem steganografi pengujian penyerangan teknik steganografi dilakukan dengan merusak data citra yang menjadi media stego serta ketahanan dari teknik steganografi tersebut terhadap manipulasi yang dilakukan pada media stego tersebut. proses pengujian dilakukan dengan cara merubah format data citra jpeg terstego menjadi format citra lain dan/atau diikuti dengan proses manipulasi, kemudian dikembalikan lagi ke dalam format jpeg. setelah itu dilakukan proses extracting untuk mendapatkan data hiding-nya. hasil pengujian ketahanan yang dilakukan pada 5 (lima) buah sample citra terstego yang dipilih adalah sebagai berikut . tabel 10 hasil pengujian steganografi untuk robustness data citra jumlah bit error (%) validitas (1 = valid, 0 = tidak valid) te1 te2 te3 te4 te5 te1 te2 te3 te4 te5 img001.jpg 100 100 100 100 100 0 0 0 0 0 img002.jpg 100 100 100 100 100 0 0 0 0 0 img003.jpg 100 100 100 100 100 0 0 0 0 0 img004.jpg 100 100 100 100 100 0 0 0 0 0 img005.jpg 100 100 100 100 100 0 0 0 0 0 lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 62 tabel 11 tingkat keberhasilan proses ekstraksi pengujian ketahanan data hiding data citra jumlah bit error (%) te1 te2 te3 te4 te5 img001.jpg 0 0 0 0 0 img002.jpg 0 0 0 0 0 img003.jpg 0 0 0 0 0 img004.jpg 0 0 0 0 0 img005.jpg 0 0 0 0 0 keterangan: • te1 : pengujian perubahan format data dari jpeg ke gif kemudian kembali ke jpeg • te2 : pengujian perubahan level brightness / contrast • te3 : pengujian perubahan saturasi warna pada data citra • te4 : pengujian pemberrian efek blur • te5 : pengujian cropping berdasarkan hasil pengujian, data hiding dalam data citra dengan format jpeg setelah mengalami kompresi mengalami kegagalan dalam proses ekstraksinya. begitu pula ketika dilakukan pengujian terhadap manipulasi data citra seperti perubahan level brightness dan contrast, perubahan saturasi warna, pemberian efek blur serta manipulasi data citra dengan melakukan cropping, data hiding yang ada dalam media stego tersebut rusak ini terbukti ketika proses ekstraksi dilakukan, validitas data pesan yang tersimpan adalah 0% karena sama sekali tidak sama dengan data aslinya sehingga dapat dikatakan data rusak saat terjadi manipulasi pada media stego tersebut. hal ini disebabkan karena bit-bit yang disisipkan dalam block dct ketika ditransformasikan kembali menjadi domain waktu, nilai-nilainya akan disebarkan secara merata. saat akan melakukan ekstraksi, nilai-nilai koefisen block dct yang didapatkan dari hasil ekstraksi akan berbeda dengan saat sebelum disisipkan data hiding. dari hasil pengujian didapatkan apabila ada perubahan pada bit-bit di domain waktu seperti ketika mengalami kompresi, akan berpengaruh terhadap nilai dct-nya, dan menyebabkan nilai koefisian dct berubah. dengan pengujian ini, dapat dikatakan metode steganografi baik spreading maupun sequential tidak robust terhadap proses manipulasi pada data citra yang menjadi penampungnya. 3.4. analisa keseluruhan hasil pengujian menunjukkan bahwa tingkat validitas data tidak dipengaruhi dari besarnya file, hanya saja besar kapasitas data yang bisa disisipkan berbeda-beda pada setiap data citra dan hal ini disebabkan karena tidak semua tempat pada block dct dari setiap data citra yang dapat disisipkan bit-bit pesan. hal ini sangat tergantung pada jumlah dari koefisien dct yang nilainya tidak sama dengan ‘0’ dan ‘1’. kapasitas data yang dapat disisipkan pada data citra juga dapat dipengaruhi oleh komposisi dan keragaman warna yang membentuk data citra tersebut, dengan kata lain dapat dikatakan bahwa data citra yang berukuran sama belum tentu mempunyai kapasitas embedding yang sama antara satu dengan yang lainnya. kapasitas embedding sangat dipengaruhi oleh tingkat variasi komposisi dan keragaman warna yang membentuk data citra tersebut. kapasitas embedding juga dipengaruhi oleh besarnya ukuran pixels pada data citra, dimana semakin besar ukuran pixels data citra maka semakin besar kapasitas yang dimiliki citra tersebut. apabila koefisien dc dari block dct hasil ekstraksi dibandingkan dengan block dct saat penyisipan terjadi pergeseran nilai lebih dari 1, berarti terjadi perubahan nilai koefisien dct secara keseluruhan. hal ini diakibatkan adanya perubahan nilai yang cukup besar pada byte-byte domain waktu seperti nilai 0 bergeser mundur menjadi 255 dan begitu juga sebaliknya jumlah byte yang disisipkan pada setiap block dct pada setiap data citra berpengaruh kepada kualitas dari data citra yang dihasilkan. semakin banyak jumlah byte yang disisipkan pada setiap block dct, semakin rendah kualitas data citra yang dihasilkan. nilai psnr di bawah 30 db mulai menunjukan kerusakan pada data citra. dalam pengujian ini, tingkat lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id steganografi pada citra jpeg… (i nyoman piarsa) 63 kualitas data citra yang dihasilkan pada metode sequential dan spreading memiliki kualitas yang cukup bagus dan memiliki nilai rata-rata lebih besar dari 30 db. tingkat kesamaan antara data citra asli dengan data citra yang terstego juga cukup tinggi, yaitu memiliki tingkat kesamaan rata-rata sebesar + 96 % (di peroleh dari nilai rata-rata pearson correlation yang dimiliki). error measurement yang dihasilkan oleh metode sequential secara keseluruhan memiliki nilai yang lebih kecil jika dibandingkan dengan nilai error yang dihasilkan oleh metode spreading. besar nilai error measurement yang dihasilkan juga dipengaruhi oleh besarnya ukuran data pesan yang disisipkan pada data citra tersebut, semakin besar ukuran data yang disisipkan maka nilai error yang dihasilkan akan semakin besar pula. untuk teknik penyisipan data hiding pada data citra dengan transformasi dct, ternyata memilki sifat data hiding yang tidak robust, sangat rentan terhadap proses manipulasi wadah penampungnya. tetapi teknik penyisipan ini cukup baik sebab bisa menghasilkan data hiding yang memiliki tingkat validitas mencapai 100 %, dan bisa dikatakan bahwa data hasil ekstraksi sama dengan data aslinya, tetapi dengan syarat bahwa data citra yang menjadi media stegonya memiliki kapasitas embedding yang cukup untuk melakukan proses embedding. 4. kesimpulan analisa keseluruhan yang dapat diambil bedasarkan hasil pengujian yang diperoleh adalah bahwa metode steganografi dengan menggunakan data citra jpeg sebagai media stego merupakan alternatif yang cukup bagus dalam teknik penyembunyian data. hal ini didukung dengan hasil data citra yang dihasilkan dari proses embedding tersebut memiliki tingkat kesamaan yang cukup tinggi dengan citra aslinya, yaitu sebesar + 96 %, serta kualitas yang dihasilkan cukup bagus dengan memiliki nilai psnr lebih besar dari 36 db. validitas data ekstraksi yang dimiliki juga mencapai 100 % dimana nilai validitas dari data yang terpotong akibat kapasitas embedding yang tidak mencukupi diabaikan. 5. daftar pustaka [1] berg g, davidson, ming-yuan duan, paul g. 2003, searching for hidden messages: automatic detection of steganography. washington: computer science department, university at albany (dokumen pdf). [2] simsek, b. 2004. steganography in jpeg images. dokuz eylul university (dokumen pdf). [3] van droogenbroeck, m. 2002. techniques for a selective encryption of uncompressed and compressed images. belgium: department of electricity, electronics and computer science (dokumen pdf). [4] westfeld, a. 2001. f5-a steganographic algorithm, high capacity despite better steganalysis. dresden: technische universitat at dresden (dokumen pdf). [5] http://en.wikipedia.org/wiki/cryptography, diakses tanggal 12/02/2010. [6] http://kremlinencrypt.com/algorithms.htm#des, diakses tanggal 14/01/2010. [7] http://www.fact-index.com/l/lo/lossless_data_compression.html, diakses tanggal 18/05/2010 [8] http://www.fact-index.com/l/lo/lossy_data_compression.html, diakses tanggal 11/10/2010 [9] http://www.fact-index.com/h/hu/huffman_coding.html, diakses tanggal 18/05/2010. [10] http://en.wikipedia.org/wiki/jpeg, diakses tanggal 18/07/2010. [11] http://www.fourcc.org/fccyvrgb.php, diakses tanggal 02/06/2010. [12] http://www.cs.sfu.ca/coursecentral/365/li/material/notes/chap4/chap4.2/chap4.2.html, diakses tanggal 18/05/2010. [13] http://osl.iu.edu/%7etveldhui/papers/mascthesis/node18.html, diakses tanggal 18/12/2010. [14] http://en.wikipedia.org/wiki/psnr, diakses tanggal 18/12/2010. [15] http://en.wikipedia.org/wiki/ mean_opinion_score, diakses tanggal 05/04/2010. 2011-08-11t14:45:39+0800 lontar komputer lontar template lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 91 the classification of acute respiratory infection (ari) bacteria based on k-nearest neighbor zilvanhisna emka fitria1, lalitya nindita sahendaa2, pramuditha shinta dewi puspitasaria3, prawidya destariantoa4, dyah laksito rukmib5, arizal mujibtamala nanda imronc6 adepartment of information technology, politeknik negeri jember bdepartment of animal science, politeknik negeri jember jl. mastrip po.box 164 jember, 68121, indonesia 1zilvanhisnaef@polije.ac.id (corresponding author) 2lalitya.ns@polije.ac.id 3pramuditha@polije.ac.id 4prawidya@polije.ac.id 5dyah.laksito@polije.ac.id cdepartement of electrical engineering, universitas jember jl. kalimantan no. 37, kampus tegalboto, jember, 68121, indonesia 5arizal.tamala@unej.ac.id abstract acute respiratory infection (ari) is an infectious disease. one of the performance indicators of infectious disease control and handling programs is disease discovery. however, the problem that often occurs is the limited number of medical analysts, the number of patients, and the experience of medical analysts in identifying bacterial processes so that the examination is relatively longer. based on these problems, an automatic and accurate classification system of bacteria that causes acute respiratory infection (ari) was created. the research process is preprocessing images (color conversion and contrast stretching), segmentation, feature extraction, and knn classification. the parameters used are bacterial count, area, perimeter, and shape factor. the best training data and test data comparison is 90%: 10% of 480 data. the knn classification method is very good for classifying bacteria. the highest level of accuracy is 91.67%, precision is 92.4%, and recall is 91.7% with three variations of k values, namely k = 3, k = 5, and k = 7. keywords: bacteria, acute respiratory infection, image processing, knn 1. introduction acute respiratory infections (ari) are included in the list of the top ten infectious diseases whose incidence of infectious diseases (disease prevalence) and morality (a measure of the number of deaths in a population) are quite high in the world [1]. ari is divided into two, namely upper respiratory tract infections (urtis) and lower respiratory tract infections (lrtis). the upper respiratory tract consists of the ears, nose, and throat, while the lower respiratory tract consists of the trachea, bronchi, bronchioles, and lungs [2]. some examples of ari diseases caused by bacteria are pneumonia, tuberculosis (tb), diphtheria, and pharyngitis [3]. pneumonia is an infectious disease caused by an infection that causes the lungs to become inflamed. the causative pathogens (bacteria) are streptococcus pneumoniae, staphylococcus aureus, haemophilus influenza, mycoplasma pneumonia, chlamydophila pneumonia, and legionella pneumophila [4]. tuberculosis (tb) is one of the serious health problems in indonesia. tb is an infection caused by mycobacterium tuberculosis in the lower respiratory tract. diphtheria is an acute infectious disease caused by corynebacterium diphtheriae which attacks the upper respiratory tract [2]. from year to year in east java, the number of diphtheria sufferers is reported to continue to increase until, in 2019, there were 358 cases [5]. in addition, neisseria gonorrhoeae is a bacterial pathogen that causes pharyngitis [4], which usually occurs in sexually transmitted diseases (std) without symptoms (asymptomatic) [3]. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 92 achievement of performance indicators of infectious disease control and handling programs, namely discovery, treatment, and success of treatment [5]. generally, the discovery process is carried out by examining specimens or sputum from the patient, which is then carried out by a microscopic examination process. however, the problems that often occur are the limited number of medical analysts, a large number of patients, differences in perceptions and experiences of medical analysts in identifying bacteria in sputum/throat sputum samples, and the time required for the examination process is relatively longer. based on the description of the problem above, the researchers created an automatic and accurate bacterial classification system for the early detection of acute respiratory infections (ari). several references are used as references by researchers regarding the identification of bacteria that cause pneumonia and tuberculosis. in 2016, a streptococcus pneumoniae detection system was created from digital microscope images with an accuracy rate of 80%[6]. then the bacterial segmentation was developed using the channel area thresholding (cat) segmentation method so that the system was able to identify bacilli with an accuracy of 97.58% on the sputum image dataset [8]. meanwhile, the identification of mycobacterium tuberculosis bacteria has also been carried out using image segmentation and the k-means clustering method in 2015 [7]. the following research compares two classification methods: backpropagation and k-nearest neighbor (knn), to obtain an accuracy rate of 93.22% for backpropagation and 94.92% for knn [9]. based on the references above, the researcher uses the k-nearest neighbor (knn) method. the knn method is a general and straightforward classification method used, but this research is an early stage of research on ari bacterial classification, so we focus on selecting the right features to classify ari bacteria. there is a difference with previous research, namely the type of bacteria studied. in this research, researchers added staphylococcus aureus and streptococcus pneumoniae as bacteria for pneumonia disease, corynebacterium diphtheriae as bacteria for diphtheria disease, and neisseria gonorrhoeae as pathogens for pharyngitis disease. 2. research methods this study uses the personal data of the researcher, namely the bacterial image dataset from throat sputum. several stages were carried out in this research, namely bacterial image, image preprocessing, image segmentation, feature extraction, and bacterial classification using the knn method, as shown in figure 1. figure 1. block diagram of the bacterial classification system proposed 2.1. bacteria images generally, the size of bacteria is 0.4 to 2 m, consisting of three general forms, namely cocci, bacilli, and spirochetes [4]. the three forms have other specific forms such as staphylococcus aureus, which is included in the cocci in a cluster group, streptococcus pneumoniae is included in the cocci in chains group, corynebacterium diphteriae is included in the clubshaped and pleomorphic rods group, and neisseria gonorrhoeae is included in the diplococci group [10]. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 93 meanwhile, mycobacterium tuberculosis belongs to the aerobic acid-fast rods group [11], as shown in figure 2, and based on the literature. the research image data is shown in table 1. 1. gram-positive cocci in graplike cluster (staphylococci) 2. gram-positive cocci in chains (steptrococci) 3. gram-positive cocci with capsules (pneumococci) 4. gram-positive, clubshaped, pleomorphic rods (corynebacteria) 5. gram-negative rods with pointed ends (fusobacteria) 6. gram-negative curved rods (here commashaped vibrios) 7. gram-negative diplococci, adjacent sides flattened (neisseria) 8. gram-negative straight rods with rounded ends (coli bacteria) figure 2. bacterial morphology [10]. table 1. variation of acute respiratory infection bacterial image bacterial name disease bacterial images staphylococcus aureus pneumonia streptococcus pneumoniae pneumonia corynebacterium diphteriae diphtheria neisseria gonorrhoeae pharyngitis mycobacterium tuberculosis tb table 1 shows that the research data consisted of 5 classes, namely staphylococcus aureus and streptococcus pneumoniae as pneumonia disease bacteria, corynebacterium diphtheriae as diphtheria disease bacteria, neisseria gonorrhoeae as asymptomatic pharyngitis bacteria, and mycobacterium tuberculosis as tuberculosis (tb) bacteria. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 94 2.2. preprocessing images the data normalization process is carried out at this research stage, such as uniformity of image size and uniformity of color space used before the image segmentation process. initially, the size of the bacterial image varied from 1920x1080 pixels, but the size was very large, and it was necessary to cut the image to 151x151 pixels, as shown in figure 3. the result of the cropping process is part of the normalization of data that represents the shape of the ari bacteria. in addition, the cropping process aims to reduce the computational load [12]. figure 3. image size (a) 1920x1080 pixels to (b) 151x151 pixels the cropped image is an rgb color space image where the color space consists of 3 color components, namely red components, green components, and blue components. rgb color space has a large size, so it isn't easy to segment, so it needs to be converted to another color space [13], for example, hsv color space. the hsv color space is a color space that also consists of 3 color components, namely the hue color component, the saturation color component, and the value color component. the process of converting color from rgb color space to hsv color space with the formula equation [14] : ℎ𝑢𝑒 = tan⁡( 3𝑥(𝐺 − 𝐵) (𝑅 − 𝐺) + (𝑅 − 𝐵) ) (1) 𝑠𝑎𝑡𝑢𝑟𝑎𝑡𝑖𝑜𝑛 = 1 − min⁡(𝑅,𝐺,𝐵) 𝑉 (2) 𝑉𝑎𝑙𝑢𝑒 = 𝑅 + 𝐺 + 𝐵 3 (3) next is the process of adding contrast (contrast stretching). its function is to even out the distribution of light and dark intensity over the entire intensity scale so that the image has a high contrast value. 2.3. segmentation at this stage, the aim is to separate the research object from the background. this stage uses a threshold process where we have to find the threshold value with formula equation [15] : 𝑠𝑒𝑔𝑚𝑒𝑛𝑡𝑎𝑡𝑖𝑜𝑛⁡(𝑥,𝑦) = { 1,𝑖𝑓⁡𝑔𝑟𝑎𝑦𝑠𝑐𝑎𝑙𝑒(𝑥,𝑦) ≤ 𝑇 0,𝑖𝑓⁡𝑔𝑟𝑎𝑦𝑠𝑐𝑎𝑙𝑒(𝑥,𝑦) > 𝑇 (4) to find the threshold value (t), we have to look at the histogram of the grayscale image to find out the gray-level value of the research object and the background. in addition to using the thresholding technique, the segmentation process is also carried out using the chain-code technique. this method uses a labeling system for each binary object. it then calculates the proximity of the pixel values based on the direction of 4 or 8 surrounding neighbors, as shown in figure 4. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 95 figure 4. (a) 4-connected and (b) 8-connected 2.4. feature extraction at this stage, the aim is to find characteristic values that can distinguish the first class from other classes. feature extraction used in this research is morphological or shape features such as bacterial count, area, perimeter, and form factor. determination of the area and perimeter using a chain code, where area (a) represents the area of the bacteria, the perimeter or circumference (p) represents the edge length, and the shape factor (s) represents the shape of the bacteria. the three parameters are expressed by the equation formula [16] : 𝐴 = 𝑁𝑢𝑚𝑏𝑒𝑟⁡𝑜𝑓⁡𝑝𝑖𝑥𝑒𝑙𝑠⁡𝑖𝑛⁡𝑟𝑜𝑤 − 1 + 𝑟𝑜𝑤⁡𝑡𝑜 − 2 + ⋯ + 𝑟𝑜𝑤⁡𝑡𝑜 − 8 (5) 𝑃 = ∑ 𝐸𝑣𝑒𝑛⁡𝑐𝑜𝑑𝑒 + √2𝑥 ∑𝑜𝑑𝑑⁡𝑐𝑜𝑑𝑒 (6) 𝑆 = 𝑃2 𝐴 (7) 2.5. k-nearest neighbor classification k-nearest neighbor (knn) classification is one of the classification methods with supervised learning methods. in supervised learning, the classification target is known. the knn method uses the closest distance to the object to classify data, so that the method is often known as lazy learning. the basic principle of knn is to find the value of k where the value of k is the closest amount of data that will determine the classification results and to calculate the closest distance using euclidean distance (ed) calculations with the equation formula [16]–[18]: 𝐸𝐷⁡(𝑥𝑖,𝑥𝑗) = √∑(𝑥𝑖𝑟 − 𝑥𝑖𝑗) 2 𝑛 𝑟=1 (8) where xir is the testing data and xij is the training data the total number of data is 481 images, consisting of 94 images of corynebacterium diphteriae bacteria, 91 images of mycobacterium tuberculosis, and 95 images of neisseria gonorrhoeae 92 images of staphylococcus aureus, and 108 images of streptococcus pneumoniae bacteria. in this research, the classification process is to find the highest level of accuracy from the knn method in comparing training data and testing data. the comparison of the data carried out is 50% : 50%, 60% : 40%, 70% : 30%, 80% : 20% and 90% : 10%. 3. result and discussion in the research of bacterial images, which were originally in the rgb color space, they were converted into hsv color spaces using the equations (1), (2), and (3) so that the hsv color space channel that best represented the shape of the bacteria was shown in figure 5. the figure shows that the hue component image best represents the shape of the bacteria streptococcus pneumoniae, corynebacterium diphtheriae, and mycobacterium tuberculosis. meanwhile, staphylococcus aureus and neisseria gonorrhoeae bacteria can be represented well on the lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 96 image of the saturation component. to clarify the shape of the bacteria, the following process is contrast stretching which causes the image to have a high contrast value so that it also affects the histogram of the image. in addition, there is a change in the image before and after the contrast stretching process, as shown in figure 6. (a) (b) (c) (d) (e) staphylococcus aureus streptococcus pneumoniae corynebacterium diphteriae neisseria gonorrhoeae mycobacterium tuberculosis figure 5. image of (a) rgb, (b) hsv, (c) hue, (d) saturation and (e) value on various types of bacteria figure 6 shows a difference between the hue image histogram before and after the contrast stretching process. the range of gray values of the hsv image is 0 1. this is certainly different lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 97 from the range of gray values of the grayscale image, which is 0 255. in the image before contrast stretching, there are two peaks in the histogram, namely 0.58 and 0.78, while after doing the contrast stretching, there are two peaks in the histogram contrast stretching, the distribution of light and dark intensity throughout the intensity scale so that the image histogram looks bigger than before. in addition to changes in the histogram, figure 6 also shows changes in the hue image before and after contrast stretching. the contrast stretching process helps the process of segmentation because the image of (a) the value of gray level is similar between the object and the background, while the image (b) occur significant color difference between the object and the background that will ease the process of segmentation using a threshold. (a) (b) figure 6. (a) hue image and histogram before contrast stretching while (b) hue image and histogram after contrast stretching on mycobacterium tuberculosis bacteria image after the contrast stretching process, the segmentation process is carried out based on the threshold value with the equation (4). because this study used hue images and saturation images, the threshold value used has a range of 0.4 to 0.7. it depends on the results of the contrast stretching the image, whether it is dark or light. the thresholding process results are a binary image, an image with two values, namely 0 (black) and 1 (white), as shown in figure 8. (a) (b) (c) (d) (e) figure 7. thresholding image of (a) staphylococcus aureus, (b) streptococcus pneumoniae, (c) corynebacterium diphtheriae, (d) neisseria gonorrhoeae and (e) mycobacterium tuberculosis lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 98 figure 7 shows that the threshold image can represent most forms of bacteria, but there are some bacteria such as neisseria gonorrhoeae and mycobacterium tuberculosis that need to be resegmented. this is because there is still noise in the segmentation image based on the threshold value. noise is meant objects that are not parts of the bacterial body, such as paint residues and other objects like polymorphonuclear (pmn) cells. pmn itself is one of the white blood cells that will appear if there is an infection in the body. in the image of neisseria gonorrhoeae bacteria, the shape of polymorphonuclear cells (pmn) is also segmented, so it is necessary to do segmentation based on area. to perform the segmentation, the process is continued by labeling the object and finding the area value using a chain code with the proximity of 8 neighboring pixels. this process is known as the channel area thresholding (cat) segmentation technique [19]. in this research, all bacterial images were segmented based on the channel area threshold (cat) value, but the range of the threshold values differed depending on each bacterium's area. the threshold value for the cat segmentation technique is denoted [s.area]. the value of the threshold area [s. area] used varies depending on the area of each bacterium. determination of s.area is to use two threshold values, namely [s. area] ≥ 5 & [s. area] ≤ 100 was used to remove other objects such as pmn in neisseria gonorrhoeae, while streptococcus pneumoniae, corynebacterium diphtheriae, and mycobacterium tuberculosis, two threshold values were [s. area] ≥ 50 & [s. area] ≤ 7000. then in staphylococcus aureus, the difference in the upper threshold value [s. area] ≤ 10000. the results of the cat segmentation are shown in figure 8. (a) (b) (c) (d) (e) figure 8. cat segmentation images (a) staphylococcus aureus, (b) streptococcus pneumoniae, (c) corynebacterium diphtheriae, (d) neisseria gonorrhoeae and (e) mycobacterium tuberculosis figure 8 shows the results of the segmentation image where there are only bacterial objects, without any noise such as staining or other cells (pmn) in the bacterial image (d) neisseria gonorrhoeae. the following process is feature extraction based on the shape (morphology) of bacteria. morphological features are used to classify bacteria that cause ari because the characteristics of the shape of the bacteria are in accordance with figure 2, so the features used are bacterial count, area, perimeter, and shape factor. the results of bacterial feature extraction are shown in table 2. table 2. feature extraction on each type of bacteria feature staphylococcus aureus streptococcus pneumoniae corynebacterium diphteriae neisseria gonorrhoeae mycobacterium tuberculosis bacterial count minimum 1 1 1 3 1 maximum 8 12 5 29 1 average 3 6 2 12 1 area minimum 1555 832 208 414 613 maximum 9984 4679 1580 3949 2465 average 4639 2438 728 1502 1332 perimeter minimum 586 384 101 263 257 maximum 4009 1993 696 2495 877 average 1774 1088 292 1021 487 shape factor minimum 220,833 154,793 25,584 167,075 81,061 maximum 1697,013 958,275 311,889 1750,571 351,729 average 687,847 491,619 123,410 700,310 181,752 table 2 shows that the area, perimeter, and shape factor of the bacteria with the largest value is staphylococcus aureus, while the smallest is corynebacterium diphtheriae. the highest number of bacteria is neisseria gonorrhoeae, as many as 29 bacteria in one image. in comparison, the least number of bacteria is mycobacterium tuberculosis, as many as one bacteria in one image. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 99 these features will be the input of the k-nearest neighbor (knn) classification method. the basic principle of knn is to find the value of k where the value of k is the closest amount of data that will determine the classification results and calculate the closest distance using the euclidean distance calculation using the equation (8). the learning process of the knn method is supervised learning, where the target is known beforehand. when testing the test data (unknown class label), the knn algorithm looks for the training data closest to the test data. the test data is classified according to the class from the training data with the closest euclidean distance. this study uses 480 data which is divided into training data and testing data with the provisions of 50% : 50%, 60% : 40%, 70% : 30%, 80% : 20% and 90% : 10% with variations in k values, the results accuracy, precision, recall are shown in table 3. table 3. the results of accuracy, precision, and recall on variations in the value of k training data : testing data k. value accuracy (%) precision (%) recall (%) 50% : 50% 1 87,5 87,9 87,5 3 85 85,6 85 5 87,5 87,8 87,5 7 86,67 87 86,7 9 86,25 86,5 86,3 11 85,42 85,7 85,4 60 % : 40% 1 86,46 87,1 86,5 3 88,02 88,6 88 5 88,54 88,8 88,5 7 85,94 86,3 85,9 9 85,94 86,1 85,9 11 85,94 86,3 85,9 70 % : 30 % 1 86,81 87,5 86,8 3 88,19 88,7 88,2 5 90,28 90,5 90,3 7 88,19 88,6 88,2 9 86,81 86,9 86,7 11 86,81 86,9 86,8 80 % : 20% 1 84,38 85,7 84,4 3 85,42 86,2 85,4 5 88,54 89,4 88,5 7 88,54 89 88,5 9 90,63 91,6 90,6 11 89,58 90,3 89,6 90 % : 10% 1 87,5 89,8 87,5 3 91,67 92,4 91,7 5 91,67 92,4 91,7 7 91,67 92,4 91,7 9 89,58 90,1 89,6 11 89,58 90,1 89,6 table 3 contains the comparison of training data and test data used with variations in the value of k to produce the best level of accuracy, precision, and recall. in comparing data 50%: 50%, the best accuracy rate is 87.5%, with a k = 1. comparison of data 60%: 40%, the best accuracy rate is 88.54% with a k = 5. comparison of data 70%: 30 % the best accuracy rate is 90.28% with a value of k = 5. comparison of data 80%: 20% the best accuracy rate is 90.63% with a value of k = 9. this is different in the comparison of training data and test data 90%: 10 %, the best level of accuracy is 91.67%, precision is 92.4%, and recall is 91.7% with three variations in the value of k, namely k = 3, k = 5 and k = 7. to find out the results of the knn classification, a confusion matrix was made, as shown in table 4. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 100 table 4. confusion matrix with a data ratio of 90%: 10% at the value of k = 7 output target a b c d e 10 0 0 0 0 a = corynebacterium diphteriae 1 8 0 0 0 b = mycobacterium tuberculosis 0 0 4 0 1 c = neisseria gonorrhoeae 0 1 0 12 0 d = staphylococcus aureus 1 0 0 0 10 e = streptococcus pneumoniae table 4 shows that as many as 10 data were correctly classified as corynebacterium diphtheriae, while for mycobacterium tuberculosis, 8 data were correctly classified, and 1 data was misclassified as corynebacterium diphtheriae. 4 data were correctly classified as neisseria gonorrhoeae and 1 data was misclassified as streptococcus pneumonia. the staphylococcus aureus was classified correctly as many as 12 data, and 1 data was misclassified into mycobacterium tuberculosis. streptococcus pneumoniae were classified correctly as many as 10 data, and 1 data was misclassified into corynebacterium diphtheriae. these results can occur due to the closeness of the values between the knn input parameters (number of bacteria, area, perimeter, and shape factor) for each bacterium, as shown in table 2. an example of the average perimeter feature is shown in table 5 below. table 5. perimeter feature values for each type of bacteria feature staphylococcus aureus streptococcus pneumoniae corynebacterium diphteriae neisseria gonorrhoeae mycobacterium tuberculosis perimeter minimum 586 384 101 263 257 maksimum 4009 1993 696 2495 877 average 1774 1088 292 1021 487 table 5 shows a closeness of the average value of perimeter features between staphylococcus aureus, streptococcus pneumoniae, and neisseria gonorrhoeae bacteria, namely 1774, 1088, and 1021. of course, this proximity affects the classification results using the knn method, causing misclassification between bacteria so that a confusion matrix is created and is shown in table 4. suppose we compare with previous research where the accuracy of knn is 94.92% while the accuracy of knn in this research is 91.67%. this difference occurs because the previous research only classified one bacterium, namely mycobacterium tuberculosis. still, in this research, we added four other bacteria, namely staphylococcus aureus, streptococcus pneumoniae, corynebacterium diphtheriae, and neisseria gonorrhoeae. 4. conclusion this research is one of the computer vision studies that aims to classify acute respiratory tract infection (ari) bacteria using the k-nearest neighbor (knn) method. the parameters used in this study are shape parameters, namely bacterial count, area, perimeter, and form factor. the data used are 480 data with the best comparison of training data and test data, namely 90%: 10%. the knn classification method can classify these bacteria with the highest level of accuracy, namely 91.67%, precision 92.4%, and recall 91.7% with 3 variations in the value of k, namely k = 3 k = 5 and k = 7. in this study, it is necessary to add other features and compare them with other classification methods to get the best classification method to classify bacteria that cause acute respiratory infections (ari). references [1] e. setyowati and s. mariani, “penerapan jaringan syaraf tiruan dengan metode learning vector quantization (lvq) untuk klasifikasi penyakit infeksi saluran pernapasan akut (ispa),” vol. 4, p. 10, 2021. [2] s. j. pitt, clinical microbiology for diagnostic laboratory scientists. chichester, uk: john wiley & sons, ltd, 2017. doi: 10.1002/9781118745847. [3] k. struthers, clinical microbiology, second edi. new york: crc press, 2017. lontar komputer vol. 12, no. 2 august 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 101 [4] c. r. mahon and d. c. lehman, textbook of diagnostic microbiology, sixth edit. st. louis, missouri: elsevier, 2019. doi: 10.1309/u0mb-0p7r-rrwf-4bth. [5] dinas kesehatan provinsi jawa timur, profil kesehatan provinsi jawa timur 2019. surabaya: dinas kesehatan provinsi jawa timur, 2020. [6] r. yuliwardana, “deteksi bakteri streptococcus pneumoniae berbasis jaringan syaraf tiruan dari citra mikroskop digital,” universitas airlangga, surabaya, 2016. [7] r. rulaningtyas, andriyan bayu suksmono, t. mengko, and p. saptawati, "multi patch approach in k-means clustering method for color image segmentation in pulmonary tuberculosis identification," in 2015 4th international conference on instrumentation, communications, information technology, and biomedical engineering (icici-bme), bandung, indonesia, nov. 2015, pp. 75–78. doi: 10.1109/icici-bme.2015.7401338. [8] k. s. mithra and w. r. s. emmanuel, "segmentation of mycobacterium tuberculosis bacterium from zn stained microscopic sputum images," in 2018 international conference on smart systems and inventive technology (icssit), tirunelveli, india, dec. 2018, pp. 150–154. doi: 10.1109/icssit.2018.8748294. [9] l. n. sahenda, m. h. purnomo, i. k. e. purnama, and i. d. g. h. wisana, "comparison of tuberculosis bacteria classification from digital image of sputum smears," in 2018 international conference on computer engineering, network and intelligent multimedia (cenim), surabaya, indonesia, nov. 2018, pp. 20–24. doi: 10.1109/cenim.2018.8711386. [10] f. h. kayser, ed., medical microbiology. stuttgart ; new york, ny: georg thieme verlag, 2005. [11] p. r. murray, basic medical microbiology. philadelphia: elsevier, 2018. [12] z. e. fitri, a. baskara, m. silvia, a. madjid, and a. m. n. imron, "application of backpropagation method for quality sorting classification system on white dragon fruit (hylocereus undatus)," iop conference series : earth environmental science, vol. 672, no. 1, p. 012085, mar. 2021, doi: 10.1088/1755-1315/672/1/012085. [13] a. m. nanda imron and z. e. fitri, "a classification of platelets in peripheral blood smear image as an early detection of myeloproliferative syndrome using gray level cooccurrence matrix," journal of physics: conference series, vol. 1201, p. 012049, may 2019, doi: 10.1088/1742-6596/1201/1/012049. [14] z. e. fitri, u. nuhanatika, a. madjid, and a. m. n. imron, “penentuan tingkat kematangan cabe rawit (capsicum frutescens l.) berdasarkan gray level co-occurrence matrix,” jurnal teknologi informasi dan terapan (jtit), vol. 7, no. 1, pp. 1–5, jun. 2020, doi: 10.25047/jtit.v7i1.121. [15] z. e. fitri, r. rizkiyah, a. madjid, and a. m. n. imron, “penerapan neural network untuk klasifkasi kerusakan mutu tomat,” jurnal rekayasa elektrika, vol. 16, no. 1, may 2020, doi: 10.17529/jre.v16i1.15535. [16] z. e. fitri, l. n. y. syahputri, and m. n. imron, "classification of white blood cell abnormalities for early detection of myeloproliferative neoplasms syndrome based on knearest neighbor," scientific journal of informatics, vol. 7, no. 1, p. 7, 2020. [17] i. m. a. s. widiatmika, i. n. piarsa, and a. f. syafiandini, "recognition of the baby footprint characteristics using wavelet method and k-nearest neighbor (k-nn)," lontar komputer jurnal ilmiah teknologi informasi, vol. 12, no. 1, p. 41, mar. 2021, doi: 10.24843/lkjiti.2021.v12.i01.p05. [18] r. j. al kautsar, f. utaminingrum, and a. s. budi, “helmet monitoring system using hough circle and hog based on knn,” lontar komputer jurnal ilmiah teknologi informasi, vol. 12, no. 1, p. 13, mar. 2021, doi: 10.24843/lkjiti.2021.v12.i01.p02. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 179 sistem monitoring spesifikasi dan utilitas host di jaringan komputer berbasis web i nyoman piarsa1, putu bayu suda togantara2 1,2teknologi informasi, universitas udayana, bali e-mail: manpits@gmail.com1, bayu.ski08@gmail.com2 abstrak sistem monitoring spesifikasi dan utilitas menggunakan protocol snmp untuk melakukan pengkoleksian data dari host. sistem ini merupakan sistem monitoring berbasis web yang dapat melakukan monitoring terhadap spesifikasi hardware seperti cpu resources, memory resources, job progress, running proses serta kapasitas hardisk. sistem juga menyediakan fasilitas power control yang berfungsi untuk mematikan maupun merestart host yang dimonitoring dan fasilitas manajemen proses yang digunakan untuk melihat dan mematikan proses apa saja yang sedang berjalan pada host. kata kunci: sistem monitoring, berbasis web, snmp abstract monitoring system of spesification and utility is to collect data from host by using snmp protocol. the web based system is able to observe hardware specification such as cpu resources, memory resouces, job progress, running process and hardisk capacity. this system is also available for supporting power control in order to shut down and restart the monitored host and process management that used to observe and shut down any running process in the host. keywords: monitoring system, web based, snmp 1. pendahuluan simple network management protocol (snmp) adalah sebuah internet protocol suite yang digunakan untuk melakukan pengkoleksian data yang nantinya akan diakses oleh sistem monitoring jaringan. snmp terdiri dari 3 bagian, pertama adalah mib yang merupakan sekumpulan informasi yang teratur tentang keberadaan seluruh peralatan jaringan. semua informasi yang diakses atau dimodifikasi melalui agen sama dengan mib. informasi-informasi tersebut akan diambil oleh agen dan diberikan kepada manajer snmp berdasarkan permintaan. tidak semua informasi yang ada pada mib diberikan oleh agen, akan tetapi berdasarkan tindakan yang dilakukan oleh manajer snmp. yang kedua adalah manajer snmp merupakan platform sistem manajemen atau pelaksana dari manajemen jaringan. manajer ini terdiri atas satu proses atau lebih yang berkomunikasi dengan agen-agennya dan berfungsi untuk mengumpulkan informasi dari agen dalam jaringan. manajer snmp bertanggungjawab untuk melakukan pengaksesan, modifikasi atau menerima informasi dari agen-agen yang dikelola. dan yang ketiga adalah agen yang merupakan software yang dapat berjalan pada perangkat jaringan yang dimanajemen. agen menyediakan informasi untuk nmp dengan mengawasi beragam aspek operasional perangkat. 2. metode real time system berdasarkan waktu adalah sistem yang melakukan pengukuran kendali dan pergerakan dalam setiap interval waktu yang telah ditentukan. sistem monitoring spesifikasi dan utilitas ini tidak sepenuhnya menggunakan konsep real time system, tetapi sistem ini juga menggunakan konsep soft real time system. soft real time system adalah real time system yang tidak sepenuhnya menggunakan interval waktu dalam proses pengambilan data pada computer mailto:manpits@gmail.com mailto:bayu.ski08@gmail.com lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 180 client. sistem monitoring ini memiliki beberapa fitur yang dapat digunakan, antara lain monitoring spesifikasi, power control dan manajemen proses. bagian monitoring spesifikasi dan power control menggunakan konsep soft real time system karena sistem tidak akan secara otomatis menampilkan data spesifikasi dari masing-masing host. bagian yang menggunakan konsep real time system adalah manajemen proses. bagian ini akan menampilkan data proses dari setiap host dengan interval waktu yang telah ditentukan oleh sistem. 3. perancangan sistem sistem monitoring spesifikasi dan utilitas ini menggunakan dua buah agen, yaitu agen snmp dan agen delphi. agen snmp digunakan untuk melakukan pengkoleksian data spesifikasi host dan proses yang berjalan pada host, sedangkan untuk pengkoleksian data penggunaan ram, cpu dan fungsi power control menggunakan agen delphi. berikut ini adalah penjelasan dari masing-masing agen. perancangan agen snmp snmp adalah sebuah internet protocol suite yang digunakan untuk melakukan pengkoleksian data yang nantinya akan diakses oleh server sistem monitoring jaringan. struktur snmp dibagi menjadi 3 proses, yaitu :  pembuatan community: proses untuk membuat community pada snmp. tiap snmp mempunyai community sendiri yang merupakan komunitas untuk menyimpan data-data hasil snmp (seperti total trafik saat itu)  snmpget function: proses untuk mengambil data pada network management station yaitu data traffic yang masuk dan keluar pada ethernet device. data ini akan masuk ke dalam community dari snmp yang ada.  penulisan pada file: proses menuliskan hasil dari data yang masuk ke komunitas ke dalam file. snmpget function digunakan untuk mengambil data monitoring pada host. untuk mendapatkan data monitoring, server harus mengirimkan oid (object id) dari data yang akan dimonitor. agen snmp hanya bekerja jika server mengirimkan oid yang akan dimonitor. berikut ini adalah diagram alir dari proses pengambilan data pada host. start snmpget function stop inisialisasi community tampilkan data monitoring host up y n gambar 1. flowchart perancangan sistem snmp lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 181 perancangan agen delphi agen delphi digunakan untuk menjalankan perintah yang dikirimkan oleh server, agen ini tidak sepenuhnya bekerja secara otomatis untuk melakukan monitoring host, tetapi agen juga harus menerima perintah dari server untuk melakukan pekerjaan. agen delphi memerlukan perintah dari server untuk melakukan shutdown dan restart host serta perintah untuk melakukan kill proses, sedangkan untuk melakukan monitoring penggunaan ram dan cpu serta monitoring proses, agen delphi menggunakan timer sehingga akan bekerja tanpa perintah dari server. berikut ini adalah diagram alir dari agen delphi. start uses comctrls ip address connect server save to db status up sysuptime a b y n cek penggunaan ram & cpu list proses save to db ram usage cpu usage list proses cek db : perintah<>0 perintah=1perintah=2 shutdownrestart cek pid ke db kill pid host up a stop save to db status down b y n y n yy n n gambar 2. flowchart agen delphi agen delphi melakukan monitoring proses yang sedang berjalan pada host tanpa menunggu perintah dari server. bagian proses yang dimonitor termasuk proses id, nama proses, type, size, status, start time dan end time. start time didapatkan pada saat agen delphi menemukan proses id baru yang belum tersimpan ke dalam database, sedangkan end time didapatkan pada saat agen delphi tidak menemukan proses id dari proses sebelumnya yang sudah tersimpan ke dalam database. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 182 4. pengujian sistem pengujian sistem monitoring spesifikasi dan utilitas ini meliputi monitoring spesifikasi, kapasitas harddisk, penggunaan ram dan cpu, power control dan manajemen proses. monitoring konektifitas host gambar 3 menunjukkan daftar status konektifitas host. sistem akan melakukan pengecekan status konektifitas host setiap satu menit. user hanya dapat melihat spesifikasi dari host yang sedang aktif. gambar 3. monitoring konektifitas host monitoring spesifkasi gambar 4 menunjukkan hasil monitoring spesifikasi host. spesifikasi yang dapat ditampilkan terbatas karena tidak semua informasi dapat dimonitoring oleh agen snmp. system up time pada pada sistem monitoring ini bersifat statis, sehingga user harus me-refresh halaman web untuk mendapatkan data system up time terbaru. gambar 4. monitoring spesifikasi host monitoring kapasitas harddisk gambar 5 menunjukkan hasil monitoring kapasitas harddisk. sistem monitoring ini hanya dapat memonitoring dua partisi dari harddisk host yang dimonitoring, jika pada host tersebut sedang menggunakan removable disk maka tidak akan ditampilkan. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 183 gambar 5. monitoring kapasitas harddisk monitoring penggunaan ram dan cpu gambar 6 menunjukkan hasil monitoring ketersediaan ram dari host yang dimonitor. ketersediaan ram tersebut akan terus ter-update sesuai dengan host yang dimonitor. data ketersediaan ram didapat dari aplikasi agen yang terdapat di host yang dimonitor. gambar 6. monitoring ketersediaan ram gambar 7 menunjukkan hasil monitoring penggunaan cpu.penggunaan cpu tersebut akan terus ter-update sesuai dengan host yang dimonitor. data ketersediaan ram didapat dari aplikasi agen yang terdapat di host yang dimonitor. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 184 gambar 7. monitoring penggunaan cpu power control gambar 8 menunjukkan tampilan fungsi power control. halaman power control ini digunakan untuk melakukan shutdown dan restart terhadap host yang dimonitor. server akan mengirimkan perintah kepada agen kemudian aplikasi agen yang terdapat di host yang dimonitor akan menjalankan perintah yang telah dikirimkan oleh sistem. gambar 8. power control manajemen proses halaman manajemen proses dibagi menjadi 2, yaitu list proses dan history proses. list proses halaman ini menampilkan daftar proses apa saja yang sedang berjalan di host yang sedang dimonitor. pada halaman ini admin bisa melakukan perintah kill terhadap proses yang sedang berjalan. perintah tersebut akan dikirimkan oleh sistem kepada aplikasi agen yang berjalan pada host yang dimonitor, kemudian host tersebut akan melakukan kill proses sesuai dengan pid (proccess id) yang telah dipilih sebelumnya. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 185 gambar 9. manajemen proses history proses halaman ini menampilkan history proses dari setiap host. jika pada halaman list proses sebelumnya admin memilih history proses harian maka pada halaman ini hanya akan tampil history proses untuk tanggal tertentu saja, sedangkan jika admin memilih history proses bulanan maka akan ditampilkan history proses dari rentang tanggal yang telah dipilih sebelumnya. gambar 10. history proses 5. kelebihan dan kekurangan sistem tentunya dalam pembuatan sistem ini tidak lepas dari kelebihan dan kekurangan. berikut ini adalah uraian tentang kelebihan dan kekurangan sistem. kelebihan sistem secara umum sistem monitoring spesifikasi dan utilitas komputer ini memiliki beberapa kelebihan, antara lain : lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 186 1. sistem monitoring ini dapat mempermudah administrator jaringan dalam melakukan pengawasan terhadap komputer client/host yang terhubung ke dalam jaringan karena sistem monitoring dapat melakukan pengecekan konektifitas jaringan terhadap host yang dimonitor. 2. sistem monitoring ini mempermudah administrator jaringan dalam melakukan pengecekan spesifikasi komputer serta ketersediaan kapasitas harddisk serta besar penggunaan ram dan cpu. 3. sistem monitoring ini mempermudah administrator untuk mematikan dan me-restart host secara langsung melalui server. 4. sistem monitoring ini dikembangkan dengan beberapa tools sehingga kinerja masingmasing tools juga sangat dibutuhkan.  dengan menggunakan snmp memungkinkan kita untuk memperoleh data monitoring mengenai host yang dimonitor,  dengan pskill dapat memungkinkan sistem untuk melakukan kill proses pada komputer client tanpa harus menggunakan windows permission. 5. fasilitas history proses yang ada pada sistem memungkinkan administrator untuk mengetahui proses apa saja yang sedang berjalan maupun sudah berjalan pada komputer client. kekurangan sistem disamping memiliki kelebihan seperti yang dipaparkan di atas, sistem monitoring ini juga memiliki beberapa kekurangan, seperti : 1. diperlukannya melakukan konfigurasi manual terhadap client baru yang ingin dimonitor, hal ini disebabkan karena pada komputer client yang akan dimonitor terlebih dahulu harus diinstal agen snmp agar server dapat melakukan pengambilan data monitoring. 2. loading untuk service pengaktifan agen snmp memerlukan waktu paling lama adalah 15 detik diawal inisialisasi, hal ini disebabkan karena diperlukan koneksi ke masing-masing host untuk mengetahui apakah terdapat agen snmp atau tidak. 3. sistem monitoring ini hanya dibatasi pada monitoring spesifikasi dan utilitas komputer, tidak dilengkapi dengan monitoring network traffic dari setiap host. 6. simpulan sistem monitoring spesifikasi dan utilitas berbasis web ini telah berhasil diimplementasikan dengan menggunakan snmp sebagai protokol pengumpul data monitoring dan aplikasi agen dengan borland delphi 7.0. dengan menggunakan database untuk menyimpan ip address setiap host yang dimonitoring serta history proses dari host tersebut, maka mempermudah administrator dalam melakukan manajemen host. hal ini juga mempermudah administrator untuk mengetahui spesifikasi dan utilitas dari setiap host yang dimonitoring. perbandingan sistem monitoring spesifikasi dan utilitas dengan phpsysinfo dan network view memiliki hasil yang hampir sama. perbedaan hasil monitoring terdapat pada monitoring penggunaan ram, hal ini disebabkan karena proses running proccess pada host lebih cepat daripada proses pemantauan dari agen delphi yang ada pada host tersebut, sehingga data balasan yang diberikan agen kepada server tidak akan sama dengan host yang dimonitor. user yang menggunakan sistem monitoring ini memerlukan waktu sedikit lama diawal inisialisasi, waktu yang diperlukan paling lama sekitar 15 detik, hal ini disebabkan karena diperlukan koneksi ke masing-masing host untuk mengetahui apakah terdapat agen snmp daftar pustaka [1] masya, fajar. fiade, andrew, “socket programming”, yogyakarta , graha ilmu, 2011. [2] mauro, douglas. schmidt, kevin, “essential snmp”, america, o’reilly, 2003. [3] mauro, douglas. schmidt, kevin, “essential snmp”, america, o’reilly, 2005. [4] kadir, a., “dasar pemrograman web dinamis menggunakan php”, yogyakarta, andi offset, 2003. lontar komputer vol. 3, no. 2, desember 2012 issn: 2088-1541 187 [5] nugroho. b, “php dan mysql dengan editordreamweavermx”, yogyakarta, andi offset, 2004. [6] kadir, a., “dasar aplikasi database mysql delph”, yogyakarta , andi offset, 2003. [7] madcoms, “pemrograman borland delphi 7 (jilid 1)”, yogyakarta , andi offset, 2003. [8] sukmaaji, a., “jaringan komputer konsep dasar pengembangan jaringan dan keamanan jaringan”, yogyakarta , andi, yogyakarta, 2008. [9] ----.---bytesphare.2006.host resources v2 mib : http:\\www.bytesphere.com, 2012. [10] ----.---“dokumentasi snmp : net-snmp.sourceforge.net, 2012. 1 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 pembuatan aplikasi catalog 3d desain rumah sebagai sarana promosi dengan menggunakan unity 3d siryantini nurul adnin 1 , ida bagus ketut widiartha 2 , i made budi suksmadana 3 jurusan teknik elektro, fakultas teknik universitas mataram, nusa tenggara barat 1 iningnining@gmail.com 2 widi@ftunram.ac.id 3 mdbudi@yahoo.com abstrak penelitian ini memasukkan teknologi ar ke dalam catalog penjualan rumah, sehingga catalog rumah ini menjadi lebih real dengan adanya objek 3d di dalamnya. penelitian ini bertujuan untuk menghasilkan sebuah aplikasi yang dapat menampilkan model rumah 3d sehingga dapat membantu para pembeli untuk mengetahui dengan baik rumah yang akan dibeli, serta akan mempermudah seller rumah sebagai media promosi kepada konsumen. untuk pembuatan objek 3d digunakan dua macam software yaitu sweet home 3d dan blender, sedangkan untuk membuat aplikasi dalam pemograman (coding) digunakan software unity 3d dengan menggunakan bahasa pemograman c#. aplikasi catalog desain rumah ini dibuat melalui beberapa tahapan yaitu pembuatan objek 3d, pembuatan marker dan perancangan aplikasi. hasil akhirnya terdiri dari dua bentuk yaitu dalam bentuk fisik (media cetak berupa catalog) yang berisikan marker pada beberapa halamannya dan aplikasi augmented reality berbasis android dalam bentuk .apk yang kemudian diinstal pada smartphone, dimana keduanya saling melengkapi. kata kunci: augmented reality, unity, marker, c#, catalog. abstract this study incorporate ar into a technology home catalog sales, thus catalog home is becoming more real with 3d objects in it. this research aims to produce an application that can display a 3d model of a house that can help buyers to know well the home to be purchased, and will simplify the home seller as a media campaign to consumers. 3d objects used to develop two kinds of software that sweet home 3d and blender, whereas to create application in programming used unity 3d software using the c # programming language. application home design catalog is made through several stages of design 3d objects, marker workmanship and application design. the end result consists of two forms, namely in the form of physical (in the form of print media catalog) that contains a marker on some pages and augmented reality applications based on android in the form of .apk which is then installed on smartphones, where the two are complementary. keywords: augmented reality, unity, marker, c #, catalog. 1. pendahuluan bisnis properti saat ini memang sedang menjamur dikota-kota besar dan kecil karena mempunyai keuntungan yang cukup besar [1]. dengan memanfaatkan teknologi augmented reality sebagai salah satu cara alternatif dalam melakukan promosi, konsumen akan dapat melihat tampilan rumah secara 3d yang terdapat pada catalog, sehingga rumah yang tampilkan akan terlihat lebih detil dan nyata. tidak hanya itu, pada aplikasi katalog rumah ini pembeli juga dapat melihat bagian rumah dengan detail, tetapi juga dapat melihat denah rumah dengan tampilan 3 dimensi. mailto:iningnining@gmail.com mailto:widi@ftunram.ac.id mailto:mdbudi@yahoo.com 2 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 2. metodologi penelitian 2.1. rancangan sistem aplikasi pada sistem yang diberikan qcar, semua simulasi tersebut dapat diformat dalam sebuah aplikasi yang dijalankan pada perangkat android dengan unity sebagai editor. dari blok diagram gambar 1 terlihat tahapan-tahapan dalam merender grafis, yaitu: a. dimulai dengan inisialisasi kamera. b. gambar dari kamera kita per-frame, kemudian menghasilkan "camera-frame". c. fitur yang ada pada marker. d. menemukan target. e. melihat apa-apa saja menu yang terdapat pada marker. f. data yang terdapat pada marker apakah termasuk dalam image target, multi, serta ada a. atau tidak adanya virtual button dan virtual button 3d. g. mengolah object yang tersimpan. h. aplikasi menquery object. i. app logicnya untuk bisa menampilkan object. logika aplikasi (if else marker a, b, c). j. objek 3d sesuai dengan logika [2]. gambar 1. diagram blok aplikasi 2.2. perancangan aplikasi tahapan-tahapan persiapan yang mesti dilakukan antara lain : a. persiapan awal langkah-langkah dalam persiapan pembuatan 3d catalog design rumah, adalah sebagai berikut: 1. membuat 3d object menggunakan tools software 3d yaitu sweet home 3d dan blender. inisialisasi kamera menangkap frame melacak fitur object terdeteksi menemukan target image target menu mengevaluasi virtual button multi target virtual button (object 3d) image target virtual button olah state object query state object perbarui logika aplikasi render grafis 3 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 2. membuat marker pada tiap-tiap halaman catalog kemudian registrasikan pada http://developer.vuforia.com. 3. 3d object animasi dalam format .obj atau .fbx dan kemudian melakukan perekayasaan dengan unity 3d [3]. b. rancangan tampilan antar muka (interface) 1. tampilan awal aplikasi halaman ini merupakan halaman awal atau pembuka dari aplikasi 3d catalog. rancangan tampilan awal aplikasi seperti dapat dilihat seperti pada gambar 2 dibawah ini. gambar 2. tampilan awal aplikasi 2. tampilan menu utama aplikasi gambar 3. tampilan menu utama aplikasi gambar 4. tampilan saat button start dipilih gambar 5. tampilan saat button panduan dipilih http://developer.vuforia.com/ 4 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 gambar 6. tampilan saat button next dipilih gambar 7. tampilan saat button tentang kami dipilih c. proses perekayasaan (coding) perekayasaan (coding) dalam pembuatan aplikasi ini menggunakan unity 3d versi 3.3.0 dengan vuforia unity plugins versi 2.8.7. coding dilakukan dalam setiap tampilan scene atau halaman untuk membuat tampilan antar muka (interface) berupa gui lebih menarik. pada class hierarchy vuforia terdapat class-class turunan dari vuforia. namun pada pengerjaan aplikasi catalog 3d ini tidak semua class digunakan dikarenakan tidak semua dibutuhkan, sehingga hanya class yang dibutuhkan saja yang akan digunakan. classclass tersebut antara lain : 1. vuforia.defaultinitializationerrorhandler 2. datasetloadbehaviour 3. vuforia.keepalivebehaviour 4. vuforia.defaulttrackableeventhandler 5. vuforia.qcarbehaviour 6. vuforia.turnoffbehaviour, dan 7. vuforia.imagetargetbehaviour  class diagram class diagram menggambarkan hubungan antara kelas yang ada pada aplikasi catalog 3d desain rumah ini. class dapat merupakan implementasi dari sebuah interface, yaitu class abstrak yang hanya memiliki metode. interface tidak dapat langsung diinstansiasikan, tetapi harus diimplementasikan dahulu menjadi sebuah class [4]. d. proses pengujian aplikasi. pada proses pengujian ini aplikasi diuji dengan melihat apakah aplikasi dapat berjalan dengan baik pada smartphone android dan sesuai dengan rancangan dan tujuan yang telah dibuat. 5 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 3. kajian pustaka 3.1. pengertian 3d catalog 3d catalog adalah sebuah katalog yang dapat menampilkan model animasi 3d dengan cara melakukan pembacaan simbol ataupun gambar marker menggunakan kamera sebagai media inputan. catalog berbasis augmented reality ini sendiri hasil akhirnya terdiri dari dua format yaitu dalam format fisik (media cetak berupa catalog) yang berisikan marker pada beberapa halamannya dan aplikasi augmented reality berbasis android dimana keduanya saling melengkapi. 3.2. augmented reality augmented reality sebagai penggabungan benda-benda nyata dan maya di lingkungan nyata, berjalan secara interaktif dalam waktu nyata, dan terdapat integrasi antar benda dalam tiga dimensi, yaitu benda maya terintegrasi dalam dunia nyata. marker merupakan sebuah gambar atau symbol yang sudah dikenali oleh template database. dimana marker tersebut berfungsi untuk dibaca dan dikenali oleh kamera lalu dicocokkan dengan template pada suatu software perekayasaan. setelah itu, baru kamera akan melakukan render objek 3d diatas marker. vuforia adalah augmented reality software development kit (sdk) untuk perangkat mobile yang memungkinkan pembuatan aplikasi augmented reality. dulunya lebih dikenal dengan qcar (qualcomm company augmentend reality). qcar menggunakan teknologi computer vision untuk mengenali dan melacak gambar planar (target image) dan objek 3d sederhana, seperti kotak, secara real-time. alur proses yang terjadi pada pelacakan qcar dapat dilihat pada blok diagram pada gambar 8 berikut ini. gambar 8. blok diagram pelacakan qcar dari blok diagram gambar 8 dapat dilihat bahwa pada sebuah aplikasi ar berbasis qcar sdk terdiri dari komponen inti sebagai berikut: a. kamera. b. image converter. c. tracker. d. video background renderer. e. application code dan 6 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 f. target resource. 4. implementasi program dan pengujian aplikasi 4.1. implementasi program sebuah program atau dalam unity disebut dengan script, dimana script hanya berfungsi mengikuti aplikasi yang membawanya, dalam kasus ini adalah unity, jadi script di dalam unity tidak bisa di bawa ke program lain selain unity. didalamnya terdapat scene-scene yang berguna untuk menyimpan pada proses pembuatan aplikasi. scene-scene yang akan di buat pada aplikasi catalog ini dapat di pada gambar 9 berikut: gambar 9. scene-scene dalam aplikasi a. script pada scene menu_1.unity scene menu_1.unity dibuat untuk menampilkan splashscreen saat aplikasi dibuka dan setelah beberapa waktu akan berpindah untuk menampilkan menu utama aplikasi. untuk lebih jelasnya tentang script pada dapat dilihat pada gambar 10 berikut ini: gambar 10. scene menu_1.unity (splashscreen) b. script pada scene menu_2.unity scene ini dibuat untuk mengatur atau memberikan event pada tiap-tiap button. untuk lebih jelasnya tentang script dapat dilihat pada gambar 11 berikut ini: gambar 11. sub menu scene menu_2.unity 7 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 c. script pada scene house.unity scene house.unity ini dibuat script dengan nama armenu.cs. untuk lebih jelasnya dapat dilihat pada gambar 12 berikut ini: gambar 12. button pada scene house.unity selain membuat script armenu.cs, untuk menambahkan 2 buah button touch pada scene house.unity, disini juga kita membuat 2 buah script yaitu roofcontrol.cs pagarcontrol.cs. untuk lebih jelasnya dapat dilihat pada gambar 13 berikut ini: gambar 13. fitur touch pada scene house.unity pada script pagarcontrol.cs memiliki tujuan yang sama dengan roofcontrol.cs, maka untuk script pun sama. hanya saja berbeda dalam pemberian nama class dan object nya. selain itu juga ditambahkan fitur untuk menampilkan detail dari masing-masing rumah. untuk lebih jelasnya dapat dilihat pada gambar 14 berikut ini: gambar 14. fitur button 3d pada scene house.unity untuk membuat tampilan model rumah lebih interaktif, maka ditambahkan 1 buah fitur tambahan lagi yaitu button rotasi untuk lebih jelasnya dapat dilihat pada gambar 15 berikut ini: gambar 15. fitur button 3d pada scene house.unity d. script pada scene house.unity pada scene panduan_1.unity ini dibuat script dengan nama panduan1.cs. untuk lebih jelasnya dapat dilihat pada gambar 16 berikut ini: 8 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 gambar 16. button pada scene panduan_1.unity e. script pada scene panduan_2.unity pada scene panduan_2.unity ini dibuat script dengan nama panduan2.cs. untuk lebih jelasnya dapat dilihat pada gambar 17 berikut ini : gambar 17. sub menu scene panduan_2.unity pada script panduan_2.cs ini memiliki struktur yang sama dengan panduan_1, hanya nama class, button serta perpindahannya saja yang berbeda. 4.2. pengujian fungsionalitas pengujian menggunakan smartphone android dengan android versi jelly bean. tampilan marker pada halaman catalog dapat dilihat pada gambar 18 sedangkan untuk pengujiannya dapat dilihat pada gambar 19 berikut ini: gambar 18. marker aplikasi catalog 3d design rumah 9 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 gambar 19. hasil pengujian fungsionalitas aplikasi arhomecaview pada gambar 19 adalah hasil pengujian fungsionalitas aplikasi. dan dapat disimpulkan bahwa penguijan fungsionalitas ini berjalan sesuai harapan yaitu sukses semua. 4.3. pengujian marker sketsa dan foto rumah pengujian dilakukan dengan menambahkan beberapa marker yang berbeda dengan yang pada catalog dan dengan format model rumah yang berbeda pula. tampilan marker dapat dilihat pada gambar 20 dan hasil pengujian marker dapat dilihat pada gambar 21 berikut: 10 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 gambar 20. marker sketsa dan foto rumah gambar 21. hasil pengujian marker pada gambar 21 adalah hasil pengujian marker dengan menggunakan sketsa dan foto rumah. dan dapat disimpulkan bahwa penguijan marker dengan sketsa dan foto rumah ini berjalan sesuai harapan yaitu sukses semua. 4.3.1. pengujian pada smartphone pada gambar 22 a dan b adalah tampilan dari aplikasi arhomecaview , aplikasi catalog 3d desain rumah yang dibuat menggunakan unity 3d dan berjalan pada smartphone android. gambar 22a. tampilan aplikasi arhomecaview pada smartphone 11 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 gambar 22b. tampilan aplikasi arhomecaview pada smartphone 4.3.2. pengujian masing-masing marker pada gambar 23 a dan b adalah tampilan dari model desain rumah yang ditampilkan pada masingmasing marker yaitu gambar marker yang dibuat dari hasil render sweet home 3d dan gambar sketsa serta foto rumah, berikut tampilannya: gambar 23 a. tampilan model desain rumah pada masingmasing marker 12 lontar komputer vol. 7, no.1, april 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i01.p01 e-issn 2541-5832 gambar 23b. tampilan model desain rumah pada masingmasing marker berdasarkan gambar 23 dapat dilihat bahwa masing-masing marker dapat memunculkan object rumah sesuai dengan yang diharapkan. 5. kesimpulan berdasarkan pembahasan dan pengujian aplikasi pada penelitian ini, dapat diperoleh kesimpulan sebagai berikut: pembuatan aplikasi menggunakan unity 3d dalam pemanfaatan teknologi augmented reality baik dalam pembuatan antarmuka, object rumah, button dan script untuk tampilan serta fitur pada aplikasi ini berjalan sesuai dengan perancangan, yaitu dapat menggabungkan objek 3d rumah yang bersifat virtual dengan dunia nyata. secara keseluruhan fugsionalitas dari masing-masing bagian dapat berjalan pada smartphone android dengan baik. pada pengujian marker untuk menampilkan object rumah baik yang dibuat menggunakan tools sweet home 3d maupun blender dapat berjalan dan berhasil ditampilkan. pengujian pada marker yang dibuat secara digital, sketsa tangan dan foto dapat dijadikan marker dan dilacak dengan baik. daftar pustaka [1] b. t. gorbala and m. hariadi, “aplikasi augmented reality untuk katalog penjualan rumah,” its surabaya, 2010. [2] u. m. malang, m. fathoni, e. b. cahyono, s. kom, and w. a. kusuma, “alat musik perkusi augmented reality berbasis android,” jurnal teknologi inform. univ. muhammadiyah malang, 2012. [3] c. patrik et al., “visualisasi 3 dimensi desain interior perabotan rumah berbasis augmented reality pada mobile phone dengan sistem operasi android,” jurnal skripsi jurusan teknik informatika, pp. 1–8, 2013. [4] b. hariyanto, rekayasa sistem berorientasi objek. bandung: informatika, 2007. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p05 e-issn 2541-5832 115 perancangan network monitoring tools menggunakan autonomous agent java khurniawan e sa1, l.ahmad s. irfan aa2 ,i b k widiarthab3 ajurusan teknik elektro fakultas teknik universitas mataram jln. majapahit no.62 mataram nusa tenggara barat kode pos: 83125 1,2telp. (0370) 636087; 636126; ext 128 fax (0370) 636087 bprogram studi teknik informatika universitas mataram jln. majapahit no.62 mataram nusa tenggara barat kode pos: 83125 3telp. (0370) 636087; 636126; ext 128 fax (0370) 636087 abstrak tugas pengelolaan jaringan yang dilakukan administrator jaringan diantaranya yaitu pengumpulan informasi resource jaringan yang tersedia. teknologi snmp (simple network management protocol) memberikan fleksibilitas bagi administrator jaringan dalam mengatur network secara keseluruhan dari satu lokasi. aplikasi network monitoring tools berbasis agent java terdiri dari master agent yang bertugas untuk melakukan management request agent serta akses database. request agent yang bertugas untuk melakukan pemantauan server yang mengimplementasi library snmp4j dengan sistem multi-agent. disisi interface, aplikasi network monitoring tools menggunakan media web sebagai interface administrator sehingga dapat digunakan darimana saja dan kapan saja. hasil dari penelitian ini memperlihatkan bahwa aplikasi yang dibuat bekerja sebagai network monitoring tools mampu bekerja dengan persen error pada kisaran 0-18%. selain itu aplikasi ini menghasilkan tren pembacaan data server lebih stabil dan cepat dibandingkan dengan aplikasi cacti. hal ini didukung oleh kemampuan request agent yang mampu merespon tingkat beban kerja server yang di pantau. kata kunci : agent, java, snmp, cacti, network monitoring. abstract network management tasks are performed by the network administrator such as gathering available network resources information. the snmp (simple network management protocol) technology provides flexibility for network administrators in managing the overall network from a single location. agent based network monitoring tools java application consists of master agent whose job is to perform as well as the management agent request and database access. the request agent in charge for monitoring servers that implement snmp4j library with multi agent systems. for interface, network monitoring tools application using web media as an administrator interface that can be used from anywhere and at anytime. the results of this study showed that the application as a network monitoring tools are able to work with the percent error in the range of 0-18 % . besides these applications generate trend data readout server more stable and faster than the application cacti do. this is supported by the ability of the request agent to respond the level of server workloads keywords : agent, java, snmp, cacti, network monitoring. 1. pendahuluan tugas pengelolaan jaringan yang dilakukan administrator jaringan memiliki sejumlah kesulitan, diantaranya yaitu pengumpulan informasi resource jaringan yang tersedia serta melakukan pemantauan terhadap server dan router yang beroperasi pada jaringan. manajemen sistem jaringan komputer berbasiskan pada teknologi snmp (simple network management protocol) yang memberikan fleksibilitas bagi administrator jaringan dalam mengatur network secara keseluruhan dari satu lokasi [1]. banyak aplikasi 3rd party seperti cacti, mrtg, monit, munin, lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p05 e-issn 2541-5832 116 nagios, zenos dan zabix yang menyediakan banyak fitur dalam manajemen sistem jaringan komputer menggunakan protokol snm, dan diakses melalui web browser [2]. namun aplikasi aplikasi tersebut cukup sulit dikustomisasi menyesuaikan dengan kebutuhan instansi pengguna. dibutuhkan sebuah aplikasi mandiri yang sederhana agar mudah disesuaikan dengan kebutuhan dan memiliki fitur-fitur monitoring seperti pada aplikasi 3rd party pada umumnya. untuk menjawab permasalahan tersebut maka dibuatlah sebuah aplikasi network monitoring tools (nmt) berbasis agent java. agent java mampu bekerja secara berulang-ulang (autonomous) dan merespon sesuai dengan parameter yang diterima. penggunaan agent java sebagai pemantau server yang mampu merespon kondisi pembebanan server dalam bentuk interval pengambilan datanya (request scheduling) diharapkan dapat menjadi solusi untuk aplikasi mandiri network monitoring tools pada jaringan fakultas teknik universitas mataram. 2. landasan teori 2.1. snmp secara sederhana, snmp merupakan sebuah protokol yang didesain untuk memberikan kemampuan kepada pemakai untuk mengelola jaringan komputernya dari jarah jauh atau remote[3]. adanya snmp memungkinkan manajemen jaringan yang tersentralisasi, kuat, dan kompatibel pada semua platform. tujuan utama dari protokol snmp hanya pada satu tujuan yaitu melakukan remote manajemen dari peralatan [4]. sebuah jaringan yang dapat di-manage menggunakan snmp pada dasarnya memiliki tiga komponen, yaitu managed device, agent snmp, dan network-management system [4]. sebuah managed device adalah sebuah node (dapat berupa server, switch, router) di jaringan yang berisi agent snmp yang berada di jaringan yang dapat di manage. agent snmp adalah sebuah modul software network management yang berada di dalam managed device. agent ini mengetahui tentang informasi manajemen dan dalam menterjemahkan ke informasi yang kompatibel dengan snmp. pada sistem operasi linux telah disediakan aplikasi snmpd sebagai agent snmp. aplikasi nms menjalankan aplikasi yang dapat memonitor dan mengontrol managed device. nms memberikan resource memory dan prosesor yang dibutuhkan untuk manajemen network. 2.2. agent java software agent (selanjutnya di sebut agent saja) adalah entitas perangkat lunak yang didedikasikan untuk tujuan tertentu. agent bisa memiliki ide sendiri mengenai bagaimana menyelesaikan suatu pekerjaan tertentu atau agenda tersendiri. karakteristik dari agent [5]: a. autonomy: komputer umumnya hanya berespon pada manipulasi langsung. kontras dengan agent perangkat lunak yang mengamati lingkungannya dan bisa melakukan tindakan otonom. b. reaktif: suatu software agent berespon dalam waktu yang bermacam-macam untuk merubah dalam lingkungannya c. goal driven: s uatu agent bisa menerima request tingkat tinggi yang menentukan tujuan dari user manusia (atau agent lainnya) dan memutuskan dimana dan bagaimana untuk menjawab request tersebut. agent yang tidak berpindah ke host lain disebut stationary agent. multi agent system adalah sebuah system yang memungkinkan sejumlah agent (multi agent) bekerja sama untuk menyelesaikan suatu masalah yang tidak dapat dikerjakan oleh individu agent [5] ⁠. pada multi agent system, setiap agent bekerja secara multithreading diatas runtime java sehingga memberikan impresi bahwa agent mampu bekerja secara paralel independent. 2.3. jade jade (java agent development framework) merupakan sebuah kerangka kerja perangkat lunak yang diimplementasikan sepenuhnya dalam bahasa java [6]. jade memudahkan implementasi dari multi-agent sistem (mas) melalui middleware yang bekerja sesuai spesifikasi fipa (foundation for intelligent physical agent). karena sepenuhnya diimplementasikan dalam bahasa pemrograman java, maka jade juga mendapatkan seluruh keuntungan dari bahasa pemrograman tersebut, termasuk ketidak-tergantungan pada arsitektur platform. agent platform lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p05 e-issn 2541-5832 117 pada jade dapat didistribusikan di beberapa mesin yang berbeda, dan tidak perlu menggunakan sistem operasi yang sama. 3. metode penelitian 3.1. analisis kebutuhan sistem monitoring yang saat ini berjalan banyak menggunakan tools-tools buatan luar negeri yang memanfaatkan protokol snmp sebagai media monitoring pada suatu server. aplikasi yang baru tetap menggunakan protokol snmp sebagai media monitoring agar tidak terjadi perubahan langsung pada konfigurasi server dengan adanya penggantian aplikasi monitoring. network monitoring tools yang akan dibangun adalah pemanfaatan dari teknologi agent java, yang mana untuk proses monitoring dalam satu server ditangani oleh sebuah agent. semakin banyak host yang perlu dipantau maka agent yang diperlukan juga akan semakin banyak dan membutuhkan spesifikasi komputer yang cukup tinggi. interval request data akan diatur oleh agent dengan memantau tingkatan traffic jaringan dan beban kerja host. ini artinya agent yang akan melakukan request data akan secara bergiliran melakukan pengambilan data, sehingga traffic jaringan lebih stabil tanpa mengurangi performa aplikasi monitoring. 3.2. perancangan sistem perangkat lunak yang akan dibangun adalah sebuah tools untuk memantau jaringan atau network monitoring tools. pemantauan jaringan dilakukan dengan cara memanfaatkan protokol snmp untuk mengakses mib (management information bases) tiap host dan mendapatkan data sesuai oid (object id) yang dikirimkan oleh aplikasi daemon snmpd. proses permintaan data resource menggunakan library java snmp4j dan menghasilkan data set dari resource server yang dipantau. data set ini kemudian di simpan kedalam database dan ditampilkan pada aplikasi web yang di akses oleh client secara realtime sesuai data yang diterima. gambar 1. ilustrasi sistem monitoring lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p05 e-issn 2541-5832 118 berikut penjelasan alur proses monitoring jaringan : a. dengan menggunakan interface web, admin mendaftarkan semua server yang ingin dipantau kedalam sistem b. perangkat lunak yang akan dibangun adalah sebuah tools untuk memantau jaringan atau network monitoring tools. pemantauan jaringan dilakukan dengan cara memanfaatkan protokol snmp untuk mengakses mib (management information bases) dan disimpan pada database komputer monitoring. pendaftaran terdiri dari ip address, port snmp, dan community key untuk mengakses snmpd pada server tersebut. c. aplikasi mencetak 2 jenis agent yaitu master agent dan request agent. master agent adalah agent yang bertugas untuk mencetak request agent sesuai dengan data host yang terdapat pada database, menerima data resource jaringan dari request agent dan meng-entry data tersebut ke database aplikasi. request agent adalah agent yang akan melakukan request data ke server yang ingin dipantau, melakukan pengolahan data mengirimkan hasilnya ke master agent. d. request agent akan melakukan request resource data yang terdiri dari bandwidth traffic, memory usage, cpu usage, dan disk usage ke server secara bergantian dengan interval waktu berdasarkan tingkat beban kerja dan traffic server. interval waktu ini diperoleh dari kategori tingkat traffic data dan penggunaan cpu serta ram. e. pada web application, sistem akan mengakses database secara realtime untuk mendapatkan informasi resource jaringan yang telah dikumpulkan oleh master agent. 3.3. programming berikut beberapa prosedur yang digunakan dalam pembuatan program network monitoring java : a. prosedur utilitas sistem prosedur ini berfungsi sebagai pendukung aplikasi agent. terdiri dari koneksi database, akses file konfigurasi dan penyedia logging error. b. prosedur agent prosedur ini berfungsi sebagai prosedur utama agent. pada prosedur agent terdiri dari 2 class yaitu class master agent dan class request agent. c. prosedur komunikasi agent prosedur ini digunakan oleh agent untuk berkomunikasi dan bertukar data antar agent. d. prosedur pemantauan server prosedur ini digunakan oleh agent untuk melakukan pemantauan server. tediri dari pembentukan koneksi protocol udp, pengaksesan protocol snmp dan proses-proses pengolahan data yang diterima oleh agent 3.4. pengujian dalam pembuatan sistem, pengujian ditujukan untuk mengetahui kinerja sistem dalam melakukan proses pengumpulan data resource server. tahapan pengujian yang dilakukan antara lain : a. pengujian pembacaan data protokol snmp protokol snmp diakses dengan memanfaatkan library tambahan snmp4j dengan output berupa sebuah set data yang siap disimpan ke database. pengujian dilakukan dengan memeriksa apakah library tersebut dapat memberikan respon output set data sesuai input oidnya. b. pengujian perbandingan hasil pemantauan dengan aplikasi cacti pengujian perbandingan hasil pemantauan dengan aplikasi cacti berfungsi untuk mengetahui kinerja network monitoring tools dibandingkan dengan kinerja cacti sebagai aplikasi yang telah banyak digunakan. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p05 e-issn 2541-5832 119 4. hasil dan pembahasan 4.1. pengujian pembacaan data protokol snmp perbandingan memanfaatkan aplikasi top, bmon dan df sebagai referensi daa real dihasilkan data sebagai berikut : tabel 1. perbandingan hasil pemantauan system no item data real data pemantauan %error 1 processor 78.7 % 78 % 3.74 % 2 ram used 363 mb 321 mb 11.57 % 3 traffic in 17 kbps 14 kbps 17.64 % 4 traffic out 47 kbps 42 kbps 10.63 % 5 disk used 10.3 gb 10.3 gb 0 % 6 disk free 130 gb 130 gb 0 % dari tabel diatas terdapat besaran error antara pembacaan secara realtime dengan hasil pemantauan. faktor utama yang menyebabkan perbedaan hasil pemantauan antara aplikasi df, bmon dan top dengan aplikasi network monitoring tools memiliki delay waktu pengambilan. ketiga aplikasi tersebut memberikan informasi secara real time, sedangkan aplikasi network monitoring tools mengambil data dengan kecepatan berubah-ubah dengan nilai maksimum 20 detik sekali. hal ini dikarenakan mib pada snmp daemon hanya mengupdate databasenya dengan rate berkisar 15-20 detik. apabila data diambil kurang dari rate tersebut maka data yang didapatkan akan selalu sama. faktor lainnya yang mempengaruhi perbedaan hasil pemantauan adalah sistem pembulatan besaran yang didapat. 4.2. pengujian perbandingan hasil pemantauan dengan aplikasi cacti pada pengujian ini hasil pemantauan aplikasi wlti network monitoring tools akan dibandingkan dengan hasil pemantauan aplikasi cacti. pengujian ini bertujuan untuk mengetahui perbandingan kinerja aplikasi w lti network monitoring tools dengan aplikasi yang telah digunakan secara umum. berikut perbandingan data hasil pemantauan server yang diambil secara bersamaan dengan kondisi server idle : lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p05 e-issn 2541-5832 120 gambar 2. grafik data hasil pemantauan ram dan cpu server oleh cacti gambar 3. grafik data hasil pemantauan ram dan cpu server oleh wlti nmt dari kedua perbandingan diatas keanehan muncul pada data hasil pemantauan cacti. secara logis kondisi server yang idle memiliki besaran penggunaan ram dan cpu berada pada level terendah dan stabil (tidak berubah-ubah). sedangkan pada grafik hasil pemantauan cacti (gambar 2) dapat dilihat terdapat fluktuasi penggunaan resource server yang terus meningkat. sedangkan pada aplikasi wlti penggunaan ram dan cpu stabil dilevel 9% dan 0%. hal ini logis mengingat kondisi server yang idle dan dapat dicocokkan dengan aplikasi monitoring bawaan linux seperti top. diluar dari kompleksitas, fitur-fitur dan cakupan entitas jaringan yang mampu dipantau oleh cacti, dari kedua grafik perbandingan diatas dapat disimpulkan bahwa aplikasi w lti nmt memiliki akurasi pemantauan yang lebih baik dari cacti. selain itu aplikasi lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p05 e-issn 2541-5832 121 wlti nmt mampu melakukan pengambilan data dengan interval hingga 20 detik sedangkan cacti hanya menyediakan interval di 5 menit. 5. kesimpulan dari penelitian yang telah dilakukan, dapat ditarik kesimpulan sebagai berikut ; persentase error pembacaan data oleh aplikasi sebesar 3.74% untuk cpu usage, 11.57% untuk ram usage, 17.64% untuk traffic in dan 10.63% untuk traffic out. hal ini dipengaruhi oleh interval pengambilan data dan sistem pembulatan besaran data. sedangkan persentase error pembacaan data untuk disk usage dan disk free sebesar 0%. hasil pengujian perbandingan antara w lti nmt dengan cacti menunjukkan bahwa pada kondisi server istirahat (idle) data hasil pembacaan oleh cacti menampilkan grafik penggunaan ram yang cenderung naik dan grafik penggunaan cpu yang konstan. sedangkan data hasil pembacaan oleh w lti nmt menampilkan grafik penggunaan ram dan cpu yang konstan. hal ini berarti aplikasi w lti network monitoring tools lebih akurat dibanding cacti. pengambilan data oleh aplikasi network monitoring tools yang mampu bekerja dengan interval maksimum sebesar 20 detik sekali, sedangkan cacti hanya mampu bekerja dengan interval sebesar 5 menit sekali. hal ini berarti bahwa w lti network monitoring tools mampu menyajikan data lebih akurat. agent java berbasis jade dapat diimplementasikan sebagai pemantau server dengan memanfaatkan library snmp4j sebagai penyedia layanan akses ke protokol snmp. daftar pustaka [1] h. sajati, “memonitor server dengan cacti,” academia.edu. [2] “pengawasan jaringan berbasis web.” 2007. [online]. available: ftp://ftp.gunadarma.ac.id/linux/magazine/infolinux/2007/infolinux_07-2007/3841_alternatif_07.pdf. [accessed: 03-may-2016]. [3] a. m. shiddiqi and a. p. nugraha, “sistem monitoring jaringan dengan protokol snmp.” 2011. [4] cisco, “simple network management protocol.” pp. 1–8, 2013. [5] d. b. lange and m. oshima, “programming and deploying java mobile agents with aglets,” in ibm japan, 1998, p. 225. [6] f. bellifemine, g. caire, and d. greenwood, developing multi agent systems with jade. london: john wiley & sons. ltd, 2004. lontar template lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 41 recognition of the baby footprint characteristics using wavelet method and k-nearest neighbor (k-nn) i made aris satia widiatmika a1, i nyoman piarsa a2, arida ferti syafiandinib3 adepartment of information technology, udayana university bukit jimbaran, bali, indonesia 1ariswidiatmika@student.unud.ac.id 2manpits@unud.ac.id bdepartment of library and information science, yonsei university 50 yonsei-ro, seodaemun-gu seoul 03722, korea 3afsyafiandini@yonsei.ac.kr abstract individual recognition using biometric technology can be utilized in creating security systems that are important in modern life. the individuals recognition in hospitals generally done by conventional system so it makes more time in taking identity. a newborn baby will proceed an identity tagging after birth process is complete. this identity using a bracelet filled with names and ink stamps on paper that will be prone to damage or crime. the solution is to store the baby's identity data digitally and carry out the baby's identification process. this system can increase safety and efficiency in storing a baby's footprint image. the implementation of baby's footprint image identification starting from the acquisition of baby's footprint image, preprocessing such as selecting roi size baby's footprint object, feature extraction using wavelet method and classification process using k-nearest neighbor (k-nn) method because this method has been widely used in several studies of biometric identification systems. the test data came from 30 classes with 180 images test right and left baby's footprint. the identification results using 200x500 size roi with level 4 wavelet decomposition get recognition results with an accuracy of 99.30%, 90.17% precision, and 89.44% recall with a test computation time of 8.0370 seconds. keywords: footprint, feature extraction, wavelet, k-nearest neighbor. 1. introduction information technology has developed in all fields, one of which is in the health sector, such as using biometric technology. newborn babies generally already have an identity marker using a footprint and a bracelet with a name on the baby's feet to identify standard operating procedures for infant safety. the identification system using conventional baby footprints using ink and paper media. this allows human error to occur. systems that are still conventional should be replaced with digital biometric recognition systems to recognize individuals optimally and avoid data loss or damage. biometrics is a technology used to create identification and security systems that are used in everyday life. biometrics uses data from parts of the human body with special characteristics that make it difficult for others to imitate or steal. the baby's footprint is one part of the body that can be used in an individual identification system. research on baby feet is rarely used as objects in the identification system, so research is necessary. the main features found on the baby's feet' soles (including lines, protrusions, small dots, single dots, and textures) can be used as feature data to create a baby identification system. research using the baby's footprint aims to improve what was previously conventional into a digital system capable of storing digital data and identifying babies in hospitals. the baby's footprint identification system goes through the acquisition stage using a smartphone camera to get an image of the research object. the camera produces different image orientation images depending on the baby's footprint captured [1]. the method feature extraction wavelet provides mailto:manpits@unud.ac.id lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 42 time information and compresses data without removing redundant data by reducing computation size and time [2]. the process of taking features with wavelet using an image decomposition process produces a sub-band image, where the components are produced by decreasing the level of decomposition. image decomposition is done by passing high-frequency and lowfrequency signals, which produce the approximate coefficient values, horizontal, vertical, and diagonal. discrete wavelet transform is a more commonly used method because it is easy to implement, and the computation time is shorter. the classification k-nearest neighbor method is a method for determining the class, which is done by looking for the k closest neighbors with the test image and selecting the prediction class with the highest number [3]. the number of nearest neighbor's data can be determined to get the best calcification results. the purpose of the k-nearest neighbor algorithm is to classify an object based on the learning data model, which is used to determine the class of objects that are not yet known by matching feature values. the method is very influential on the accuracy of the identification of a system. besides that, a parameter is used, namely roi (region of interest) in this study. the purpose of the roi parameter is to test the effect of the roi measure on the accuracy obtained in the identification system. the wavelet method and the k-nearest neighbor (k-nn) method have been widely used to make image identification systems and research related to biometric image processing. research using the feature wavelet extraction method and the similar k-nn calcification method have been carried out. the study was conducted by armanda using the method wavelet and classification k-nearest neighbor (k-nn) on the footprint object to identify someone's identity. the test results show the best accuracy decomposition level 4 using the parameter k = 1 with the approach euclidean distance of 98% using the system autorotate. the computation time produced by each image's average time in the feature extraction process haar wavelet is 2.9796 seconds and 0.00229 seconds in the classification process [4]. the following research conducted by adinda maulida discusses the introduction of individuals using adult women's soles and men's feet with the feature extraction method. discrete wavelet transform (dwt) and use kernel svm classification algorithm polynomial multiclass one against one has the highest accuracy of 72% with the fastest computation time of 66.7141 seconds [5]. based on these studies, a study was made using the wavelet feature extraction method and the k-nearest neighbor classification method in making a baby's recognition system because seeing the standard hospital operating procedures for newborns is still conventional, it is still inefficient and still exists. several cases of abduction in infants. this study aims to create a system for identifying infant identity in tackling criminal acts such as kidnapping or swapping babies during childbirth and creating a digital system that previously still used footprint ink on paper that is easily damaged or human error. the application of individual recognition using the baby's footprint is expected to solve the problems previously faced. 2. research methods character recognition baby's footprint using feature extraction method wavelet and the classification k-nearest neighbor (k-nn) through two main stages, namely the training dataset and testing dataset stage. this stage is shown in figure 1. figure 1. system overview lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 43 figure 1. is an overview of the baby's foot recognition system. the system has several process modules: the acquisition module, preprocessing module, feature extraction module, and classification module. the acquisition process resulted in a dataset of the baby's feet obtained divided into 2, training data totaling 420 images of right and left feet, test data totaling 180 images of right and left feet. the following process is preprocessing starting from grayscaling, which is converting an rgb image into an image that only has a gray level color, then carried cropping is starting by looking for the value threshold so that objects with the background can be distinguished for cutting the region of interest (roi) obtained based on the percentage of the object specified after that, the image size normalization process (is carried out resize) to uniform the size pixel of the image cropped and speed up the computation process. the next feature extraction process is an important step in pattern classification and aims to extract relevant information to characterize each class [6]. this process uses the method wavelet with the level best decomposition. this process uses the wavelet method with the best decomposition level. the results obtained by feature extraction used system reference data to distinguish one foot's owner from another. the classification is divided into two processes, namely the training process and the testing process. the training process is a process of training the feature value data obtained in the feature extraction process using the k-nearest neighbor (k-nn) method which produces a file template k-nn used in the process of matching the baby's feet. the testing process matches the value of the special features obtained in the test image against the template k-nn file obtained during training to produce output in the form of the name of the owner of the baby's feet. there are several test scenarios carried out to get the best results from the introduction of the soles of the feet, namely testing the level decomposition of the method wavelet, measuring roi on the texture of the baby's feet, determining the k-nn classification parameter value, and the effect of adding a rotational image to the training dataset. 2.1. baby's footprint feet the human foot has a strong and complex mechanical structure. the foot consists of 26 bones, 33 joints and consists of hundreds of muscles, tendons, and ligaments. the soles of the feet are located on the bottom of the human skin. the skin on the feet' soles has neither hair nor pigment, so the pore concentration of sweat is high. the baby's footprint has creases that form during embryogenesis and do not have sebaceous glands [7]. from the toes' tips to the heels, the baby feet' skin has fine lines protruding from each other like grooves that form a particular structure. the fine lines are difficult to change since a person is born but can experience a change in size that gets bigger and can change due to special treatment, such as scratching or burning. the baby footprint used in the study were obtained from 30 babies with a total of 600 images of the right and left feet with a resolution of 500x900 pixels. examples of images of baby's feet used in this study can be seen in table 1. table 1. baby's footprint image documentation data baby's name result of documentation final result agus akas table 1 is an example of an image acquisition result that has been taken and then edited to improve image quality, speed up the computation process and reduce the use of storage space. the stage after image acquisition is preprocessing, such as image cropping and grayscale image conversion, which is the initial process in classifying objects that aim to prepare the image to be structured [8]. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 44 2.2. cropping (roi) cropping is a process of cutting an image at certain coordinates in an area in the image. the process is cropping very important to do before the image is processed to be characterized, to get parts of the image considered important and have a lot of information. the process of cutting the image part uses two coordinates, namely the initial coordinate of the cutting result and the final coordinate, which is the endpoint of the cut. coordinates form a rectangular shape where each pixel will be stored in a new image [9]. the result cropping image can be seen in figure 2. figure 2. result cropping image figure 2 is an image resulting from the process of cropping. the roi measurement used is determined by the width and height of the baby's foot object. the cropped image has a size of 200x500 pixels. 2.3. image grayscale image grayscale is a type of image with a pixel value. image grayscale has an intensity of 0 to 255. the value 0 in the image grayscale represents black, and the value 255 represents white. the storage space for images grayscale is economical because it only requires an 8-bit pixel storage value. the following is a technique for converting rgb colors to a grayscale shown in equation (1) [10]. g = (0.229 𝑥 𝑅) + (0.587 𝑥 𝐺) + (0.114 𝑥𝐵) (1) note: g = image after conversion to image gray r = image on layer red g = image on layer green b = image on layer blue result cropping image can be seen in figure 2. figure 3. result grayscale image figure 3 is an image converted from an rgb image to an image grayscale. the conversion process is carried out to make it easier to process because it only has one intensity value for each pixel. the intensity of the image value grayscale ranges from 0 to 255. the value 0 represents black, and the value 255 represents white so that the color between them is gray. 2.4. discrete wavelet transform (dwt) there are various types of wavelets, including transformations in discrete wavelet transform (dwt). discrete wavelet transform (dwt) is a multilevel decomposition technique that localizes lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 45 features in space and frequency. the process at the dwt decomposition level produces four subparts of the image. the image's four sub-sections are obtained through the low-pass and highpass filters that work through the image rows and columns. decomposition wavelet produces four new images, namely low-resolution approximation (ll), horizontal (hl), vertical (lh), and diagonal (hh) detail component. the four subsections' results can be recombined to obtain the original image before being decomposed [11]. in the following, we can see the 2-dimensional signal decomposition process at level 1 as follows. the 2-dimensional signal decomposition process at level 1 can be seen in figure 4. figure 4. decomposition discrete wavelet transform level 1 figure 4 is a picture of the stage of the decomposition process at level 1, which produces four pieces of sub-band new, namely: 1. ll: sub-group low transformation results of rows and columns (approximation). 2. hl: the sub-group high from the transformations on the line, and the sub-group low of its column transformations. (horizontal). 3. lh: the sub-group low of the transformed lines and the sub-group high of its column transformations. (vertical). 4. hh: sub-group high on the results of the transformation of rows and columns (diagonal). image coefficients approximation, horizontal, vertical, and diagonal, has the foot's characteristic features that can be used for identification and verification persons. the decomposition process of the foot image at level 1 can be seen in figure 5. figure 5. decomposition results level 1 figure 5 illustrates the results of the decomposition process at level 1 image of baby's feet, based on the image above the results of each image, namely the approximation of the ll sub-band, the lh horizontal sub-band. the vertical hl sub-band and the diagonal hh sub-band [12]. 2.5. k-nearest neighbor (k-nn) the classification process aims to classify the data obtained from the feature extraction results and then match them to new data to obtain predictive results. k-nearest neighbor will classify object features based on its closest neighbors [13]. k-nearest neighbor is said to be a lazy learner because it is based on learning. the k-nearest neighbor modeling process can be delayed until it is needed to classify the test data samples. the results of training data characteristics are lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 46 explained by the numerical attributes on n-dimensions and stored in n-dimensional space. when testing the test data (unknown class label), the algorithm k-nearest neighbor looks for the training data that is closest to the test data. the proximity value search is usually calculated based on the metric distance. the distance measurement will be calculated on the basis euclidean distance is represented in the following equation (2) [14]. d(a, b) = √∑ (ak − bk ) 2n k=1 (2) note: d(a,b) = euclidean distance ak = test data n = dimension of data bk = training data figure 6. k-nn classification results figure 6 is a display of the results of the testing process. the table above shows the results of the image classification tested sequentially down so that it is known the number of images that are correctly classified based on the class. 3. result and discussion results and discussion describe the application trial and test analysis's appearance that produces the best level of accuracy in the infant foot recognition system. tests carried out on the system using sample data totaling 420 images and testing data totaling 180 images. 3.1. implementation the application trial of the character recognition of baby's foot lines is done after completing the system design. the application interface has several main buttons: choose the image, preprocessing, decomposition, show values, image identification, and probability. figure 7. view open image lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 47 figure 7 displays the test results open image. the test image that has been prepared is then selected to be displayed. the application successfully displays the image of the foot that has been selected by the user along with the name of the file image to be displayed on the main page of the application. figure 8. display preprocessing image figure 8 is an image display of the process preprocessing in the baby's foot recognition application. the initial stage of the process preprocessing starts from determining the roi of the test image, then resizing it to equalize the image size after cropping, then the results are converted into image grayscale. the process results are preprocessing displayed in the box image preprocessing that has been prepared on the main page of the application. figure 9. image decomposition display figure 9 is a display of the result of image decomposition with the level of decomposition that has been determined in the system. the image is preprocessed decomposed using the method wavelet. to get the value of its special characteristics, the decomposed image is displayed in 4 boxes image decomposition that has been prepared on the main page of the application. the image in the upper left corner is an approximation image, in the upper right corner is a horizontal image, in the lower-left corner is a vertical image and in the lower right corner is a diagonal image. the approximate image is a decomposition image that stores many characteristics of the baby's footprint. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 48 figure 10. display feature value table figure 10 is a display of the feature values displayed in a characteristic table. the approximate image of the decomposition results has a coefficient value which is used as a special characteristic of the baby's feet being tested. figure 11. display of identification results figure 11 displays the recognition results from the image being tested in the form of the name of the owner of the baby's feet. the test image recognition process results that have been carried out, namely agus, are displayed in the column results that have been prepared on the main page of the application. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 49 figure 12. display probability results figure 12 displays the results of the prediction of the test image on table probability which shows that namely, agus class is a class that is predicted as the result of having baby's feet tested with a 100% percentage. 3.2. testing effect level decomposition wavelet method wavelet has the function of image decomposition, which aims to reduce the image's size based on the level specified that the characteristic values obtained more efficiently. the level used in image decomposition produces different features, so testing at each level is needed to get better recognition results. this study tested the decomposition at level 1 to level 6 with the number of images tested, namely 180 images with an roi size of 200x200 pixels and a value of k = 1, shown in table 2. table 2. test results for the effect of level decomposition wavelet level decomposition wavelet accuracy precision recall level 1 98.96% 87.53% 84.44% level 2 99.00% 87.26% 85.00% level 3 99.00% 87.87% 85.00% level 4 99.11% 89.19% 86.67% level 5 98.93% 85.65% 83.89% level 6 98.41% 78.91% 76.11% test results show the results of the test comparison using the decomposition parameter. level wavelet on the baby's foot image produces the highest accuracy of 99.11%, with a precision of 89.19% and a recall of 86.67% for decomposition. wavelet level 4. the test results prove that the higher the level of decomposition, the fewer characteristic values are obtained. the more the number of features used is not directly proportional to the accuracy of precision and recall obtained and vice versa if the feature value is too little. 3.3. testing the effect of roi size roi roi is determining the object taken at the stage cropping to be processed in preprocessing stage. the roi size is generally square and can then be adjusted to get more texture from the baby's feet' soles. testing with the roi parameter is carried out on the decomposition wavelet level 4 with image sizes 200x200, 200x300, 200x400, 200x500, and 200x600 pixels with the number of images tested, namely 180 images at wavelet decomposition level 4 and the value of k = 1 which can be seen in table 3. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 50 table 3. test results for the effect of roi size roi size roi (pixel) accuracy precision recall 200x200 99.11% 89.19% 86.67% 200x300 99,22% 90,46% 88,33% 200x400 99,26% 90,44% 88,89% 200x500 99,30% 90,17% 89,44% 200x600 99,22% 89,78% 88,33% the test results show the comparison of the test results using the roi parameter in the baby's foot recognition system, with the highest accuracy value of 99.30% with a precision of 90, 17%, and a recall of 89.44% on an roi measuring 200x500. the test results show that the greater the roi, the greater the accuracy obtained, the value of the region used should not be on the background so as not to affect the feature extraction process. 3.4. testing the effect of k value on k-nn classification image recognition using the k-nn parameter is the determination of the value k neighbor in the k-nn method. k's value is used as a vote for the prediction results of the closest class to the image being tested. testing with the k parameter is carried out to determine the k value, which is accurate in recognizing the owner of the baby's feet. the k parameter tested values were 1, 3, 5, 7 and 9 with the number of images tested, namely 180 images with an roi size of 200x500 pixels and level 4 wavelet decomposition, which can be seen in table 4. table 4. results of testing the influence of k parameters value k classification k-nn accuracy precision recall k=1 99,30% 90,17% 89,44% k=3 99,04% 87,92% 85,56% k=5 98,56% 81,38% 78,33% k=7 98,41% 80,21% 76,11% k=9 98,07% 77,55% 71,11% the test results show the comparison of the test results using the k-nn parameter, which results in a decreased percentage of accuracy compared to the value of k = 1, which has been used in previous tests. this result is due to the characteristic value obtained in the feature extraction process wavelet in the training image dataset is not much different between classes. the greater the number of k values used will reduce the system's ability to determine the test image class's prediction. 3.5. testing the effect of image rotation image recognition using rotation parameters is a test that is done by adding the training dataset to be 2x the previous number with an image that has been rotated clockwise. testing with rotation parameters was carried out to determine the effect of adding a rotational image to the training dataset with accuracy in recognizing the baby's feet' owner. the tilt angle used from the rotational parameter tested is 10 °, 20 °, and 30 ° with the number of images tested, 180 images with 200x200 pixel roi size, level 4 wavelet decomposition k = 1 value which can be seen in table 5. table 5. testing results of the effect of image rotations rotation accuracy precision recall 10° 99,22% 89,33% 89,33% 20° 99,26% 91,07% 91,07% 30° 99,30% 91,37% 91,37% the results obtained indicate that the addition of a training dataset in a rotated image does not provide a better accuracy improvement than the test. it was previously done because the image lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 51 trained with a certain slope produces a different feature value from the normal test image so that the testing process does not provide a change inaccuracy. 3.6. comparison result research by adinda maulida with an infant foot recognition system has similarities using the feature extraction method, wavelet. still, the difference between the research objects used is the soles of adult men's and women's feet. the acquisition process in this study uses a scan tool with the number of images as many as 50 data, which is divided into 25 training data and 25 test data. the training data and test data have five classes, and each class contains five pieces of data. the preprocessing process in this study includes converting the image to grayscale, cropping the roi in the area under the big toe, and converting the image histogram equalization. feature extraction using the method discrete wavelet transform (dwt) with decomposition level 2in the ll sub-band and the method used to identify the soles of the feet is the svm multiclass one against one kernel type polynomial with the highest accuracy of 72% and computation time of 66.72 seconds[5]. while the research carried out on the baby's foot recognition system went through the acquisition process using camera smartphone with the results obtained by 30 different baby classes, with the amount of right and left foot image data totaling 600 images then divided into 480 training image datasets and 180 test image datasets. the process preprocessing carried out is converting the image to grayscale, cropping using the roi measure, which takes most of the baby's foot texture and normalizes the image size. the extraction of the features of the baby's feet using the method discrete wavelet transform (dwt) type of haar with decomposition level 4in the ll sub-band and the method used to identify the sole of the baby's feet k-nearest neighbor (k-nn) with parameter k = 1 gets an accuracy percentage of 99.30%, precision 90.17% and recall 89.44%with a computation time of 8.0370 seconds. 4. conclusion the final results of the research carried out on the application of baby's foot recognition through the acquisition process using a camera smartphone with the results obtained 30 different baby's classes, with the amount of right and left foot image data totaling 600 images then divided into 480 training image dataset and image dataset test 180 pieces. the process preprocessing carried out is converting the image to grayscale, cropping using the roi measure, which takes most of the baby's foot texture and normalizes the image size. the best test results were obtained using an roi size of 200x500 by taking the texture of the baby's feet, which then performed feature extraction using the method discrete wavelet transform (dwt) type of haar with decomposition level 4in the ll sub-band and the method for identifying baby's feet using k-nearest neighbor (k-nn) with parameter k = 1 gets an accuracy percentage of 99.30%, precision 90.17% and recall 89.44% with a testing computation time of 8.0370 seconds. references [1] g. ngurah sanditya riantama, i. nyoman piarsa, and g. made arya sasmita, “pengaruh segmentasi terhadap hasil rotasi citra menggunakan metode minimum area rectangle,” jurnal ilmiah merpati (menara penelitan akademik teknologi informasi), vol. 7, no. 2, p. 95, 2019, doi: 10.24843/jim.2019.v07.i02.p01. [2] m. manjunath, "biorthognal, symlet & discrete meyer wavelet based palm print recognition system," perspectives in communication, embedded-systems signal-processing, vol. 2, no. 7, pp. 319–323, 2018. [3] n. l. w. s. r. ginantra, “deteksi batik parang menggunakan fitur co-occurence matrix dan geometric moment invariant dengan klasifikasi knn,” lontar komputer jurnal ilmiah teknologi informasi, vol. 7, no. 1, p. 40, 2016, doi: 10.24843/lkjiti.2016.v07.i01.p05. [4] armanda nur fadhlillah, “analisis dan implementasi klasifikasi k-nearest neighbor (k-nn) pada sistem identifikasi biometrik telapak kaki manusia,” telkom university collection, vol. 2, no. 2, pp. 2876–2883, 2015. [5] y. n. f. adinda maulida, rita magdalena, “implementasi metode discrete wavelet transform (dwt) dalam sistem identifikasi telapak kaki manusia dengan klasifikasi support vector machine (svm),” prosiding seminar nasional aplikasi sains & teknologi (snast) 2018, no. september, 2018. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 52 [6] novar setiawan and i. m. suwija putra, “klasifikasi citra mammogram menggunakan metode k-means, glcm, dan support vector machine (svm),” jurnal ilmiah merpati (menara penelitian akadademik teknologi informasi), vol. 6, no. 1, p. 13, 2018, doi: 10.24843/jim.2018.v06.i01.p02. [7] m. melina, dr.ir.bambang hidayat, suci auliya, st., “pengklasifikasian tinggi dan berat badan manusia berdasarkan citra telapak kaki menggunakan metode discrete wavelet transform (dwt) dan support vector machine-multiclass (svm-mc),” telkom university, vol. 5, no. 3, pp. 5245–5257, 2018. [8] i. g. a. socrates, a. l. akbar, m. s. akbar, a. z. arifin, and d. herumurti, “optimasi naive bayes dengan pemilihan fitur dan pembobotan gain ratio,” lontar komputer journal ilmiah teknologi informasi, vol. 7, no. 1, p. 22, 2016, doi: 10.24843/lkjiti.2016.v07.i01.p03. [9] f. muwardi and a. fadlil, “sistem pengenalan bunga berbasis pengolahan citra dan pengklasifikasi jarak,” jurnal ilmiah teknik elektro komputer dan informatika, vol. 3, no. 2, p. 124, 2018, doi: 10.26555/jiteki.v3i2.7470. [10] m. a. r. muhammad rafi farhan, agus wahyu widodo, “ekstraksi ciri pada klasifikasi tipe kulit wajah menggunakan metode haar wavelet,” jurnal pengembangan teknologi informasi dan ilmu komputer, vol. 3, no. 3, pp. 2903–2909, 2019. [11] e. p. p. ezy claudia nivsky, ernawati, “aplikasi biometrika pencocokan citra daun telinga berbasis tekstur dan bentuk menggunakan metode transformasi wavelet dan chain code,” rekursif jurnal informatika, issn : 2303-0755, vol. 4, no. 3, pp. 325–333, 2016. [12] l. k. p. b. mamta dewangan, "palmprint recognition using pca and dwt," journals for international shodh in engineering and technology, vol. 01, no. 06, pp. 1–6, 2016. [13] i. w. a. s. darma, "implementation of zoning and k-nearest neighbor in character recognition of wrésastra script," lontar komputer jurnal ilmiah teknologi informasi, vol. 10, no. 1, p. 9, 2019, doi: 10.24843/lkjiti.2019.v10.i01.p02. [14] a. a. syafitri hidayatul aa, yuita arum s, “seleksi fitur information gain untuk klasifikasi penyakit jantung menggunakan kombinasi metode k-nearest neighbor dan naïve bayes,” jurnal pengembangan teknologi informasi dan ilmu komputer, vol. 2, no. 9, pp. 2546– 2554, 2018. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 256 sistem akuisisi citra stereo untuk mengukur gelombang laut teluk pantai ngrenehan yogyakarta nyoman jelun fakultas teknik, universitas sarjanawiyata tamansiswa, yogyakarta e-mail: nym_jelun@yahoo.co.id abstrak dewasa ini, pengukuran gelombang lautdilakukan dengan alat-alat seperti tide gauge, wavehunter, dan waverider bouy. disamping harganya yang relatif mahal, kelemahanalat-alat ukur gelombang laut ini adalah mengoperasikannya yang rumit dan kurang aman, karena perangkat utamanya diletakkan dilaut sehingga rentan terbawa arus gelombang atau terseret perahu nelayan.oleh karena itu, dikembangkan suatu sistem akuisisi citra stereo (sacis) berbasis fotogrametri terestris yang dapat digunakan untuk mengukur gelombang laut. sacis memiliki beberapa keuntungan, yakni harganya yang murah relatif terhadap alat-alat ukur gelombang laut yang sudah komersial, perawatannya mudah karena perangkat utama sacis yakni kamera diletakkan di daratan pantai, dan pengukuran gelombang laut dapat dilakukan secara real time. uji laboratoriumsacis menunjukkan akurasi sacis relatif tinggi karena simpangannya kurang dari 5%relatif terhadap hasil pengukuran dengan probemeter.selanjutnya, sacis digunakan untuk mengukur gelombang laut in-situ di telukpantai ngrenehan gunung kidul yogyakarta. hasil pengukurannya cukup valid dimana karakter gelombang laut teluk pantai ngrenehan sangat komplek. kompleksitas itu menunjukkan bahwa gelombang di teluk adalah campuran gelombang yang datang dari laut lepas dan gelombang pantulan dari tebing di kiri dan di kanan teluk. kata kunci: gelombag laut, citra stereo, sacis, probemeter abstract nowdays, the sea wave is usually measured by devices such as tide gauge, wavehunter, and waverider bouy. besides, theses devices are costly and the usage is complicated, moreover, the safety is poor because the main of devices should be located in the sea so that can be swept by the wave. for the reason, the aqcusition system of stereo image (sacis) for measuring of sea wave has been deployed based on fotogrametry teretris. this less expensive device is simple in maintenance because the main device camera is located on shore. the laboratory testing of sacis shows the accuracy is high. the deviation is less than 5% compare with probemeter. afterward, the sacis is utilized to measure in situ sea wave at ngrenehan beach in gunung kidul yogyakarta. under the circumstance which is the character of sea wave in the location is very complex but the result of measurement is somewhat valid. keyword: sea wave, stereo image, sacis, probemeter 1. pendahuluan pemanfaatan sistem akuisisi citra stereo (sacis) untuk mengukur jarak dan elevasi atau koordinat titik yang citranya diakuisisi dari jarak dekat termasuk lingkup fotogrammetri terestris (ft). pada awalnya, ft dimanfaatkan untuk pemetaan situs-situs bangunan, daerah galian, terowongan, dan cadangan material. didukung oleh perkembangan teknologi informasi, ft berkembang dan diterapkan pada berbagai bidang seperti: pertanian, konservasi, ekologi, kehutanan, arkeologi, antropologi, arsitektur, geologi, geografi, teknik, kriminologi, kedokteran, investigasi kecelakaan lalu lintas, dan oseanografi [1]. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 257 sacisadalahsuatu sistem penginderaan binokular artifisial. pada sistem penginderaan binokular (human vision), sinyal atau pantulan cahaya dari objek penginderaan ditangkap oleh mata kiri dan mata kanan. sinyal dari objek penginderaan itu diteruskan ke otak melalui saraf. selanjutnya, sinyal itu dianalisis oleh otak sehingga timbul persepsi tentang objek penginderaan itu. persepsi metrik manusia terhadap objek yang dilihatnya berbanding terbalik dengan jarak, artinya semakin jauh jarak manusia dengan objek yang dilihat maka benda itu tampak semakin kecil, dan sebaliknya. persepsi metrik objek bergantung pada sudut paralaks yakni sudut yang dibentuk oleh obyek dengan kedua mata[2]. semakin kecil sudut paralaks, maka objek dipersepsi semakain kecil dan sebaliknya[2].analog dengan sistem penginderaan binokular, kamera stereo pada sacis adalah mata artifisial, sedangkan komputer dan software pengolah citra stereo menjadi citra 3d adalah jaringan saraf dan otak artifisial[3]. persepsi metrik dalam sacis analog dengan dimensi objek pencitraan yang diukur. 2.1 perangkat sacis seperti telah diuraikan pada bagian awaltulisan ini, bahwa sacis adalah sistem penginderaan binokular artifisial. agar supaya sacis dapat difungsikan sebagai alat gelombang laut, maka diperlukan sebuah skala citra yakni dua buah titik pada bidang pencitraan yang telah diketahui jaraknya. skala citra itu analog dengan mistar pada pengukuran jarak dan elevasi secara manual. perangkat pendukung sacis digolongkan menjadi dua yakni; perangkat keras, dan perangkat lunak. perangkat keras sacis terdiri atas sepasang kamera yang merek, tipe, dan media rekamnya sama, sepasang tripod, sejumlah bola plastik sebagai objek apung, skala citra, dan sebuah personal komputer.bola-bola plastik itu berfungsi sebagai titik-titik pengukuran di permukaan air laut. perangkat lunak sacis adalah software bawaan kamera atau software komersial lain untuk memindahkan citra pada media rekam (card memory) ke hardisc, dan program komersial photo modeller untuk merekonstrusi citra stereo menjadi citra tiga dimensi (3d)[4]. prisip kerja dan tata letak perangkat keras sacis untuk mengukur jarak dan elevasi dapat dijelaskan dengan diagram blok (gambar 1). citra objek-objek pencitraan yang tersebar di permukaan air laut dan skala citranya diakuisisi dengan kamera stereo. citra stereo objek-objek pencitraan dan skala citranya direkonstruksi menjadi citra 3d. koordinat objek-objek pencitraannya diekstrak dari citra 3d itu. gambar 1.tata-letak perangkatsacispada aplikasi dan uji kinerja sacis untuk mengukur gelombang laut di teluk pantai ngrenehan runtunan citra 3d objek apung perubahan posisi objek apung citra 2d kiri objek apung mistar vertikal citra 2dkanan lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 258 2.2 rekonstruksi citra stereo menjadi citra 3d pada sacis prinsip dasar rekonstruksi citra stereo menjadi citra 3d pada sacisadalah inversi transformasi sistem koordinat 3d menjadi sistem koordinat bidang citra 2 dimensi (2d) model proyeksi kamera phinole seperti ditunjukan gambar 2. pada ortofoto (kamera tidak miring) cahaya dipantulkan oleh obyek p(xp, yp, zp) pada sistem koordinat kamera 3d menuju pusat proyeksi (pusat sistem koordinat kamera) melalui bidang citra, sehingga terbentuk citra titik p’(up’, vp’) pada sistem koordinat bidang citra 2d[1,5]. persamaan transformasi sistem koordinat 3d menjadi sistem koordinat bidang citra 2d adalah sebagai berikut: 1 0100 00 00 1 0 0 ' ' p p p o o p pp pp p p p p p p z y x vf uf z yzfy xzfx z v u z y x (1) dengan f adalah panjang fokus kamera, xp , yp, dan zp adalah koordinat titik p pada sistem koordinat kamera 3d. up’, dan vp’ adalah koordinat citra titik p yakni p’ pada sistem koordinat bidang citra 2d. oleh karena sistem koordinat bidang citra adalah sistem koordinat 2d, maka nilai w semua titik pada bidang citra adalah 0. w adalah sumbu imajiner pada sistem koordinat bidang citra 2d, yakni sumbu yang sejajar dengan sumbu optik kamera atau sumbu z pada sistem koordinat kamera 3d. uo, dan vo adalah principal point bidang citra.matrik 3x4 pada persamaan 1 adalah matrik orientasi interior kamera. apabila citra diakuisisi dengan kamera miring, maka orientasi eksterior kamera, harus diperhitungkan sehingga persamaan 1 menjadi: xmxmm z y x tr vf uf v u z p p p toy ox p p p 21 3 ' ' 1 10 0100 00 00 1 (2) dengan fx danfy adalah panjang fokus eqivalen (dalam piksel) pada arah sumbu x dan y. tzyxx )1,,,( adalah koordinat objek titik pencitraan pada sistem koordinat bumi 3d.zp juga disebut kedalaman titik p dilihat dari sistem koordinat kamera. madalah matrik proyeksi 3x4, m1 adalah elemen matrik orientasi interior kamera, m2 adalah elemen matrik orientasi eksterior kamera. oleh karena persamaan 1 dan 2 adalah persamaan dasar transformasi sistem koordinat 3d menjadi sistem koordinat bidang citra 2d maka faktor skew, dan distorsi radial yang disebabkan oleh ketidaksempurnaan kamera belum diikutkan.namun demikian, softwarephotomodeller pro 5 yang digunakan untuk merekonstruksi citra stereo 2d menjadi citra 3d pada penelitian ini melibatkan faktor skew dan distorsi radial dalam algoritmanya,sehingga hasil perhitungannya menjadi akurat. sesuai dengan standard rutin pengolahan citra 3d, bahwa proses rekonstruksi citra stereo menjadi citra 3d diawali dengan kalibrasi kamera. parameter-parameter kalibrasi kamera itu didefrinisikan sebagai elemen-elemen matrik orientasi interior kamera pada setiap proses rekonstruksi citra stereo mejadi citra 3d [6]. kalibrasi kamera pada software photomodeller pro 5 yang digunakan pada penelitian ini menggunakan pattern khusus serupa dengan chessboard pattern, tetapi sudut-sudut kotak chessboard diganti dengan titik hitam dengan latar belakang warna putih (bukan kotak-kotak hitam putih).pattern kalibrasi itu diletakkan di atas lantai, kemudian difoto dari 4 arah mata angin dengan posisi kameraportrait dan landscape, sehingga diperoleh 8 bingkai citra pattern. lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 259 gambar 2. transformasi sistem koordinatpada model proyeksikamera phinole 2. metode penelitian 2.1tempat penelitian penelitian dilakukan di suatu teluk di pantai ngrenenhan, kabupaten gunung kidul yogyakarta. sisi kiri dan kanan teluk adalah tebing karang yang sangat curam. pada mulut teluk terdapat coral reef sehingga gelombang-gelombang yang relatif panjang pecah di mulut teluk, tetapi gelombang-gelombang pendek tidak pecah dan menjalar ke teluk. arah gelombang yang menjalar ke teluk tidak beraturan, ada yang menuju pantai pasir di ujung teluk dan akibat perubahan kedalaman ada gelombang terrefraksi ke sisi kiri dan kanan teluk. pada saat air pasang, gelombang refraksi terjadi di sepanjang sisi kiri dan kanan pantai karang. gelombanggelombang refraksi itu pecah karena membentur karang dan terrefleksi, sehingga arahnya tidak beraturan. selanjutnya, gelombang-gelombang refleksi itu bercampur dengan gelombang yang tidak pecah di mulut teluk menuju pantai pasir. oleh karena itu, gelombang yang menuju pantai pasir terdiri atas banyak gelombang pendek yang periode dan arahnya tidak beraturan atau gelombang yang sangat komplek.aplikasi sacis untuk mengukur gelombang laut di pantai ngrenehan ketika air laut sedang pasang. ketika percobaandilakukan, cuaca cerah berawan. 2.2konfigurasi sistem akuisisi citra stereo konfigurasi sistem akuisisi citra stereo ditunjukkan pada gambar 3. kamera yang digunakan adalah 2 kamera merk canon tipe eos 550. masing-masing kamera stereo dipasang di atas tripod di atas pasir pantai. jarak kamera stereo (basis kamera) 25m. kamera stereo diarahkan ke posisi objek-objek apung yang disebar di tengah laut.jarak antara basis kamera dengan objek-objek apung ±75m.kamera diatur pada mode video, dan resolusinya diatur pada 1920x1208 piksel. lensa yang digunakan adalah lensa bawaan kamera dan diatur pada panjang fokus maksimum yaitu 55mm. seperti ditunjukkan pada gambar 3, objek-objek apung yang terdiri atas sejumlah bola plastik diletakan sedemikian rupa sehingga posisinya menyebar dipermukaan laut. dua bola terdekat garis pantai terikat pada ujung-ujung sebuah pipa, sehingga jaraknya tetap dan difungsikan sebagai skala citra. setiap objek apung diikat dengan seutas tali plastik halus dan dijangkar dengan karung yang diisi pasir. jarak antara karung yang berfungsi sebagai jangkar itu berkisar 3m. objek apung akan mengikuti fluktuasi permukaan air laut. p’(up’, vp’) c (pusat proyeksi) y x f bidang citra p(xp,yp.,zp) v u w principal point (uo,vo) z(sb.optik kamera) lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 260 gambar 3. konfigurasi sacis = objek apung, = mistar ukur 2.3 mistar sebagaialat validasisacis alat untuk memvalidasikinerja sacisadalah sebuah mistar ukur fluktuasi permukaan air laut yang dipasang pada sebuah tetrapord. fluktuasi permukaan air laut itu direkam dengan sebuah kamera video merk panasonic tipe d250e. mistar ukur dipancang diantara 4 objek apung, dan sebuah objek apung diposisikan dekat dengan mistaritu (gambar 3). kamera video perekam fluktuasi permukaan air laut yang terbaca pada mistar dipasang pada sebuahtripod yang diletakkan di atas karang di sisi timur teluk. kamera video diatur pada resolusi 480x720 piksel dengan kecepatan cuplik 25 bingkai/s. kamera video dan kamera stereo diaktifkan dan/atau dinonaktifkan pada saat yang sama. 2.4 pengolahan citra stereo runtunan citra stereo objek apung dari pasangan kamera stereo formatnya adalah video. runtunan citra stereo format video itu dikonfersi menjadi runtunan citra stereo dalam format citra diam (still images), (gambar 4). gambar 4. citra stereo dalam format citra diam setiap pasangan citra stereo dalam format citra diam itu direkonstruksi menjadi citra 3d sesuai dengan urutannya (gambar 5). selanjutnya, dari runtunan citra 3d itu dapat diekstrak fluktuasi objek apung yang menjadi indikator fluktuasi permukaan air. kamera stereo kamera video lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 261 gambar 5. citra 3d objek-objek apung dan kamera stereo 3. hasil dan pembahasan 3.1 tinggi dan fase gelombang hasil rekonstruksi time series koordinat z indikator fluktuasi permukaan air laut dari citra 3d, dan hasil rekonstruksi time series elevasi permukaan air yang terbaca pada mistar ditunjukkan pada gambar 6. gambar 6. hasil pengukuran gelombang laut di pantai ngrenehan pada gambar 6 tampak bahwa unit-unit gelombang hasil pengukuran dengan sacis dan mistar tidak sama, tetapi polanya mirip. namun demikian, ada sejumlah unit gelombang yang sangat mirip yakni yang terukur antara t = 430/20s sampai dengan t = 830/20s. setelah rerata muka air tenang (mean sea level) dihitung dan dilakukan normalisasi terhadap hasil pengukuran unit-unitgelombang yang sangat mirip itu, maka bentuknya seperti gambar 7. gambar 7. hasil pengukuran gelombang laut yang mirip -100 -90 -80 -70 -60 -50 -40 -30 1 51 101 151 201 251 301 351 401 451 501 551 601 651 701 751 801 t/20s h ( cm ) hasil ukur dengan mistar hasil ukur dengan sacs -20 -15 -10 -5 0 5 10 15 20 1 51 101 151 201 251 301 351 t/20s h (c m ) diukur dengan mistar diukur dengan sacs kamera kiri kamera kanan objek apung lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 262 unit-unit gelombang pada gambar 7 dihitung dengan menerapkan aturan zeroup crossing, sehingga diperoleh 5 unit gelombang dalam waktu pengukuran sekitar 20 detik seperti ditunjukkan pada tabel 1. tabel1. hasil pengukuran gelombang yang mirip no diukur dengan sacis diukur dengan mistar h (cm) t (s) h (cm) t (s) 1 18,3 4.8 20 4.8 2 10 2.85 10 2.8 3 27.7 4.8 22 5.5 4 19,4 2.1 17 1.4 5 11,6 1.45 13 1.4 tabel 1 menunjukkan bahwa perbedaan hasil pengukuran tinggi gelombang terbesar terjadi pada unit gelombang nomor 3. gelombang yang diukur dengan sacis lebih tinggi 5,7cm daripada yang diukur dengan mistar, tetapi periode gelombang yang diukur dengan mistar lebih besar 1,3s daripada yang diukur dengan sacis. secara umum perbedaan tinggi gelombang hasil pengukuran dengan sacis dan mistar selama kurang lebih 20s itu relatif kecil. hasil pengukuran gelombang didominasi oleh gelombang-gelombang pendek yakni gelombang yang periodenya kurang dari 6s. hal itu cukup realistis, karena gelombang yang masuk ke teluk adalah gelombang-gelombang pendek, karena gelombang-gelombang panjang sudah pecah di mulut teluk. hasil pengukuran gelombang laut dengan sacis di teluk pantai ngrenehan menunjukkan bahwa sacis mampu mengukur gelombang-gelombang kecil dan periodenya pendek. ada perbedaan fase gelombang yang diukur dengansacisdengan yang diukur dengan mistar. gelombang yang diukur dengan sacis mendahului gelombang yang diukurdengan mistar. perbedaan fase itu menunjukkan bahwa secara berturut-turut gelombang laut merambat dari laut dalam menuju objek apung yang dijadikan sampel, mistar, dan pantai pasir. hal itu sesuai dengan konfigurasi sacis (gambar 3), bahwa posisi mistar lebih dekat dengan pantai pasir dari pada indikator objek apung yang dijadikan sampel pengukuran. 3.2. arah penjalaran gelombang laut seperti dijelaskan pada gambar 1, bahwa dari runtunan citra 3d dapat diekstrak perubahan posisi objek apung. perubahan posisi itu meliputi perubahan posisi arah vertical dan horizontal.perubahan posisi objek apung pada arah horizontal menunjukkan arah penjalaran gelombang yang diukur.agar lebih mudah dipahami, maka analisis perubahan posisi objek apung dibatasi pada selang waktu 228/20s t 270/20s (gambar 7). pada selang waktu itu gelombang yang dikur oleh sacis adalah gelombang nomor 4(tabel 1). secara terpisah bentuk unit gelombang itu ditunjukkan pada gambar 7. gambar 8. tinggi dan periode unit gelombang nomor 4 di gambar 7 perubahan posisi objek apung unit gelombang nomor 4 pada arah sejajar dan ortogonal garis pantai ditunjukkan pada gambar 9. gambar 9 menunjukkan bahwa objek apung bergerak bolak balik sejajar garis pantai sepanjang 22,5cm, dan bergerak bolak balik pada arah ortogonal garis pantai sepanjang 45cm. -15 -10 -5 0 5 10 15 20 0 10 20 30 40 50 t/20s h (c m ) lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 263 gambar 9. gerakkan objek apungpada arah sejajar dan ortogonal garis pantai = posisi awal = posisi akhir data itu menunjukkan bahwa arah gelombang di titik pengukuran adalah condong ke timur laut. seperti ditunjukkan pada gambar 3, posisi objek apung yang dijadikan sebagai indikator fluktuasi permukaan air laut berada pada pojok timur teluk. pola arah gerakkan objek apung itu sesuai dengan teori perambatan gelombang laut ketika mendekati pantai yang menyatakan bahwa arah gelombang ortogonal garis pantai yakni ke arah pojok timur teluk. kenyataan itu menguatkan alasan bahwa pengukuran arah unit gelombang dengan sacis cukup realistis. 4. simpulan dari analisis data uji kinerja sacis di teluk pantai ngrenehan menunjukkan bahwa beda fase gelombang-gelombang panjang antara yang terukur pada objek apung pada sacis dengan yang terukur pada mistar menunjukkan arah jalar gelombang menuju garis pantai. arah jalar gelombang dapat diketahui dari gerakkan horizontal objek apung pada arah sejajar dan ortogonal garis pantai, sehingga hasil pengukuran gelombang laut dengan sacis dapat menunjukkan arah jalar gelombang laut. hasil pengukuran tinggi gelombang dengan sacis dan mistar relatif sama, sehingga hasil pengukuran tinggi gelombang dengan sacis cukup teliti. jumlah unit gelombang hasil pengukuran dengan sacis sama dengan hasil pengukuran dengan mistar. arah unit gelombang terutama gelombang pendek yang diukur di dua titik yang relatif dekat pada waktu yang sama tidak selalau sama, kenyataan itu menunjukkan bahwa gelombang yang masuk ke teluk adalah gelombang yang komplek karena terdiri atas gelombang pendek yang datang dari laut lepas yang bercampur dengan gelombang-gelombang refleksi dari pinggir pantai. daftar pustaka [1] linder, w., “digital photogrammetry, springer-verlag berlin heidelberg”, 2006. [2] santel, f., c. heipke., s. konneeke, h. wegmann, “image sequence matching for the determinationof three-dimentional wave surface”, institut for photgrametry and geoinformation, univercity of hanover nienburger str, 1,30167 hanover, germany, 2002. [3] jelun, n., dkk, “development of stereo image acquition system to measure physical propertiies of water waves”, international seminar on climat change impacts on water resource and vcoastal management in developing countries, menado, mei 11-13 mei 2009. [4] www. photompdeller.com [5] jaysen, n., “measurement of validation of waterline and surface current using surf-zone video imaging”, submitted in fulfilment of the academic requirement degrre of master of science in the school of pure applied physics university of natal, 2002. -50 -40 -30 -20 -10 0 10 20 -15 -10 -5 0 5 10 15 sejajar garis pantai (cm ) o rt o g o n al g ar is p an ta i ( cm ) lontar komputervol. 4, no. 2,agustus 2013 issn: 2088-1541 264 [6] santel, f., wilfried linder., christian heipke., “image sequence analisis of surf zones: methodology and first results”, institut of photgrametry and geoinformation, university of hanover, germany, (santel, linder, heipke)@ipi.uni-hanover.de [diakses 2004] lontar komputervol. 4, no. 1, april 2013 issn: 2088-1541 215 penerapan hybrid slowly change dimension untuknearly realtime datawarehouse ni wayanwisswani politekniknegeribali, bali e-mail: wisswani@yahoo.com abstrak datawarehouse yang bersifat nearly realtime membutuhkan pemodelan dimensi dan fakta secara realtime. pemodelan dimensi sangat penting untuk dilakukan karena dimensi akan menjadi sumber bagi fakta. teknik pemodelan dimensi yang akan diterapkan pada makalah ini adalah hybrid slowly change dimension. teknik ini akan menciptakan beberapa field baru untuk menampung perubahan yang mungkin saja terjadi pada database sumber saat manipulasi terjadi sehingga fakta tidak kehilangan informasi. dalam usaha untuk mengimplementasikan dimensi yang bersifat nearly realtime maka hybrid slowly change dimensionakan dikembangkan dengan metode change data capture.hal iniakan menangkap setiap perubahan data yang dapat mempengaruhi dimensi yang terjadi pada database sumber dan kemudian mentransformasinya sehingga dapat sesuai denganhybrid dimensi yang telah didesain. kata kunci:nearly realtime datawarehouse, hybrid slowly change dimension, change data capture abstract datawarehouse that is nearly realtimerequires the model of table dimension andthe factin realtime. modeling the dimension is veryimportant becausethe dimensionwillbe a sourceforfacts. this researchused such kind of dimensional modeling technique is ahybridslowlychangedimension.this techniquewillcreateanewfieldtoaccommodatethe changes ofsourcedatabasewhenthe manipulationis executedso that factsdon’t losethe information. in order to implement this dimension therefore hybrid slowly change will be deployed using change data capture method. this method willrecord anychangesof datainsource databasethat may affect thedimensionsand thenwill be transformed them so that agree with thehybridthat has beendesigned. keywords:nearly realtime datawarehouse, hybrid slowly change dimension, change data capture 1. pendahuluan kebutuhan organisasi untuk melakukan analisa data dan pembuatan laporan secara cepat dan terintegrasi dari online transaction processing (oltp) mengakibatkandata warehouseyang dikembangkan dengan konsep nearly realtime datawarehouse(nrtdwh) menjadi penting untuk dikembangkan [1]. namun etl sebagai inti proses [2,3] dalam data warehouseyang mengelola data secara time variant tidak mampu melakukan prosesnya agar menghasilkan datawarehouse yang bersifat nearlyreal time[4].dalam usaha untuk menghasilkan nrtdwh, etl dapat menerapkan metode change data capture (cdc)dalam implementasinya [2]. teknik ini akan dapat mengetahui setiap perubahan pada sumber data dan menangkapnya untuk diload oleh etl ke dalam database tujuan [5,6]. perubahan yang berhasil ditangkap oleh metode cdc akan mempengaruhi dimensional modelling yang didesain pada nrtdwh baik pada tabel dimensi dan fakta [7].perubahan pada tabel fakta akan terjadi lebih cepat, sementara tabel dimensi akan berubah perlahan dalam kurun waktu yang lebih lama[8]. tabel fakta berubah melalui peningkatan jumlah baris, namun tabel dimensi tidak hanya mengalami perubahan dalam jumlah baris, tetapi juga melalui lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 216 perubahan atribut [6]. perubahan tabel dimensi sangat penting untuk dikelola karena dimensi merupakan tabel yang akan menjadi referensi bagi tabel fakta [2]. untuk mengelola perubahan pada tabel dimensi yang dihasilkan oleh change data capture, maka pencatatan tabel ini akan dikelola dengan metode slowly changing dimension(scd)[9]. scd memiliki beberapa tipe dan salah satunya adalah hybrid slowly change dimension. tipe ini akan melakukan pencatatan atas nilai data yang lama serta data baru sehingga nrtdwh tidak akan kehilangan history data yang pernah tercatat dalam tabel dimensi[2]. metode ini penting untuk dikembangkan karena hilangnya history data dalam tabel dimensi sebagai tabel sumber akanmenurunkan kualitas infomasi yang akan dihasilkannrtdwh, karena akan terjadi sekumpulan fakta yang tidak bisa dijelaskan oleh fakta setelah dilakukan joint dengan tabel dimensi.berdasarkan pemaparan diatas maka pada makalah ini akan mengulas mengenai penerapan implementasi hybrid slowly change dimension pada tabel dimensi agar mampu menghasilkan nrtdwh. 2. kajian pustaka 2.1 nearly realtime data warehouse menurut [6] real time datawarehouse berbeda dengan tradisional datawarehouse. datawarehouse tradisionalbersifat pasif, menyediakan data yang bersifat history, sedangkan realtime datawarehouse bersifat dimanis, dimana datawarehouseini akan menyediakan data yang selalu up to date, sehingga data yang dihasilkan merupakan data terkini yang didapatkan secara terus menerus dengan waktu tunggu yang hampir mendekati nol. sementara itu menurut [4] bahwa realtime datawarehouse dikerjakan dengan sistem yang tidak pernah mati sehingga proses loading data dari data source tidak pernah berhenti, karena bila proses berhenti maka akan terjadi perbedaan antara data yang telah mengalami perubahan dengan informasi yang dihasilkan. etl tradisonal dapat dimodifikasi dengan mengatur query untuk mengurangi waktu periodeload data agar dihasilkan real time datawarehouse atau near real time datawarehouse. 2.2 dimesional modelling pemodelan dimensional merupakan konsep desain yang banyak digunakan untuk mengembangkan suatu datawarehouse. model dimensional tersebut terdiri dari struktur data yang diperlukan untuk merepresentasikan dimensi serta fakta dari proses bisnis yang ada. dalam menggambarkan relasi database pada datawarehouse digunakan 2 model pendekatan yang disebut model skema yaitu skema bintang (star schema) dan skema snowflake [2]. 2.3 komponen dimensional modelling tabel fakta.dalam pemodelan dimensional menurut [7], tabel fakta terdiri atas measurement, metric, atau fakta dari proses bisnis yang ada. ciri-ciri dari tabel fakta adalah sebagai berikut: 1. primary key pada tabel fakta terdiri atas gabungan lebih dari satu primary key yang dimiliki tabel-tabel dimensi yang terkait (concatenated key). 2. memiliki tingkatan data yang telah teridentifikasi. 3. mudah untuk melakukan rekap data. 4. memiliki jumlah record yang banyak. 5. memiliki kolom atau atribut yang sedikit. 6. tidak memiliki row yang berisi nilai null. 7. memiliki degenerated dimension. tabel dimensi. dalam pemodelan dimensional, tabel dimensi menggambarkan karakterisitik keadaan dari measurement atau metric yang ada [5]. ciri-ciri dari tabel dimensi adalah sebagai berikut: 1. memiliki key unik pada tabel dimensi (primary key). 2. memiliki jumlah kolom atau atribut yang banyak. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 217 3. atributnya textual dan tidak saling berhubungan. 4. tabelnya tidak dilakukan normalisasi. 5. mempunyai kemampuan untuk drill-downdan roll-up. 6. memiliki jumlah record yang sedikit dibandingkan tabel fakta. 2.4 slowly changing dimension (scd) teknik scd digunakan untuk mencatat perubahan lambat yang terjadi pada tabel dimensi agar history data yang tersimpan dalam tabel dimensi tidak hilang [2]. terdapat beberapa tipe scd diantaranya : tipe 1 scd. tipe ini akan membentuk recordbaruuntuk menggantikanrecord lama, dimana hanyaadasatu record pada databasesebagai current data. tipe 2 scd. tipe ini akan membentuk recordbaruyang ditambahkanpadatabeldimensi, sehingga terdapatdua record pada databaseberupa current record dan record/data sebelum data mengalami perubahan. tipe 3 scd. tipe ini akan memodifikasi data yang aslidenganmemasukkaninformasibarudidalamnya. hal ini menyebabkan padadatabase terdapatsatu recordyang akan mengandung data yang lama dan tambahandata sebagai informasibarupadabaris yang sama. 2.5 hybrid scd teknik ini mengkombinasikan semua tipe scd didalam satu record dimensi. pada teknik ini akan ditambahkan kolom untuk menampung nilai field lama serta nilai field yang baru setelah terjadi perubahan. teknik ini juga akan menambahkan kolom untuk menampung waktu effective date terjadinya perubahan. 2.6 change data capture cdc (changed data capture)menurut [10]dirancanguntukmemaksimalkanefisiensidari proses etl. tanpa cdc semua data yang ada pada ods akan dipindahkan ke datawarehouse kapanpun dibutuhkan, sementara dengan cdc hanya perubahan-perubahan data yang terjadi pada ods saja yang akan dipindahkan. oleh karena itu cdc dapat meminimumkanrestore yang digunakanuntukmemindahkanperubahanpada data danmeminimalkanwaktulatency pengirimaninformasibisniskepadakonsumen sehingga tentu saja hal ini dapat menghemat biaya. 3. metodologi penelitian 3.1 ruang lingkup makalah ini akan membahas hybrid slowly change dimension yang diterapkan denganchange data capture untuk dapat menghasilkan dimensi yang bersifat nearly realtime datawarehouse. 3.2 metode berikut ini adalah metode yang akan dilakukan dalam penelitian ini, diantaranya : 1. analisa metadata technical dan bussiness untuk mengetahui hubungan antara oltp danfieldpada dwh. 2. desain tabel dimensi yang bertipe hybrid slowly change dimension. 3. mendesain proseschange data capture untuk mendapatkan perubahan yang terjadi pada oltp dan mencatat pada tabel dimensi. 4. pengujian dan analisa hasil. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 218 4. analisa dan pembahasan data 4.1 analisa oltp oltp yang akan digunakan sebagai studi kasus dalam penelitian ini adalah sistem disertasi dan sistem tesis universitas udayana. dalam kedua sistem ini terdapat beberapa tabel yang dikelola oltp, namun tabel yang menjadi sumber bagi datawarehouse adalah tabel prodi dan tabel disertasi yang berasal dari sistem disertasi serta tabel prodi dan tabel tesis dari sistem tesis. keempat tabel tersebut akan menjadi sumber bagi nrtdwh yang akan diimplementasikan. tabel prodi akan menjadi sumber dari tabel dimensi prodi, sedangkan beberapa field dari tabel tesis dan disertasi akan menjadi dimensi tesis dan disertasi. pada tabel 1 berikut ini merupakanmetadata yang akan menghasilkan hybrid slowly change dimension. tabel 1. metadata oltp sumber tabel sumber nama field tabel tujuan pada dwh sistem thesis tabel thesis id_thesis dimensi thesis sistem thesis tabel thesis judulpenelitian dimensi thesis sistem thesis tabel thesis namapeneliti dimensi thesis sistem thesis tabel thesis id_prodi dimensi thesis sistem thesis tabel prodi id_prodi dimensi prodi sistem thesis tabel prodi id_jenis dimensi prodi sistem thesis tabel prodi nama_prodi dimensi prodi sistem disertasi tabel disertasi id_disertasi dimensi disertasi sistem disertasi tabel disertasi judul_disertasi dimensi disertasi sistem disertasi tabel disertasi nama_peneliti dimensi disertasi sistem disertasi tabel disertasi id_prodi dimensi disertasi sistem disertasi tabel prodi id_prodi dimensi prodi sistem disertasi tabel prodi id_jenis dimensi prodi sistem disertasi tabel prodi nama_prodi dimensi prodi 4.2 desain tabel dimensi dengan hibrid slowly change dimension berdasarkan 4 tipe scd yang ada, dalam penelitian ini akan diterapkan hybrid scd. teknikiniakanmencatatperubahan yang terjadidalam sebuahkolombarupadatabeldimensi. nilai kolom lama yang mengalami perubahan akandigunakanuntukmenampungfieldawalsebelumperubahandankolombaruakandiisi nilai dariperubahan yang dilakukan. untukmenentukan row data yang aktifmakarow data akandiberipenandasertadibuatkolom fieldwaktusaat record valid dan field waktuterakhirsaat recordtidak valid. dengan cara ini update data pada oltp baik berupa insert, update dan deletetidak akan menghilangkan history data yang telah tersimpan dalam nearly realtime datawarehouse. gambar 1 berikut ini adalah desain scd yang akan diterapkan dalam nearly real time data warehouse. gambar 1. desain slowly change dimension id_thesis judul penelitian nama peneliti id prodi id_thesis judul penelitian baru nama peneliti status diisi dengan nilai baru judul penelitian lama flag row aktif/tidak mulai selesai waktu mulai efektif nya row waktu berakhirnya efektif row lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 219 desain scd tersebut akan diimplementasikan dalam tabel-tabel dimensi dengan hasil seperti berikut ini a. dimensi prodi sistem thesis tabel2. tabel dimensi prodi dari sistem thesis field keterangan id_st_prodi surrogate key, merupakan primary key dari tabel ini id_prodi menerangkan id dariprodi yang diambildaritabelth_prodi nama_prodi menerangkannamaprodiyang diambildari tabel th_prodi mulai mulaiefektif berlakunyafield selesai selesaiefektif berlakunyafield nm_prodilama namaprodisebelumnyayang sudahberubahakibat proses update status menandakan status prodi yang sedangaktif, bila status 1 makaartinya field tersebutdalamkondisiaktif, sedangkan 0 maka field tersebutdalamkondisitidakaktif b. dimensi thesispada sistem thesis tabel 3. tabel dimensi thesis dari sistem thesis field keterangan id_st_tesis surrogatekey, primary key dari tabel ini id_tesis menerangkan id dari thesis yang diambildaritableth_thesis judul_penelitian_lama menerangkanjudulpenelitiansebelum proses edit yang diambildari tabel th_thesis judul_penelitian_baru menerangkanjudulpenelitiansetelah proses edit yang diambildari tabel th_thesis nama_peneliti menerangkannamapeneliti yang diambildari tabel th_thesis mulai mulaiefektif berlakunyafield selesai selesaiefektif berlakunyafield status menandakan status judul thesis, status 1 untuk status yang sedangaktif, sedangkan 0 untuk status yang tidakaktif id_prodi diambil dari surragote key tabel dimensi prodi c. dimensi disertasi sistem disertasi tabel 4. tabel dimensi disertasi dari sistem disertasi field keterangan id_sd_disertasi surragate key, yang diciptakan untuk menjadi pimary key id_disertasi kodedisertasi yang dicatatdiambildari tabel th_disertasipada ods disertasi judul_penelitian judulpenelitiandiambildari tabel th_disertasi nama_peneliti namapeneliti yang diambildari tabel th_disertasi status status darijuduldisertasi digunakan untuk mencatat perubahan status disertasi, status 0 melambangkanbahwajudultersebuttidaklagiaktif, sementara status 1 melambangkanjudultersebutsedangaktif. mulai mulaiefektif berlakunyafield selesai selesaiefektif berlakunyafield jdl_lama judulpenelitian yang lama sebelumdilakukan update id_prodi field ini merupakan surragote key id prodi pada dimensi prodi d. dimensi prodi sistem disertasi tabel 5. tabel dimensi prodi dari sistem disertasi field keterangan id_sd_prodi surragate key, primary key tabel ini id_prodi id prodi yang diambildari tabel th_prodipada sistem disertasi nama_prodi namaprodi yang diambildari tabel th_prodi lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 220 mulai mulaiefektif berlakunyafield selesai selesaiefektif berlakunya field nm_prodi_lama nama prodisebelumnya yang sudahberubahakibat proses update. status menandakan status prodi yang sedangaktif/terbaru, 1 status aktif 0 untuk status tidakaktif agar dihasilkan dimensi yang dapat menghasilkan nrtdwh maka dimensi hybrid slowly change dimension akan diterapkan dengan metode cdc. perubahan pada tabel sumber akibat eventinsert, update maupun delete akan diketahui oleh cdc. hasil capture kemudian ditransformasikan ke dalam bentuk yang sesuai dengan desain tabel dimensi yang telah dimodelkan dengan hibrid scd, dan kemudian akan di-load ke dalam tabel dimensi bersesuaian. metode ini akan bekerja dengan alur seperti gambar 2 berikut ini. gambar 2. desain umum proses nearly realtime hybrid slowly change dimension 4.3 pengujian hybrid scd dalam pengujian ini akan dilakukan manipulasi pada proses di oltp yang mempengaruhi dwh. untuk poses insert, pengujian dilakukan dengan memasukkan data prodi teknik elektro melalui form pada sistem disertasi seperti gambar 3 berikut ini . gambar 3.form untuk melakukan proses insert data yang di-input akan disimpan kedalam tabel th_prodi, hal ini terlihat dengan telah masuknya data teknik elektro ke dalam tabel pada sistem existing yang terlihat pada gambar 4 berikut ini. tabel sumber oltp 1. mengetahui event penyebab perubahan data insert, update dan delete user melakukan perubahan data 2. mendapatkan data yang berubah 3. mentransform sesuai dengan desain dimensi berbasis scd change data capture insert update delete tabel dimensi tujuan load load load lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 221 gambar 4. form hasil insert proses simpan yang dilakukan ke dalam tabel th_prodi akan memicu cdc untuk melakukan capturefield id_prodi, nama_prodi, danwaktusaat proses insertterjadi. hasilcapturetersebutakandi-loadkedalamtabeldimensiprodisebagai row data baru. row data baru ini akan berisi fieldid_sd_prodiyang merupakan surragote key, id_prodi, nama_prodi, danwaktusaat proses insertterjadi dan pemberian nilai 1 pada field status yang menyatakan bahwa row tersebut sedang aktif. hasil kerja cdc akan mempengaruhi tabel dimensi prodi sehingga tampak seperti gambar 5 berikut ini : gambar 5. nilai tabel hasil insert event lain yang akan menyebabkan tabel dimensi prodi berubah adalah update pada tabel th_prodi yang dilakukan melalui form seperti gambar 6 berikut ini : gambar 6. form untuk melakukan proses update perubahan yang dilakukan pada tabel th_prodi akan memicu cdc mencatat namaprodibaru yang di-insert, namaprodi yang lama yang di-update,sertawaktusaatkeduafielditudiubah. hasil capture tersebut akandi-insert-kan sebagairow barukedalamtabeldimensiprodiberupafieldid_prodi, nama_prodi, mulai, status, nm_prodi_lama, dan selesai. setelah itu akan dilakukan updatefieldstatus dan fieldselesaidimensi prodi pada rowdata yang memiliki idprodisamadengan idprodibaru yang di-loaddanmasihberstatus 1. proses ini menyebabkan fieldstatus akandiubahmenjadi 0 dan field selesaiberisiwaktusaatperubahandilakukan. proses cdc pada event ini akan mengubah tabel dimensi prodi sehingga tampak seperti gambar 7 berikut ini. lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 222 gambar 7. hasil update dimensi prosesdeletepadatabelprodi sistem disertasijugaakanmengubahisitabel dimensiprodi. proses ini dilakukan melalui form seperti gambar 8 berikut ini. gambar 8. form delete pada sistem oltp saatproses deletedilakukan data field id_prodidanwaktu proses penghapusan row dataakan dicapture. kemudianakan dilakukan update terhadap dimensi prodi pada row data yang id prodinyasama dengan hasil capturedan memiliki status 1. updatedilakukandenganmembuatfield status menjadi 0 danfieldselesaidiisiolehwaktusaat proses deletedilakukan. proses cdc pada event ini akan menyebabkan tabel dimensi prodi berubah seperti hasil yang tampak pada gambar 9 berikut ini gambar 9. hasil dimensi saat prosesdelete 5. simpulan pencatatan perubahan tabel dimensi dalam data warehouse harusnya tidak menghilangkan history data yang pernah tersimpan didalamnya untuk tetap mempertahankan kualitas data.agar seluruh history perubahan data yang mempengaruhi tabel dimensi tersimpan sehingga informasi yang hilang dapat diminimalkan maka diimplementasikan hybrid slowly change dimension.agar hibrid scd yang didesain dapat menampung data dalam nearly realtime datawarehouse maka diterapkan metode change data capture. daftar pustaka [1] simitsisa, vassiliadis p, sellis t, “optimizing etl processes in data warehousesindata engineering”,proceedings21st international conference on digital object, pp: 564 – 575, 2005.http://citeseerx.ist.psu.edu[diunduh : 10 agustus 2011] lontar komputervol. 4, no. 1,april 2013 issn: 2088-1541 223 [2] kimball ralph, caserta joe, the data warehouse etl toolkit practical techniques for extraction, cleaning, conforming and delivering data, canada: wiley publishing. inc, 2004. [3] savitrif.n,laksmiwati h,“study of localized data cleansing process for etl performance improvement in independent datamart”, electrical engineering and informatics (iceei), international conference,2011. [diunduh: 13agustus 2011] [4] langsethjustin, “real-time data warehousing: challenges and solutions”,2004.http://dssresources.com/papers/features/langseth/langseth02082004.htm l. [diunduh:12 agustus 2011] [5] mitchell j eccles, david j evans and anthony j beaumont,“true real-time change data capture withweb service database encapsulation”,ieee 6th world congress on services, 2010.[diunduh: 10agustus 2011] [6] ponniah, paulraj,“data warehousing fundamentals for it professionals / 2nd ed”, john wiley & sons.inc,2010. [7] inmon, w.h, “building the data warehouse”, fourth edition,canada: wiley publishing.inc, 2005. [8] avignonfrance, “chapter 5 advances in database technology edbt '9”, 5th international conference on extending database technology, march 25-29, 1996.[diunduh: 11agustus 2011] [9] santosv, belo o,sch. of manage. & technol., porto polytech., felgueiras, portugal, information systems and technologies (cisti), 6th iberian conference, juni 2011.[diunduh : 12 agustus 2011] [10] ankorion, itamar,„information management magazine“, january 2005.http://www.information-management.com/issues/20050101/10163261.html[diunduh:12agustus 2011] lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 71 sistem informasi geografis pemetaan daerah aliran sungai berbasis web sitta rahayua1, i nyoman piarsaa2, putu wira buanaa3 ajurusan teknologi informasi, fakultas teknik, universitas udayana, bali jalan raya kampus unud, bukit jimbaran, badung, bali, indonesia 1sitta_rahayu@yahoo.com 2nyoman_piarsa@ftunud.ac.id 3wbhuana@gmail.com abstrak pengolahan daerah aliran sungai sangat penting karena semakin terawatnya das akan semakin kecil pula resiko terjadinya bencana yang disebabkan oleh meluapnya air sungai. perawatan das bisa dilakukan dengan baik jika informasi mengenai das tersebut lengkap, namun sampai saat ini informasi yang tersedia masih kurang. hal ini disebabkan sulitnya untuk melakukan pengumpulan data das sehingga diperlukan sebuah sistem yang bisa digunakan untuk melakukan pengolahan data das. sistem yang akan digunakan adalah sistem informasi geografis pemetaan daerah aliran sungai berbasis web. sistem ini merupakan sistem yang dapat dimanfaatkan untuk melakukan pendataan dan pemetaan das dengan menggunakan peta dari google maps. fitur polyline yang dimiliki oleh google maps dapat digunakan untuk menggambarkan sebuah jaringan sungai dan panjang genangan banjir, library geometry digunakan untuk menghitung panjang polyline, fitur marker digunakan untuk menggambarkan lokasi bendungan dan titik rawan banjir dari sebuah sungai dan fitur polygon digunakan untuk menggambarkan batas das. sistem ini melakukan pendataan das dengan dua cara, yaitu digitasi dan input koordinat yang dilakukan oleh admin. hasil dari pendataan das dapat memberikan informasi bagi pengguna tentang lokasi bendungan beserta deskripsinya, jaringan sungai dalam das, titik rawan banjir, panjang genangan banjir dan batas dari das beserta deskripsinya. kata kunci : das,sistem informasi geografis, google maps, web. astract watershed management becomes very important because the more maintained its watershed, the risk for disasters caused by the overflowing river became smaller. watershed management could be done if the information on that watershed could be complete, but untill this day, the available information was lacking. this condition caused the difficulty of data collected, so required a system that could be used to perform watershed data processing. a system that to be used is geographic information systems watershed mapping. this system is a web-based system that can be used for collected data and mapping the watershed using a map from google maps. features polyline which was owned by google maps can be used to describe a network of rivers and long inundation, library geometry was used to calculate the length of polylines, feature marker was used to describe the location of the dam and the point was prone to flooding of a river and features a polygon used to describe the watershed. this system can collected data watershed in two ways, namely digitization and input the coordinates that can be done by the admin. results from watershed data can provide information to the user about the location of the dam along with its description, the river network in the watershed, a point prone to flooding, inundation and limit the length of the watershed and its description. keywords : watersheed, geographic information system, google maps, web mailto:wbhuana@gmail.com3 lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 72 1. pendahuluan perawatan tiap das dapat berbeda tergantung kondisi tiap das tersebut. das memiliki beberapa fungsi yang berbeda terkait elemen yang dimiliki oleh das tersebut seperti bendungan, jaringan aliran sungai, titik rawan banjir serta batas dasnya. perawatan das yang kurang maksimal dapat menyebabkan bencana banjir dan beberapa bencana lainnya. perawatan das yang maksimal akan memberikan manfaat yang maksimal pula bagi kehidupan masyarakat seperti tetap stabilnya aliran sungai yang mengalir dengan adanya bendungan yang menjadi bangunan untuk menahan air yang berlebih ketika musim hujan tiba. perawatan dan pemanfaatan das ini dapat dimaksimalkan apabila didukung dengan adanya pemetaan das yang baik sehingga memudahkan untuk perawatan dan pemanfaatannya. berbagai studi telah dilakukan mengenai das. salah satunya adalah untuk mendukung analisis kondisi dan pemanfaatan sumber daya air berkaitan dengan pengolahan das yang dilakukan oleh sifurridzal, donny harisuseno dan m. basri mahasiswa fakultas teknik jurusan teknik perairan universitas brawijaya, malang. ketiga mahasiwa tersebut melakukan penelitian untuk mengukur tingkat keberhasilan pengolahan das menggunakan data morfologi das dan morfometri das yang didapat dari hasil pemanfatan model ketinggian digital atau digital elevation model (dem) satelit pengindraan jarak jauh dalam analisis morfometri das dengan bantuan sistem informasi geografis. ketiga mahasiswa tersebut melakukan penelitian melalui pendekatan karakteristik parameter fisik das dengan menggunakan aplikasi sistem informasi geografis[1]. digital elevation model (dem) satelit pengindraan jarak jauh yang digunakan untuk mendapatkan data spasial bukanlah hal yang buruk, karena dapat memudahkan pengembang untuk memetakan sebuah lokasi, tetapi tetap memiliki kekurangan. pengumpulan data juga sebaiknya dilakukan secara manual yaitu melakukan pengumpulan data dari dinas terkait dan tidak hanya mengunakan digital elevation model (dem) satelit pengindraan jarak jauh, agar titik lokasi dan kondisi bahan penelitian bisa diketahui dengan akurat [1]. berbeda dengan penelitian yang dilakukan oleh ketiga mahasiswa di atas, sistem informasi georafis yang dikembangkan ini dibangun dengan menggunakan hardware, software komputer dan google maps api yang berfungsi untuk verifikasi data, kompilasi data, akusisi data, penyimpanan data, edit dan update data, perubahan data, pertukaran dan manajeman data, manipulasi data, pemanggilan dan presentasi data serta analisa data tanpa menggunakan dem satelit pengindraan jarak jauh. sistem informasi geografis pemetaan daerah aliran sungai berbasis web ini diharapkan mampu membantu dalam perencanaan, pemanfaatan, pengendalian dan pengembangan sumber daya yang terdapat di das. sistem ini dibangun dengan fitur untuk memetakan batas das, memetakan jaringan sungai induk dan sungai kecil, memetakan titik rawan banjir sepanjang aliran sungai, panjang genangan banjir dan lokasi bendungan yang terdapat di kabupaten sehingga memudahkan pemerintah dalam memantau dan melakukan pengambilan keputusan terkait pengolahan das di daerah terkait. pemerintah juga dapat mengembangkan sumber daya yang terdapat di das daerah terkait berdasarkan kondisi georafis das tersebut. 2. metodologi penelitian penelitian ini menggunakan metode air terjun (waterfall). metode waterfall terbagi dalam beberapa tahap meliputi : analisis kebutuhan perangkat lunak (requirements definition), desain sistem (system and software design), implementasi dan pengkodean (implementation and unit testing), integrasi dan pengujian (inegration and system testing), perawatan (maintenance). metode perancangan database dalam penelitian ini meliputi: perancangan basis data konseptual, logikal dan fisikal. 2.1. metode perancangan sistem metode waterfall diawali dengan requirements definition kemudian proses desain sistem, dilanjutkan dengan pengkodean, kemudian implementasi dari hasil pengkodean dan integrasi dengan subsistem, jika pengkodean sistem telah berjalan sesuai dengan desain sistem dan bisnis proses maka dibuatkan dokumen atau laporan dan proses berhenti, jika hasil belum sesuai lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 73 dengan desain sistem dan proses bisnis maka diulang pada tahap pengkodean. tahap terakhir adalah perawatan atau maintenance. prinsip dasar dari metode waterfall jika diterapkan pada perancangan sistem informasi geografis pemetaan daerah aliran sungai berbasis web ini dimulai dari tahapan pendefinisian kebutuhan informasi yang akan diberikan oleh sistem informasi dan software yang akan digunakan untuk membangun sistem informasi. tahap kedua adalah tahap desain sistem informasi yang akan dibangun mulai dari tampilan untuk user interface sampai pada panel admin. proses ketiga adalah proses pengkodean dan implementasi dari kode yang telah dibangun. proses keempat adalah integrasi dengan subsistem yang terdapat dalam sistem. proses kelima atau proses terakhir adalah proses perawatan atau maintenance sistem. proses terakhir ini dapat dilakukan jika proses pengkodean dan integrasi dengan subsistem sudah berjalan sesuai dengan desain sistem dan bisnis proses. 2.2. gambaran umum sistem salah satu perancangan sistem informasi ini berisi gambaran umum sistem dari sistem yang dikembangkan dan struktur database yang digunakan. gambar 1. gambaran umum sistem gambar 1 merupakan gambaran umum sistem yang menjelaskan bagaimana sistem informasi geografis ini dijalankan oleh user. sistem informasi geografis ini memanfaatkan google maps untuk menampilkan peta dan menggunakan google maps api untuk mengelola peta tersebut. database dari sistem informasi geografis ini harus bersifat global, sehingga hal itu harus ditangani dengan memanfaatkan web server. permintaan data dari database pada web tidak bisa dilakukan secara langsung, dikarenakan menggunakan bahasa pemrograman yang berbeda. sistem informasi geografis ini memanfaatkan json sebagai jembatan penghubung sistem informasi geografis dengan web server tersebut, sehingga sistem informasi geografis dapat mengakses database yang tersedia pada web server. admin memiliki hak akses untuk memanipulasi data yang terdapat pada sistem informasi. user internet informasi lokasi dan kondisi daerah aliran sungai dan bendungan database : 1. batas das 2. aliran sungai induk dan sungai kecil 3. titik rawan banjir dan panjang genangan banjir 4. bendungan penghubung (web service client) google maps data latitude dan longitude dan data peta dari google maps useradmin computer computerinformasi lokasi dan kondisi daerah aliran sungai dan bendugan hak akses, read, edit, update, delete data, data sistem informasi yang baru requestrespons re qu es t request request respons r e sp o n s re sp on s r e q u e s t r e s p o n s lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 74 2.3. dfd level 0 sistem informasi perancangan diagram alir data (dad) atau dalam bahasa inggris disebut data flow diagram (dfd) adalah suatu diagram yang menggunakan notasi untuk menggambarkan alir dari data yang sangat membantu untuk memahami sistem secara logika, terstruktur dan jelas. dfd juga bisa dikatakan sebagai suatu model logika data atau proses yang dibuat untuk menggambarkan asal data dan tujuan data yang keluar dari sistem, tempat dimana data disimpan, proses apa yang menghasilkan data tersebut dan interaksi antara data yang tersimpan dan proses yang ditampilkan pada data tersebut. dfd ini merupakan alat perancangan sistem yang berorientasi pada alur data dengan konsep dekomposisi yang dapat digunakan untuk menggambarkan analisa maupun rancangan sistem yang mudah dikomunikasikan oleh profesional sistem kepada pemakai maupun pembuat program [2]. dfd level 0 sistem informasi ini dapat dilihat pada gambar 2. gambar 2. dfd level 0 sig pemetaan das gambar 2 menampilkan tentang proses yang terjadi pada sistem. proses tersebut antara lain adalah proses cek login, manajemen data master, manajemen das, menampilkan informasi das dan report yang memiliki 10 data storage. 2.4. perancangan database sistem informasi geografis ini dirancang dengan menggunakan 10 tabel yang digunakan untuk menyimpan data. struktur tabel yang digunakan pada database dalam sistem informasi geografis pemetaan daerah aliran sungai berbasis web dapat dilihat pada gambar 3. sepuluh tabel adalah tabel yang akan digunakan untuk menyimpan data das. kesemua tabel tersebut memiliki relasi one to many. admin a manajemen master data 2 login 1 data provinsi, data kabupaten data provinsi, data kabupaten d3 data kabupaten d2 data provinsi data provinsi data provinsi data kabupaten data kabupaten d1 data login data login data login konfirmasi login konfirmasi login manajemen das 3 d6 data das d5 data sungai d7 data bendungan d9 data perpanjangan genangan banjir d8 data rawan banjir data sungai, data das, data bendungan, data rawan banjir, data perpanjangan genangan banjir konfirmasi das data bendungan info bendungan request das data das info sungai data sungai data provinsi, data kabupaten, data kecamatan data rawan banjir info rawan banjir data perpanjangan genangan banjir info perpanjangan genangan banjir menampilkan informasi das 4 info sungai, info das, info bendungan, info rawan banjir, info perpanjangan genangan banjir user b info das info sungai, info das, info bendungan, info rawan banjir, info perpanjangan genangan banjir report 5 request report report info sungai, info das, info bendungan, info rawan banjir, info perpanjangan genangan banjir d4 data kecamatan data kecamatan data kecamatan d10 jenis sungai info jenis sungai info jenis sungai lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 75 gambar 3. relasi antar tabel 3. kajian pustaka salah satu studi mengenai das juga pernah dilakukan oleh tesfaye gebre, tigist kibru, samuale tesfaye dan gebeyehu taye yang mengidentifikasi pentingnya atribut das untuk pengelolaan sumber daya air menggunakan arcgis software, aster dem dan citra satelit untuk mikro-das chelekot, tigray, ethiopia. penelitian ini juga mengevaluasi parameter hidrologi yang berbeda yang signifikan untuk pengelolaan sumber daya air dalam mikro-das dan menemukan solusi alternatif untuk panen air di daerah penelitian melalui pengenalan struktur konservasi tanah dan air yang sesuai berdasarkan temuan. atribut utama dalam das yang diteliti termasuk pola drainase, parameter topografi, jenis penggunaan lahan dan jenis tanah dievaluasi dan diinterpretasikan untuk studi mikro-das. software arcgis digunakan untuk perhitungan, penggambaran batas dan morfometrik analisis mikro-das menggunakan peta topografi dan data aster dem [3]. 3.1. daerah aliran sungai daerah aliran sungai (das) didefinisikan sebagai suatu wilayah yang dibatasi oleh pembatas topografi seperti punggung bukit yang menerima, mengumpulkan air hujan, sedimen dan unsur hara lain serta mengalirkannya melalui atau menuju anak-anak sungai dan keluar pada satu titik (outlet). pengelolaan das merupakan suatu kegiatan di dalam melestarikan sumber daya alam dan lingkungan. mahasiswa ukrim yogyakarta edy harseno dan vickey igor r tampubolon melakukan penelitian dalam memetakan batas administrasi, tahan, geologi, penggunaan lahan, lereng diy dan das di jawa tengah menggunakan arcview gis [4]. penelitian mahasiswa jurusan teknik sipil tersebut tidak hanya mendata namun juga merepresentasikan data spasial maupun data atribut yang terdapat di daerah istimewa yogyakarta yakni data batas administrasi, data tanah, data geologi, data penggunaan lahan (landuse), data kemiringan lereng dan data das di jawa tengah. peneliian ini masih memiliki kekurangan pendataan dan pemetaannya yang kurang sesuai harapan dikarenakan proses penampilan peta pada sistem masih memerlukan proses yang lama dan database dalam sistem tidak bersifat global [4]. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 76 3.2. sistem informasi geografis sistem informasi geografis adalah sistem informasi khusus yang mengelola data yang memiliki informasi spasial (dimensi keruangan). sistem informasi geografis adalah bentuk sistem informasi yang menyajikan informasi dalam bentuk grafis dengan menggunakan peta sebagai interface atau antar muka. sig tersusun atas konsep beberapa lapisan (layer) dan relasi [5]. fungsi sistem informasi geografis adalah meningkatkan kemampuan menganalisis informasi spasial secara terpadu untuk perencanaan dan pengambilan keputusan. sistem informasi geografis dapat memberikan informasi kepada pengambil keputusan untuk analisis dan penerapan database keruangan [5]. 3.3. data spasial data spasial adalah sebuah data yang berorientasi geografis, memiliki sistem koordinat tertentu sebagai dasar referensinya dan mempunyai dua bagian penting yang membuatnya berbeda dari data lain, yaitu informasi lokasi (spasial) dan informasi deskriptif (attribute) yang dapat dijelaskan sebagai berikut ini : a. informasi lokasi (spasial), berkaitan dengan suatu koordinat baik koordinat geografi (latitude dan longitude) dan sebuah koordinat, termasuk diantaranya informasi datum dan proyeksi. b. informasi deskriptif (atribut) atau informasi non spasial, berkaitan dengan suatu lokasi yang memiliki beberapa keterangan yang berkaitan dengannya, contohnya : jenis vegetasi, populasi, luasan, kode pos dan lain-lain [6] 4. pembahasan hasil dan pembahasan berisi screen shoot sistem yang telah dibangun dan menganalisa hasil yang didapat setelah melakukan pengujian terhadap sistem informasi geografis yang dikembangkan. 4.1. interface sistem informasi sistem informasi ini memiliki dua user interface, satu untuk panel admin dan satu untuk user. halaman utama atau index ini merupakan halaman yang pertama kali akan muncul ketika pengguna memasukkan alamat website tentang website pemetaan daerah aliran sungai. halaman utama ini terdiri dari beberapa menu utama yaitu menu info das, menu info sungai dan menu bendungan. gambar 4. halaman utama admin perlu memasukkan nama dan password yang telah tersimpan di database untuk dapat masuk ke panel admin. panel admin ini memiliki beberapa menu seperti menu maps yang berisi peta untuk melakukan penambahan data spasial bendungan, jaringan sungai, titk rawan banjir, perpanjangan genangan banjir dan batas das, menu data tabular yang merupakan menu untuk memanipulasi data non spasial dan menu report untuk pelapolaran. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 77 gambar 5. panel admin panel admin ini akan langsung terhubung ke halaman utama user, perubahan data yang dilakukan pada panel admin akan langsung tampak pada halaman utama user. 4.2. tampilan tambah data spasial bendungan sistem informasi geografis ini mempresentasikan bendungan menjadi sebuah titik atau marker. bendungan akan terletak diantara sungai utama yang mengalir dalam sebuah daerah aliran sungai. bendungan akan terletak di titik pada aliran sungai utama yang dibendung. cek box edit bendungan berfungsi untuk mengaktifkan fungsi tambah marker di peta. admin dapat menambahkan bendungan melalui form yang tersedia dan dapat melakukan edit serta delete marker bendungan melalui infowindow pada peta. gambar 6. menambahkan data spasial bendungan 4.3. tampilan data non-spasial bendungan input data bendungan secara manual dengan menginputkan latitude dan longitude lokasi bendungan, kabupaten dan kecamatan bendungan, nama bendungan, luas bendungan, tahun berdiri kapasitas air, pengelolah bendungan dan deskripsi dari bendungan. hasil input tersebut akan langsung merujuk pada peta dengan koordinat yang telah di-input-kan dan akan langsung tersimpan pada data bendungan. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 78 gambar 7. data non-spasial bendungan admin dapat melakukan edit dan delete terhadap data yang telah dimasukkan baik langsung melalui info window maupun melalui data tabular bendungan. 4.4. tampilan tambah data spasial sungai pembuatan polyline ini ditujukan untuk membuat jaringan sungai induk atau sungai besar dan sungai kecil yang dari atau mengalir menuju sungai induk. gambar 8. tambah data spasial sungai banyak titik koordinat yang diklik di peta akan di encode dan disimpan dalam database oleh program. admin hanya perlu memasukan data yang diperlukan seperti nama sungai, jenis sungai dan rata-rata debit air sungai. 4.5. tampilan data non spasial sungai input data sungai secara manual dengan menginputkan kumpulan latitude dan longitude lokasi aliran sungai, kabupaten dengan panjang aliran terpanjang, nama sungai, jenis sungai, panjang sungai dan debit air. hasil input tersebut akan langsung merujuk pada peta dengan koordinat yang telah di-input-kan dan akan langsung tersimpan pada data sungai. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 79 gambar 9. data non spasial sungai data tabular sungai ini menyimpan seluruh data sungai yang telah di-input oleh admin baik melalui peta sungai maupun melalui data tabular. admin dapat melakukan searching berdasakan nama sungai, jenis sungai dan kabupaten. 4.6. tampilan tambah data spasial das pembuatan sebuah polygon berawal dari sebuah polyline yang dihubungkan. snapping membantu untuk menyatukan antara marker satu dengan yang lain agar tidak terdapat jarak antar keduanya. snapping berguna untuk pembuatan sebuah aliran sungai yang berupa polyline dan pembuatan batas daerah aliran sungai yang berupa polygon. gambar 10. penambahan data spasial das polygon daerah aliran sungai merupakan sebuah batas teritorial utara, selatan, barat dan timur dari sebuah sungai utama. satu sungai utama dalam teritorial das biasanya memiliki beberapa subsistem atau sungai kecil yang mengalir menuju sungai utama. 4.7. tampilan tambah data non spasial das input data das secara manual dengan menginputkan kumpulan latitude dan longitude lokasi das, nama das, sungai induk yang mengalir, rata-rata kemiringan lereng serta jenis fauna dominan yang terdapat dalam das. hasil input tersebut akan langsung merujuk pada peta dengan koordinat yang telah di-input-kan dan akan langsung tersimpan pada data das. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 80 gambar 11. data non spasial das admin dapat melakukan edit dan delete batas das melalui data tabular. admin juga dapat melakukan searching berdasarkan nama das dan nama sungai induk yang mengalir. 4.8. menu report menu report atau pelaporan berisi semua data yang telah di-input oleh admin kedalam sistem. menu report sendiri terbagi menjadi empat bagian, yaitu report bendungan yang dapat mengelompokkan jumlah bendungan berdasarkan kabupaten dan tahun berdirinya bendungan. admin juga dapat memilih untuk mencetak seluruh data, mencetak data berdasarkan kata kunci pencarian tertentu atau mengconvert data ke excel. gambar 12. report bendungan report sungai tidak jauh berbeda dengan report bendungan. report sungai mengelompokan sungai berdasarkan jumlah sungai yan melintasi sebuah wilayah atau kabupaten. admin juga dapat memilih untuk mencetak seluruh data sungai, mencetak data berdasarkan kata kunci pencarian tertentu atau mengconvert data ke excel. lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 81 gambar 13. report sungai report rawan banjir adalah menu pelaporan yang berisi seluruh data rawan banjir dan mengelompokkan jumlah titik rawan banjir berdasarkan kabupaten dan tahun munculnya titik rawan banjir tersebut. gambar 14. report titik rawan banjir admin dapat melihat grafik pertumbuhan jumlah titik rawan banjir melalui menu jumlah pertahun. admin hanya perlu memilih tahun untuk menampilkan jumlah rawan banjir. gambar 15. chart titik rawan banjir lontar komputer vol. 7, no.2, agustus 2016 p-issn 2088-1541 doi: 10.24843/lkjiti.2016.v07.i02.p01 e-issn 2541-5832 82 sistem akan menampilkan jumlah titik rawan banjir pada kabupaten tertentu. chart ini akan menunjukkan kabupaten mana yang memiliki titik rawan banjir teranyak dalam satu tahun. report das dalam sistem informasi ini memiliki perbedaan dari report lainnya. report das dalam sistem ini menggabungkan semua data mulai bendungan yang terdapat dalam das, sungai yang mengalir dalam das dan jumlah titik rawan banjir dalam das. gambar 16. report das total report ini menggabungkan hampir semua data dalam sistem. report ini menampilkan batas das, sungai induk yang mengalir dalam das, bendungan yang terdapat dalam das dan jumlah titik rawan banjir yang dimiliki. 5. kesimpulan sistem informasi geografis pemetaan daerah aliran sungai berbasis web dapat diakses oleh user untuk mendapatkan informasi mengenai lokasi bendungan beserta deskripsinya, jaringan sungai di tiap kabupaten dan panjang sungai tersebut, titik rawan banjir di sepanjang sungai beserta perpanjangan genangan banjir tersebut serta informasi mengenai batas das. sistem ini juga bisa dimanfaatkan oleh pihak terkait guna perencanaan, pengambilan keputusan dan pelestarian das untuk meminimalisir terjadinya bencana yang disebabkan oleh luapan air sungai. daftar pustaka [1] h. sifurridza, “penerapan penginderaan jarak jauh menggunakan sistem informasi geografis untuk menentukan parameter fisik daerah aliran sungai (lokasi studi : sub das sumber brantas),” 2013. [2] h. m. jogiyanto, analisis dan disain sistem informasi : pendekatan terstruktur teori dan aplikasi bisnis. yogyakarta: andi offset, 2005. [3] t. gebre, t. kibru, s. tesfaye, and g. taye, “analysis of watershed attributes for water resources management using gis: the case of chelekot micro-watershed, tigray, ethiopia,” jurnal geographic information system, vol. 7, no. 2, pp. 177–190, 2015. [4] e. harseno and v. i. r. tampubolon, “aplikasi sistem informasi geografis dalam pemetaan batas administrasi, tanah, geologi, penggunaan lahan, lereng, daerah istimewa yogyakarta dan daerah aliran sungai di jawa tengah menggunakan software arcview gis,” majalah ilmiah ukrim, vol. 1, pp. 63–80, 2007. [5] e. prahasta, konsep-konsep dasar sig. bandung: informatika, 2002. [6] e. prahasta, sistem informasi geografis konsep-konsep dasar (perspektif geodesi & geomatika). bandung: informatika, 2014. lontar template lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 96 dynamic neural network model design for solar radiation forecast syamsul bahria1, muhammad rijal alfiana, and nurul fitriyania a department of mathematics, faculty of mathematics and sciences, university of mataram mataram, indonesia 1syamsul.math@unram.ac.id (corresponding author) abstract sunlight is an energy source that is a gift from god and is a source of life for living things, including humans as caliphs on earth. judging from its impact, solar radiation is an environmental parameter that has positive and negative effects on human life. the pattern of distribution of solar radiation is important information for human life to be the attention of many people, both policymakers and researchers in the field of environment. this study objects to modeling the radiation of solar using a dynamic neural network (dnn) model. the data used in this research is the meteorological data of mataram city for the period january 2018 to may 2019, which was obtained from the department of environment and forestry of west nusa tenggara province. in the development of this model, solar radiation was seen as a function of a combination of several variables related to meteorological (wind speed, wind direction, humidity, air pressure, and air temperature) and solar radiation data at some previous time. considering the advantages and effectiveness of the activation function in the proposed dnn model learning process, this study's network learning in the hidden layer employed two activation functions: hyperbolic tangent (type i) and hyperbolic tangent sigmoid functions (type ii). the output aggregation used two aggregates for each type: the weighted aggregation function (type a) and the maximum function (type b). the results of computer simulations based on the root of mean square error (rmse) measure indicate that the model for modeling solar radiation in these two cases is quite accurate. furthermore, it could be seen that the model's performance using the hyperbolic tangent activation function (type b) is relatively better than the hyperbolic tangent sigmoid type of the activation function (type a), with the rmse values are 18.3924 and 18.4005, respectively. keywords: design of model, sunlight, solar radiation, meteorology, dynamic neural network 1. introduction the last two years have been stressful times for human life on earth. the world community is busy with the appearance of the covid-19 pandemic (coronavirus diseases 2019), including indonesia. secondary problems related to the covid-19 pandemic have also appealed to the concern of many sides: the government as regulators and scientists as researchers. those issues include the model for the spread of the virus, strategies for preventing the development of the virus and the location of its spread, providing vaccines and the vaccination process, social, economic, educational, and social impact, so as culture and the problems that follow. humans have made various efforts to maintain and improve health and immunity, such as consuming various vitamins that can increase endurance and, at certain times, basking in the sun. according to [1], immunity is an important factor for survival and preventing diseases caused by infections, including covid-19 infection. immunity is especially important for children since the process of bone formation and increasing endurance needs vitamin d. when the skin is exposed to sunlight containing ultraviolet (uv) rays, this process will trigger the synthesis of vitamin d in the body. furthermore, the kidneys and liver convert it into active vitamin d, which can be used by the body to improve calcium absorption and bone health. someone who gets sun exposure of sufficient duration will be one of the causes of meeting the need for vitamin d, which impacts the immune system. a good immune system will maintain a healthy body, including fighting the coronavirus. on the other hand, if the human body is exposed to excessive sunlight, it will have negative effects such as sunburn, triggering signs of skin aging (skin loosening and stretching), mailto:1syamsul.math@unram.ac.id lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 97 and skin becoming rougher and drier. direct exposure to sunlight can also increase the risk of skin cancer, damage eyes and hair color [2]. based on the benefits and negative impacts caused by solar radiation, information and knowledge about the characteristics of daily solar radiation is a problem that must be studied and resolved. mathematical modeling is a tool that can be used to identify and model the distribution pattern of solar radiation intensity. in this case, several studies on solar radiation intensity modeling techniques have been carried out, including modeling using statistics [3] and estimation methods [4]. the modeling of solar radiation using air pressure parameters has been carried out by [5]. the modeling uses a multi-layer perceptron-based neural network method by [6] and the wavelet neural network method [7]. modeling using the time series method with the fundamental of arma [8] and machine learning [9]. modeling using a non-linear time series basis has been carried out by [10]. theoretically, the neural network model consists of two types: the statistic neural network model (static neural network or snn) and the dynamic neural network model (dynamic neural network, dnn). the dnn model is a neural network model focusing on parameter changes over time. based on these characteristics in modeling real problems, the use of the dnn model is more rational than the snn model. several studies related to the application of the dnn model include prediction of weather data [11], prediction of zika virus risk [12], detection of seismic data anomalies [13], prediction of temperature at tube surface [14], segmentation and gesture recognition [15], and prediction of radio signal loss [16]. this study applied a dynamic neural network model (dnn) to model solar radiation using meteorological variables, namely wind speed, wind direction, humidity, air pressure, and air temperature as predictors. besides meteorological variables, predictor variables were also used dynamically data on solar radiation some time in advance. dnn in this study was applied through the development of a dnn network architecture that utilizes the advantages and effectiveness of two types of activation functions, namely hyperbolic tangent and hyperbolic tangent sigmoid functions in the learning process in the hidden layer. furthermore, for each type of activation function, the output aggregation process was distinguished again using the weighted aggregate function and the maximum function. 2. research methods this study used a dynamic neural network (dnn) model to model solar radiation. the meteorological data in mataram, lombok, west nusa tenggara province used were secondary, obtained from the department of environment and forestry, west nusa tenggara province, from january 2018 to may 2019. the meteorological data in question consisted of wind speed ( )1x , wind direction ( )2x , humidity ( )3x , air temperature ( )4 ,x and pressure ( )5x . the study was carried out in four (4) main stages, namely: (i). the development of the model was started by studying the characteristics of solar radiation, one of the parameters of air pollution, as a response variable to several meteorological/weather variables. meteorological variables were wind speed, direction, humidity, air temperature, and pressure. at this stage, the instrument used was correlation analysis, namely cross-correlation analysis between meteorological and solar radiation response variables. furthermore, the effect of solar radiation data on several periods before t time was used for auto-correlation analysis. (ii). dnn architecture development, including: a. determining the number of inputs, b. determining the number of dns layers, c. determining the number of neurons (data) per layer, d. developing the architectural model of the dynamic neural network model used in this study. (iii). creating a computational program based on the dnn model in step ii. (iv). numerical simulation using solar radiation actual data and several meteorological parameters in mataram, lombok island, west nusa tenggara. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 98 3. implementation of the dnn model for solar radiation modeling and discussion 3.1. proposed dnn architecture this study's proposed dynamic neural network (dnn) architecture is visualized below. figure 1. the proposed dnn architecture 3.2. process of feed-forward dnn the feed-forward process on the dnn model proposed in this study can be described based on the following stages: layer 1: the input layer is divided into two input groups, namely the predictor input group in the form of the five meteorological variables mentioned, consisting of m1 data, and the input group data for solar radiation some time in advance consisting of m2 data. layer 2: the result of transforming the input data using the data normalization method with the following rules: ' ' min ' ' max min i i x x x x x − = − (1) ' i x ' max x and ' min x respectively represent the i-th data, the minimum data, and the maximum data from the initial data row collection. in this layer, the number of neurons was the same as in layer 1, namely 1 2 m m m= + neurons. layer 3: each data transformed in layer 2 was summed according to the weight of 1 ij w for the first data group, and with the weight of 2 kj w for the second data group, with 11, 2, , ,i m= lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 99 2 1, 2, ,k m= and 1, 2, ,j c= for a c which stated the number of classifications of the input data. 1 2 ' " 1 1 1 1; 1, 2, , dan ; 1, 2, , m m j ij j j kj j i k u w x j c u w x j c = = = = = =  (2) the number of neurons in this layer was 2c neurons. layer 4: the weighted data of 𝑼𝒋 ′ and 𝑼𝒋 " for 1, 2, ,j c= was activated using two types of functions, namely hyperbolic tangent function (tanh) and hyperbolic tangent sigmoid function (tansig), as follows: 2 2 1 ( ) tanh( ) 1 j j u j j j u e v u u e − = = + , and (3a) 2 2 1 ( ) tan ( ) 1 j j u j j j u e v u sig u e − − − = = + (3b) with ' j j u u= or " j j u u= . layer 5: in this layer, the activation result of , 1, 2, , 2 j v j c= was summed again with the weights of 𝑾𝟑𝒊𝒋, 𝒊 = 𝟏,𝟐,⋯ ,𝟐𝑪 and 𝒋 = 𝟏,𝟐,⋯, 𝑪 using the following equation: 2 1 3( ) , 1, 2, , . c k j jk j j p v w v k c = = = (4) layer 6: the final output of the model is given by the equation: type a: 1 4 , 1, 2, , c k k y w p k c  = =  + = (5) type b: ( ) 1 4max , 1, 2, , c k k y w p k c  = =   + = (6) for a real constant 𝜶 and 𝜷. 3.3. optimization of learning parameters parameter optimization was carried out in the backward and forward steps of dnn. in this case, the optimized parameters included weight parameters of 1w , 2w , 3w , and 4w . parameter optimization using the gradient descent with momentum method to minimize the objective function: ( ) 2 1 1 n d j j j e y y n = = − (7) n represents the amount of data, while j y d j y and respectively represents the output value of the proposed dnn model and the target data value. the backward step optimization process was carried out using the following partial differential equations: ' ' 1 1 e e y p v u w y p v u w       =       (8) lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 100 " " 2 2 e e y p v u w y p v u w       =       (9) 3 3 e e y p v w y p v w      =      (10) 4 4 e e y p w y p w     =     (11) furthermore, the weight improvement process used the following equation: , 1, 2, 3, 4. ij ij k kw w dw k= + = (12) with (1 ) ij r ij k kdw m w m w=  −  −  (13) and m, r , ijkw with 1, 2, 3, 4k = respectively stating the parameters of momentum, learning rate, and weight change of , 1, 2, 3, 4kw k = based on equation (8)-(11). 4. numerical results this section gives the numerical results in modeling solar radiation as a dependent variable, ( ),y t with meteorological variables as independent variables, namely wind speed ( )1x , wind direction ( )2x , humidity ( )3x , air temperature ( )4 ,x , and air pressure ( )5x . besides meteorological data, to accommodate the influence of solar radiation data from time to time, input data is also provided by solar radiation data at previous times, which are analyzed using the autocorrelation method. the combination of these two input types was simultaneously used to model solar radiation as given by equation (14) below: ( ) 1 2 2 3 3 3 4 5 ( 1), ( 2), ( 4), ( 2), ( 4), ( 5), ( 2), . ( 2), ( 1), ( 2), ( 3) x t x t x t x t x t x t x t y t f x t y t y t y t − − − − − − −  =   − − − −  (14) the numerical simulation of the proposed model was divided into two types of activation functions in the hidden layer, namely using the hyperbolic tangent function (tanh) and the hyperbolic tangent sigmoid function (tansig) based on equations (3a and 3b). furthermore, each model was also simulated with two types of determining the output value, namely the weighted coefficient and the maximum function coefficient of weights, respectively, based on equations (5) and (6). the simulation modeling as in equation (14) for 325 data used 280 training data and 45 testing data). 4.1. the model with hyperbolic tangent activation function (type i) the application of the dnn model with the architecture as visualized in figure 1, with the activation function using a hyperbolic tangent function, and with the output value coefficient using weighted coefficients (type i-a model) gave the following results visualized in figure 2 below. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 101 figure 2. comparing the output of the dnn model (blue) and the actual data (red) of solar radiation chart pattern type i-a based on meteorological variables applying the dnn model with the activation function using a hyperbolic tangent function and the output value coefficient using the maximum coefficient (type i-b model) represented the results in figure 3. figure 3. comparing the output of the dnn model (blue) and the actual data (red) of the solar radiation chart pattern type i-b based on meteorological variables based on statistics, the following statistical measures gave the accuracy of the dnn model for modeling solar radiation built upon the impact of meteorological factors. table 1. comparison of data characteristics based on the type of weighted coefficient on the output value of the type i dnn model and its performance data/model in sample out sample performa (rmse) min mean max min mean max in-sample out-sample type i-a of dnn model 21.9279 56.3020 87.1276 2.3077 49.4025 68.4165 14.5490 18.6353 type i-b of dnn model 25.6257 56.2693 84.3381 9.2312 52.2060 70.5805 14.2802 18.3924 actual data 0 57.0206 135.375 2.3077 48.1202 71.5429 in the in-sample data, solar radiation on both models, type i-a and type i-b, are 0.7186 lower than the average actual data. meanwhile, the dnn type i-b model is 0.7513 lower than the actual data average. in the out-sample data, the mean given by the type i-a model and type i-b model is higher than the actual data. the average type i-a model is 1.2823 higher, and the type i-b model is 4.0858 higher than the actual data. based on the average indicator, the type i-a model is relatively preferable to the type i-b model for both data (in-sample and out-sample). table 1 presents the application of the dnn model to model solar radiation based upon meteorological variables. the performance of the dnn model using the activation function of the hyperbolic tangent function type coefficient of maximum output value (type i-b model) is relatively better than the use of weighted coefficients (type ia model) both for in-sample data and outsample data. the root of mean square error (rmse) values obtained for the dnn type i-b model is 18.3924, while the dnn type i-a model receives an accuracy of 18.6353. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 102 4.2. the model with hyperbolic tangent sigmoid activation function (type ii) applying the dnn model with the activation function using a hyperbolic tangent sigmoid function with the output value coefficient using a weighted coefficient (type ii-a model) gave a result as represented in figure 4 below. figure 4. comparing the dnn model output (blue) and actual data (red) of solar radiation graphic patterns based on the meteorological variable of type ii-a dnn model applying the dnn model with an activation function using a hyperbolic tangent sigmoid function with a coefficient of the output value using the maximum coefficient (type ii-b) gave results as revealed in figure 5. figure 5. comparing the dnn model output (blue) and actual data (red) of solar radiation graphic patterns based on meteorological variables of type ii-b dnn model table 2. comparison of data characteristics based on the type of maximum coefficient on the output value of the type ii dnn model and its performance data/model in sample out sample performa (rmse) min mean max min mean max insample outsample type ii-a of dnn model 27.5532 56.3215 90.2840 6.6003 50.9294 69.8383 14.2835 18.4005 type ii-b of dnn model 20.4482 56.0612 96.8665 3.2770 49.0978 70.7381 14.2802 18.7382 actual data 0 57.0206 135.375 2.3077 48.1202 71.5429 in the in-sample data, solar radiation on both models, type ii-a and type ii-b, have a lower average than the actual data. the average intensity of solar radiation given by the dnn type iia model is 0.6991 lower than the average actual data. meanwhile, the dnn type ii-b model is 09594 lower than the average actual data. in the out-sample data, the mean given by the type ii-a model and the type ii-b model is higher than the actual data. the mean of the type ii-a model of 2.8092 and type ii-b model of 0.9776 is higher than the actual data. based on the average indicator for the in-sample data, the type ii-a model is relatively better than the type ii-b model. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 103 however, for the out-sample data, the type ii-b model is relatively preferable to the type ii-a model. table 2 shows the application of the dnn model to model the solar radiation intensity based on meteorological variables. the performance of the type ii-a dnn model is relatively better than the type ii-b dnn model. the rmse value of the type ii-a dnn model is 18.4005, while the type ii-b dnn model is 18.7382. furthermore, table 1 and table 2 present the best results for accomplishing the dnn model based on the type of activation function in the hidden layer. the hyperbolic tangent activation function is relatively better than the activation function using the hyperbolic tangent sigmoid function in modeling the data. this can be seen from the performance of the model using rmse, that the dnn model with activation function using a hyperbolic tangent (type i model) with an accuracy of 18.3924, namely the type i-b dnn model. moreover, the dnn model with the activation function using a hyperbolic tangent sigmoid (type ii dnn model) has a high performance of 18.4005, namely the type ii-a model. compared to [7] on the same data and subjects research, the comparison of model performance is presented in table 3. table 3. performance comparison of the developed dnn model with the wavelet neural network (wnn) [7]. identity of model compared indicators training model testing model mean rmse mean rmse wnn* model (bahri, 2020) 61.8790 16.9941 51.5302 14.7801 type i-b of the dnn model 56.3020 14.2802 52.2060 18.3924 type ii-a of the dnn model 56.3215 14.2835 50.9294 18.4005 actual data 57.0206 48.1202 the average and the rmse indicators in table 3 reveal that the dnn model is relatively better than the wnn* model in the training model. furthermore, in the testing model, the dnn model (type ii-a) average is somewhat better than the wnn* model. however, based on the rmse indicator, the performance of the wnn* model is relatively better than the dnn model developed in this study. therefore, for further research, a hybrid model will be created between the dnn model and the wavelet method to enhance the performance of the currently developed model. 5. conclusion the solar radiation modeling in this study is built upon the dynamic neural network (dnn) model. the application of the dnn model to the solar radiation intensity model based on variables related to meteorology is simulated using two types of activation functions in the hidden layer, namely the hyperbolic tangent function (type i model) and hyperbolic tangent sigmoid (type ii model). each type is then distinguished again in determining the output value with a weighted coefficient (type a) and a maximum coefficient (type b). the rmse indicator shows that the application of the dnn model in this study gave quite acceptable results, as seen in the graph pattern of the model output in comparison with the target data, particularly in the in-sample data. based on the two cases of activation function applied, the dnn model using the hyperbolic tangent activation function is relatively better than the hyperbolic tangent sigmoid type of the activation function. acknowledgment the authors express gratitude to the chancellor of the university of mataram for the financial support for this research. we are grateful to the department of environment and forestry of west nusa tenggara province for supplying the data used in this study. the authors are also thankful to all parties who have provided input to improve this research statement answering issues in the previous section and future research work. lontar komputer vol. 13, no. 2 august 2022 p-issn 2088-1541 doi : 10.24843/lkjiti.2022.v13.i02.p03 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 158/e/kpt/2021 104 references [1] w. t. shearer, "infection versus immunity: what's the balance?" journal of allergy and clinical immunology, vol. 116, no. 2, pp. 263–266, 2005, doi: 10.1016/j.jaci.2005.06.001. [2] anonim, “noseherbalindo glosarium,” noseherbalindo laman, 2019. [online]. available: https://nose.co.id/ glosarium/ultraviolet [3] j. tovar-pescador, "modelling the statistical properties of solar radiation and proposal of a technique based on boltzmann statistics," modeling solar radiation at the earth's surface: recent advances, pp. 55–91, 2008, doi: 10.1007/978-3-540-77455-6_3. [4] a. d. şahin and z. şen, "solar irradiation estimation methods from sunshine and cloud cover data," modeling solar radiation at the earth's surface: recent advances, pp. 145–173, 2008, doi: 10.1007/978-3-540-77455-6_6. [5] m. paulescu, "solar irradiation via air temperature data," modeling solar radiation at the earth's surface: recent advances, pp. 175–192, 2008, doi: 10.1007/978-3-540-77455-6_7. [6] f. s. tymvios, s. c. michaelides, and c. s. skouteli, "estimation of surface solar radiation with artificial neural networks," modeling solar radiation at the earth's surface: recent advances, pp. 221–256, 2008, doi: 10.1007/978-3-540-77455-6_9. [7] s. bahri, “modeling of solar radiation using the wavelet neural network model in mataram city lombok island,” lontar komputer : jurnal ilmiah teknologi informasi, vol. 11, no. 3, p. 178, dec. 2020, doi: 10.24843/lkjiti.2020.v11.i03.p06. [8] j. boland, "time series modeling of solar radiation," modeling solar radiation at the earth's surface: recent advances, no. 1, pp. 283–312, 2008, doi: 10.1007/978-3-540-77455-6_11. [9] l. mora-lópez, "a new procedure to generate solar radiation time series from achine learning theory," modeling solar radiation at the earth's surface: recent advances, no. 1977, pp. 313–326, 2008, doi: 10.1007/978-3-540-77455-6_12. [10] l. fortuna, g. nunnari, and s. nunnaru, nonlinear modeling of soalar radiation and wind speed time series. switzerland: springer, 2016. doi: 10.1007/978-3-319-38764-2. [11] a. j. hussain, p. liatsis, m. khalaf, h. tawfik, and h. al-asker, "a dynamic neural network architecture with immunology inspired optimization for weather data forecasting," big data research, vol. 14, pp. 81–92, dec. 2018, doi: 10.1016/j.bdr.2018.04.002. [12] m. akhtar, m. u. g. kraemer, and l. m. gardner, "a dynamic neural network model for predicting risk of zika in real time," bmc medicine, vol. 17, no. 1, sep. 2019, doi: 10.1186/s12916-019-1389-3. [13] k. hami-eddine, p. klein, l. richard, and a. furniss, "anomaly detection using dynamic neural networks, classification of prestack data," in society of exploration geophysicists international exposition and 82nd annual meeting 2012, seg 2012, 2012, pp. 2005–2009. doi: 10.1190/segam2012-1222.1. [14] ieee control systems society. chapter malaysia, proceedings: 2013 ieee 9th international colloquium on signal processing and its applications, cspa 2013, 8-10 march 2013, berjaya times square hotel, kuala lumpur, malaysia. [15] wu, di, et al., "deep dynamic neural networks for multimodal gesture segmentation and recognition." ieee transactions on pattern analysis and machine intelligence, vol.38, no. 8, 2016, pp.1583-1597, doi: 10.1109/tpami.2016.2537340. [16] u. p. indian institute of information technology (vārānasi, institute of electrical and electronics engineers. uttar pradesh section, and institute of electrical and electronics engineers, 2016 ieee uttar pradesh section conference on electrical, computer and electronics engineering (upcon): indian institute of technology (banaras hindu university), varanasi, india, dec 9-11, 2016. lontar template lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 53 electrooculogram (eog) based mouse cursor controller using the continuous wavelet transform and statistic features triadia1, inung wijayantoa2, sugondo hadiyosob3 aschool of electrical engineering, telkom university bandung, indonesia 1nasher.triadi@gmail.com 2iwijayanto@telkomuniversity.ac.id b school of applied science, telkom university bandung, indonesia 3sugondo@telkomuniversity.ac.id (corresponding author) abstract this study design a system prototype to control a mouse cursor's movement on a computer using an electrooculogram (eog) signal. the eog signal generated from eye movement was processed utilizing a microcontroller with an analog to the digital conversion process, which communicates with the computer through a usb port. the signal was decomposed using continuous wavelet transform (cwt), followed by feature extraction processes using statistic calculation, and then classified using k-nearest neighbors (k-nn) to decide the movement and direction of the mouse cursor. the test was carried out with 110 eog signals then separated, 0.5 as training data and 0.5 as test data with eight categories of directional movement patterns, including up, bottom, right, left, top right, top left, bottom right bottom left. the highest accuracy that can be achieved using cwt-bump and kurtosis is 100%, while the time needed to translate the eye movement to the cursor movement is 1.9792 seconds. it is hoped that the proposed system can help assistive devices, particularly for amyotrophic lateral sclerosis (als) sufferers. keywords: cursor movement, cwt, eog, statistic, k-nn. 1. introduction modern technology in the health sector in monitoring and as a tool for bodily functions makes it very easy for its users. eye-tracking technology has enabled the movement of the human eye to be used as a human-computer interface (hci) [1], [2]. the application of the hci system based on eye movements as a human-computer interaction communication was applied to patients with amyotrophic lateral sclerosis (als) or other diseases that experience paralysis of the hands [3]– [6]. als was a neurodegenerative disease of motor nerve cells that develops rapidly and is caused by damage to nerve cells in the brain [7], [8]. patients with als experience paralysis of the muscles in their limbs and speaking difficulty; thus, it was difficult for als people to use their hands or voice to communicate with other people [7]. apart from being used in the hci field, human eye movement was also useful in various fields, such as healthcare, security systems, and interface design [9]–[11]. in intelligent transportation, eye movements were also useful for detecting the driver's attention level, which indicates the level of driver's drowsiness [12], [13]. on eye movement, the cornea and retina's potential produces a source of the electrooculogram (eog) signal. the application of eog based control system has been commonly proposed, for example, in the control of mobile robots [14] and wheelchairs [15]–[17]. meanwhile, computer interaction development has recently become an important issue to implement, for example, cursor control. horizontal and vertical eye movement and flashing signals controlling the mouse cursor system by moving the direction from the eog-based cursor [18]. therefore, this study proposes a mouse cursor control system using eog signals. the proposed system consists of lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 54 an eog signal recorder, usb interface, and feature extraction and decision-making applications. the raw eog signal was decomposed using a wavelet transform and then calculating the statistical features into a feature vector that becomes the classification algorithm's input. this system was designed to move the mouse cursor, including up, bottom, right, left, top right, top left, bottom right, and bottom left. this paper is structured as follows, section 2 describes the design and implementation of the proposed system, including hardware design, software design, feature extraction, and classification process. section 3 contains an explanation of implementation results followed by a discussion. the final section briefly describes the conclusions and implications of this study. 2. system design and implementation the design and implementation of the system in this study were to adopt the human-computer interface (hci) mechanism. the output of this system was a mouse cursor movement control with an eog signal. 2.1. hardware design figure 1 shows the two components of the eog consisting of horizontal and vertical obtained from five electrodes placed around the eye. these were attached on the edges of both eyes and also over and under the eye. the middle electrode serves as a reference. the eogv1 and eogv2 electrodes obtain relative corneal-retinal vertical motion of the eye, while eogh1 and eogh2 get a signal from the potential relative to the horizontal movement of the eye. figure 1. mouse cursor controller system overview the component for horizontal eog signal acquisition is obtained by subtracting the left-eye electrode signal from the right eye electrode signal (eogh = eogh2 eogh1). the vertical eog component was obtained by subtracting the signal at the eye's bottom edge from the signal at the top edge of the eye eogv = eogv2-eogv1. eogh and eogv were notations that denote the horizontal and vertical elements of eog. this system consists of hardware for eog signal acquisition and software for signal processing and decision-making, as shown in figure 2. eog hardware contains components for signal acquisition, consisting of an instrumentation amplifier, low pass filter (lpf), high pass filter (hpf), and level shifter. the instrumentation amplifiers amplify the electrode signal leads. the instrumentation amplifier component used in this study was ina118p with an amplification of 1000 times. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 55 figure 2. the components of the mouse cursor controller system figure 3. the schematic design of the amplifier (2-channel eog) figure 3 shows the schematic design of the 2-channel eog amplifier used in this study. the hpf implemented in this study has a cut-off frequency of 0.05 hz to eliminate low-frequency noise due to body movement. the value of r was obtained by applying equation (1). 1 2 c f rc= (1) here the value of 2.2c f= then the r-value was obtained 1.4r m=  . lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 56 meanwhile, the lpf was designed to have a cut-off frequency of 40 hz to reject a large amount of high-frequency noise such as muscle noise. the low pass filter was designed using the butterworth 4th order filter method and the sallen-key circuit type, as shown in figure 4. figure 4. schematic design of low pass filter 40 hz to match the reading range of the adc component, the signal was amplified by the final amplifier. before amplification, the eog signal has a relatively small amplitude of about 3.5 mv, so that at the end of the amplifier, 120 times gain was required. the final amplifier was designed using op07. then, so that the adc can ultimately convert all eog signals, a level shifter was designed to make all eog signal components positive. the schematic of the amplifier and the level shifter is shown in figure 5. figure 5. schematic design of the amplifier and level shifter 2.2. software design the design software developed was used to display the eog signal's output, feature extraction, classification, and simulation of the mouse cursor. the software design with adc reading uses the arduino ide. it performs serial calibration with python to perform mouse cursor direction movements with the py.mouse library data obtained from python with *.csv format. at the classification stage, there were training data and test data. the training data was used as lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 57 the calibration data when sampling the mouse cursor motion data, while the test data with test data that has been adjusted with the calibration data was processed to determine the accuracy with the method used in this study. the classification process was shown in figure 6. figure 6. classification process the systematic workflow was started by signal acquisition using the eog hardware, followed by the signals' amplitude normalization. the signal was decomposed by the wavelet transform then characterized using statistical analysis including entropy, mean, kurtosis, and skewness. this feature vector was then stored as training data for each eye movement. the new input feature vector was then classified based on the vector closest to the training vector. the classification process was carried out using k-nearest neighbor (k-nn) with k = 3. the k-nn was chosen because it has low computational cost and effectiveness in hardware implementation. 2.3. feature extraction and classification feature extraction in this study is used to calculate the features contained in the signal as the first step in signal classification. feature extraction is calculated on the wavelet decomposition signal. in this study, statistical calculations were used for feature extraction. the calculated statistical parameters include: 1. mean for a n number data of a set x , the mean ( ) can be calculated using (2) 1 1 n i i x n  = =  (2) 2. entropy entropy is used to measure the irregularity of signal distribution ( )p . the entropy calculation is shown in (3). 1 2 0 ( ) log ( ) n i entropy p i p − = = − (3) 3. skewness skewness is the symmetry value of a set x , and it is calculated using (4). ( ) 3 1 3 n ii x x n skewness  = − =  (4) here, the mean, the  and n is the standard deviation, and the number of data, respectively. 4. kurtosis kurtosis calculates the relative sharpness of a signal's distribution curve, which calculates using (5). ( ) 4 1 4 n ii x x n kurtosis  = − =  (5) lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 58 these parameters then become the feature vector as input fork-nn to be classified. in this study, the method of measuring the distance in k-nn is the euclidean method. 3. result and discussion this section discusses the results of testing and analysis of the system that has been implemented. this test aims to determine system performance. testing was done during eye movement to control mouse movement. the test was carried out on seven individuals with normal vision by moving the sun horizontally (left and right movement) and vertically (up and down movement). figure 7 shows an example of an eog signal when the eyeball is left and right, respectively. this signal is then decomposed with a wavelet, and its statistical characteristics are calculated. the test scenario consists of four procedures. the first procedure was equipment preparation, which checks and verifies the connection of the equipment used. this procedure was done to ensure all electrodes' positions are confirmed and ready to be used. the second procedure was user preparation, which focused on the electrodes' placement in the participant's face. before the electrodes were placed, the face surface must be cleaned using a gel cleanser. the vertical electrodes were placed above the right eyebrow, and the lower lid, with distance, is set for about 1 cm and 1.5 cm, respectively. the horizontal electrodes were placed in the outer canthi for about 1.5 cm on each side. the reference electrode was placed on the forehead. figure 7. example of an eog signal (left and right eyeball) the third procedure was system calibration. it was started by the calculation of eye blinks and movement. thus it can be used as the system's threshold. the threshold for each participant was calculated by calculating the amplitude of their various eye movements. the eye movement was measured by giving the participants visual stimulation using a video showing a moving square object. the square moved to five different locations and stayed for five seconds on each location. the last procedure was exiting the calibration process. the calibration process was ended when the participants make a spontaneous blink using the right eye. in eog signal processing, there were three types of cwt wavelets used in this study: morse, amor, and bump. the feature extraction method was done using the statistical features of mean, entropy, skewness, and kurtosis. before the testing phase, a system training stage using euclidean distance with a value of k = 3 was performed using the training data. after that, the testing data was fed to the system to be classified. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 59 figure 8. effect of mother wavelet and statistical features on system accuracy figure 8 shows that the effect of wavelet types and statistical features on the accuracy of the generation. the result shows that there is no significant difference between the use of statistical measurement and entropy. however, the signal sharpness analysis using kurtosis in the bump cwt can provide the best performance, which was 100%. since the eog signal was not symmetrical, signal analysis using skewness could not give a good result. therefore, the use of skewness achieves the lowest accuracy of 69%. furthermore, the computation time for each test scenario was shown in figure 9. the kurtosis feature takes longer than other features (1.9792 seconds) but provides the highest accuracy. the difference in processing time was not significant, so that if this system is applied, the characteristic of kurtosis was most suitable to be used by considering the accuracy. figure 9. the computation time of each scenario the mouse control system proposed in this study is expected to help people with disabilities when they want to operate a computer with simple commands. a control system using eog signals may be the last alternative if the hands and feet are also disabled. this proposed study can complement the previous study by rusydi et al. [19], where muscle signals and eog can be utilized for the control system. 4. conclusion in this study, a mouse control system using eog signals has been successfully implemented. the eog signal was decomposed using a wavelet transform, and then the statistical features lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 60 were calculated, including entropy, mean, kurtosis, and skewness. k-nearest neighbor was used to classifying the mouse's moving, including up, top right, top left bottom, bottom right, bottom left, right, and left. from the proposed system's test results, the highest accuracy was 100%, obtained using the statistical features of kurtosis and wavelet bump with a computation time of 1.9792 seconds. the proposed system is expected to be used by people with disabilities to operate computers with simple commands. in future studies, a user interface similar to a keyboard compatible with the operating system will be developed to write text. another important issue is that this system requires a faster processing time to run in real-time. references [1] s. chandra, g. sharma, s. malhotra, d. jha, and a. p. mittal, "eye tracking based human computer interaction: applications and their uses," in proceedings 2015 international conference on man and machine interfacing, mami 2015, 2016, no. december, pp. 1–5, doi: 10.1109/mami.2015.7456615. [2] x. zhang, x. liu, s. m. yuan, and s. f. lin, "eye tracking based control system for natural human-computer interaction," computational intelligence and neuroscience, vol. 2017, pp. 1–9, 2017, doi: 10.1155/2017/5739301. [3] d. y. kim, c. h. han, and c. h. im, "development of an electrooculogram-based humancomputer interface using involuntary eye movement by spatially rotating sound for communication of locked-in patients," scientific reports, vol. 8, no. 1, pp. 1–10, 2018, doi: 10.1038/s41598-018-27865-5. [4] c.-y. su and j.-j. wong, "connecting with dysphonia: human-computer interface for amyotrophic lateral sclerosis patients," 2011, pp. 453–457. [5] h. ka hou and s. k.g., "low-cost wireless electrooculography speller," in 2018 ieee international conference on systems, man, and cybernetics (smc), oct. 2018, pp. 123– 128, doi: 10.1109/smc.2018.00032. [6] g. teng, y. he, h. zhao, d. liu, j. xiao, and s. ramkumar, "design and development of human computer interface using electrooculogram with deep learning," artificial intelligence in medicine, vol. 102, p. 101765, jan. 2020, doi: 10.1016/j.artmed.2019.101765. [7] o. hardiman et al., "amyotrophic lateral sclerosis," nature reviews disease primers, vol. 3, no. 1, p. 17071, dec. 2017, doi: 10.1038/nrdp.2017.71. [8] e. zucchi et al., "neurofilaments in motor neuron disorders: towards promising diagnostic and prognostic biomarkers," molecular neurodegeneration, vol. 15, no. 1, p. 58, dec. 2020, doi: 10.1186/s13024-020-00406-3. [9] d. yuan et al., "a closed-loop electrical stimulation system triggered by eog for acupuncture therapy," systems science & control engineering, vol. 8, no. 1, pp. 128–140, 2020, doi: 10.1080/21642583.2020.1733130. [10] a. bissoli, d. lavino-junior, m. sime, l. encarnação, and t. bastos-filho, "a human– machine interface based on eye tracking for controlling and monitoring a smart home using the internet of things," sensors (switzerland), vol. 19, no. 4, pp. 1–26, 2019, doi: 10.3390/s19040859. [11] c.-i. wu, "hci and eye tracking technology for learning effect," procedia social and behavioral sciences, vol. 64, pp. 626–632, nov. 2012, doi: 10.1016/j.sbspro.2012.11.073. [12] a. sahayadhas, k. sundaraj, and m. murugappan, "detecting driver drowsiness based on sensors: a review," sensors, vol. 12, no. 12, pp. 16937–16953, dec. 2012, doi: 10.3390/s121216937. [13] j. xu, j. min, and j. hu, "real-time eye tracking for the assessment of driver fatigue," healthcare technology letters, vol. 5, no. 2, pp. 54–58, 2018, doi: 10.1049/htl.2017.0020. [14] w. s. sanjaya, d. anggraeni, r. multajam, m. n. subkhi, and i. muttaqien, "design and experiment of electrooculogram (eog) system and its application to control mobile robot," journal of physics: conference series, vol. 180, pp. 1–8, 2017, doi: 10.1088/17426596/755/1/011001. [15] r. b. navarro, l. b. vázquez, and e. l. guillén, eog-based wheelchair control, second edition elsevier b.v., 2018. [16] n. borkar, t. dongare, p. chahande, j. bonsod, and a. b. jirapure, "microcontroller based eog and accelerometer guide wheelchair," international research journal of engineering and technology (irjet), vol. 5, no. 3, pp. 3803–3807, 2018. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 61 [17] w. xu, n. chen, x. han, and j. sun, "research on wheelchair robot control system based on eog," aip conference proceedings, vol. 1955, no. april, pp. 1–5, 2018, doi: 10.1063/1.5033815. [18] a. u. kabir, f. bin shahin, and m. kafiul islam, "design and implementation of an eogbased mouse cursor control for application in human-computer interaction," journal of physics conference series, vol. 1487, no. 1, pp. 1–6, 2020, doi: 10.1088/17426596/1487/1/012043. [19] m. i. rusydi, i. aryeni, joefrinaldo, z. romadhon, and a. rusydi, "robot mobile control based on three emg signals using an artificial neural network," iop conference series: materials science and engineering, vol. 602, no. 1, pp. 1–11, 2019, doi: 10.1088/1757899x/602/1/012028. lontar template lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 163 propeller speed control system on autonomous quadcopter with variations in load fulcrum point ratna aisuwaryaa1, ibrahim saputraa2, dodon yendria3 acomputer engineering, faculty of information technology, andalas university kampus unand limau manis, padang, indonesia 1aisuwarya@it.unand.ac.id 2fitramy13@gmail.com 3dodon@it.unand.ac.id abstract the need for unmanned vehicles is increasingly needed in certain conditions, such as distribution of disaster supply, distribution of medicines, distribution of vaccines in the affected areas in pandemic situations. the various types of goods to be distributed require a different fulcrum. this research implemented pid control for the quadcopter balance control system to achieve stability during hovering. pid control is used to achieve a certain setpoint to produce the required pwm output for the propeller to reach a speed that can fly the quadcopter tilted until it reaches a steadystate. tests were carried out on the roll and pitch motion of the quadcopter by providing a load. the results show that pid control can be implemented for the quadcopter balance control system during hovering by determining the pid constants for each roll and pitch motion with kp = 0.15, kd = 0.108, and ki = 0.05. the quadcopter takes 3 – 6 seconds to return to the 0-degree setpoint when it is loaded. keywords: quadcopter, stability, pid, speed control, fulcrum 1. introduction this aerial explorer robot is often referred to as an unmanned aerial vehicle (uav). one type of uav that is widely used is the quadcopter. quadcopter has many potential uses that can be developed, one of which is the transportation of goods. the need for unmanned vehicles is increasingly needed in certain conditions, such as distribution of disaster supply, distribution of medicines, distribution of vaccines in the affected areas in pandemic situations. the various types of goods to be distributed require a different fulcrum. for the transportation of goods, the mass and the fulcrum of the load affect the rotational speed of the propeller motor, which affects the quadcopter's stability. the modeling and practical control design of a uav based on a quadcopter have been conducted in several studies. the pid controllers were set for angular position stability (roll and pitch) and yaw speed [1]. in the field of surveillance and remote package delivering systems also developed using microcontrollers that are programmed to turn on the quadrotors using electronic speed controllers and power electronics design considerations[2][3]. modeling and simulation of multi-rotors using spatial operator algebra are useful for a minimal range of angles[4]. quadcopter flight stability is achieved when all propellers generate equal thrust in hover and throttle mode [5]. a workbench prototype testing on a breadboard is important to get initial setups for testing results[6][7]. research [8] shows the implementation of uavs in the agriculture field to spray herbicides. thus, the stability of a quadcopter flight control for the intended load and various conditions is crucial. the quadcopter model must have parameters on various relationships, including propeller thrust torque, thrust-pwm, and thrust-angular speed to a certain level of accuracy [9][10]. various control algorithms have been developed to stabilize the quadcopter over a certain trajectory since it is hard to follow a particular trajectory. in paper [11], a fuzzy-pid controller is designed using matlab. low-level controller using robust control techniques also simulated in[12]. the dynamic model of the drones, the control method of the quadcopter unmanned aerial vehicle with four brushless dc motor speed control, is given in[13]. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 164 furthermore, since the quadcopter will carry loads, a mathematical model of the dynamics of motion of a quadcopter is needed taking into account the important effect of the lifting rotors rotation speed change 14]. our previous research [15] shows stability response in the quadcopter limited to the condition of the quadcopter hovering for pitch and roll angles. we also get the initial setup for the maximum load for different fulcrums; 950g for the fulcrum in the middle of the quadcopter, 580g for the load is placed 6 cm from the middle of the quadcopter, and 310g if the load is placed on one motor. so that in this research, a quadcopter was designed that is capable of carrying loads that have different variations in fulcrum and self-stabilizing automatically. pid control is used to achieve a certain setpoint to produce the required pwm output for the propeller to reach a speed that can fly the quadcopter tilted until it reaches a steady-state. tests were carried out on the roll and pitch motion of the quadcopter by providing a load. this study aims to produce a quadcopter design that can fly stably and be balanced when the load is implemented at different fulcrum points. 2. research methods our research is based on an experimental project. it consists of a data reading process and pid control processing based on variations in load fulcrum. the system read the quadcopter orientation sensor data after being loaded at a predetermined point using the mpu-9250 orientation sensor on the ardupilot. then, pid control processing is based on a set point. the pid control processes the data sent from the sensor. the output is a pwm signal used to control the motor to achieve predetermined quadcopter balance points. 2.1. quadcopter mathematical model in three-dimensional space, the quadcopter has two coordinate systems figure 1) : (1). body frame; coordinates that move together with the quadcopter, and (2) inertial frames; quadcopter's coordinates reference points. the inertial frame or setpoints work as reference balance for the quadcopter. figure 1. quadcopter body frame and inertial frame rotational matrix mathematical models are used to change the quadcopter's movements to match the inertial value of the frame (equation 1). cb∨i= [ c(θ)c(ψ) c(θ)s(ψ) -s(θ) (-c(ϕ)s(ψ)+s(ϕ)s(θ)c(ψ)) (c(ϕ)c(ψ)+s(ϕ)s(θ)s(ψ)) s(ϕ)c(θ) (s(ϕ)s(ψ)+c(ϕ)s(θ)c(ψ)) (-s(ϕ)c(ψ)+c(ϕ)s(θ)s(ψ)) c(ϕ)c(θ) ] (1) where, cb∨i is the conversion of the body frame value to the inertial frame, ϕ(phi), θ(theta), ψ(psi) is a rotational angle formed by the quadcopter when flying against x, y, z axes. the inertia matrix describes the moment of inertia contained in the quadcopter on each axis. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 165 jb = [ jxx 0 0 0 jyy 0 0 0 jzz ] (2) where jbis quadcopter inertia in body frame, jxx,jyy,jzz is the quadcopter moment of inertia to each axis. motor lift or thrust determines the ability of a quadcopter to fly, calculated by: t = ctρarr 2ϖ2 (3) where t is the thrust of the motor, ct is the coefficient of thrust in each motor. ρ is the mass density, ar is the propeller rotation area, r is the radius of the rotor, and ϖ 2 is the angular velocity of the rotor. the body frame also accepts a lift from the rotor. the lift will only affect the z-axis, so the formula for lift is: fa,t b = [ 0 0 ct(ϖ1 2 + ϖ2 2 + ϖ3 2 + ϖ4 2) ] (4) the equation for finding a motor rpm is useful for converting pid control output with the following formula: rpm = (throttle%)cr + b (5) where cr is motor rpm constant per input voltage, and b is resistance on the y-axis. 2.2. the design of a quadcopter speed control system the speed control system model is built in the simulink module of matlab. using the mathematical model described previously, the variables of each pitch angle, roll, and yaw quadcopter can be determined. furthermore, we design a quadcopter speed control system divided into several function blocks, as shown in figure 2. figure 2. block diagram of a quadcopter control system simulation lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 166 in the attitude commands block, the data set point for each roll, pitch, yaw, and quadcopter height can be determined as an input of the desired quadcopter condition, then in the attitude controller block a pid control data processing for each roll, pitch, yaw and the height of the quadcopter can be seen in figure 3. figure 3. attitude control process diagram of each motion and height of the quadcopter as seen in figure 3, each roll and pitch motion uses two input feedback: the angular acceleration and the euler kinematic angle. by implementing the pid control, the correction in each motion and the quadcopter's height can be calculated to reach the given setpoint. the output of pid is in the form of power or throttle for each motor that affects the motion of roll, pitch, and quadcopter height. then the correction of each motion is processed in the quadcopter control block, the throttle for each motor can be determined. finally, in the quadcopter dynamic block, the throttle of each motor is converted to rpm by using equation 5, and quadcopter attribute data can be determined in the simulation by implementing equations 1-4. 3. result and discussion 3.1. test design the pid constant value that has been obtained is implemented on the designed quadcopter. the quadcopter is turned on and flown in a hover condition, without any load. the expected outcome of this test is that the quadcopter can reach and stabilize at setpoints of 0 degrees after applying load at the time of hover. the following test scenario for this test item : a. load: weights 700 g, 500 g, and 200 g are given to the quadcopter with a fulcrum variation in the middle point between 2 arms and placed on one quadcopter arm. b. evaluation: the quadcopter's performance is compared to the simulation to get the percentage of errors to be analyzed. figure 4. load test illustration lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 167 3.2. hardware implementation in this section, hardware testing determines that the designed system works and produces output that matches the purpose. from this test, the obtained data will be used to analyze the work process of each hardware so that we can proceed to the test environment set up. the assembled quadcopter can be seen in figure 5. figure 5. quadcopter top and front view 3.3. quadcopter model simulation the pid control data can be tested and determined using a quadcopter simulation on matlab with this configuration. the first step in this test is inputting hardware data previously measured to be a model in the simulation, as shown in figure 4.5. figure 6. quadcopter model simulation from the results of the measurement of technical specification using the hardware data, we get the moment of inertia for each component and the total moment of inertia quadcopter as in table 1 [15]: lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 168 table 1. moment of inertia of quadcopter [15] jx jy jz unit motor 0.005009 0.005009 0.009899 kg.m2 esc 0.000661 0.000661 0.001322 kg.m2 arm 0.002413 0.002413 0.00362 kg.m2 middle frame 0.000429 0.000429 0.000738 kg.m2 total moment of inertia 0.008513 0.008513 0.015579 kg.m2 after the model is obtained, hover conditions with slope disturbance and roll motion is simulated in figure 7. figure 7. hover condition simulation with 20-degree disturbance in roll motion the next step is an experiment to determine the constant value of the pid control for each eulerian motion, where at this stage, the pid test is only performed at a roll angle as follows first. a. stable oscillating roll (figure 8.a): at this stage, ku = 0.25 and pu = 5.8 seconds using ziegler-nicholas theory for pid control, where kp = 0.15, ki = 0.051, and kd = 0.108. b. stable oscillating pitch (figure 8.b): furthermore, the pitch motion obtained ku = 0.25 and obtained pu = 5.8 seconds using ziegler-nicholas theory for pid control, where kp = 0.15, ki = 0.051, and kd = 0.108. a.roll b.pitch figure 8. stable oscillating pitch and roll simulation experiments were conducted to determine the pid constant for each roll and pitch motion. these experiments go through the same stage by increasing the kp constant value until a stable overshoot is shown in figure 9 10. thus, ku gain value and the pu oscillation period value can be determined to get the values of kp, ki, and kd using the ziggler-nicholas approach. the pid constant obtained for each roll and pitch motion is implemented in the testing process. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 169 figure 9. roll quadcopter simulation with pid figure 10. pitch quadcopter simulation with pid 3.4. quadcopter testing at this stage, the pid test is performed on the designed quadcopter (figure 11). the response time of the quadcopter pid control is collected, where the data collection of each roll and pitch motion starts from the time of disturbance or error in the quadcopter. data were analyzed in several parts, namely roll, pitch, and motor pwm, based on response time, as shown in figures 12 and 13. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 170 figure 11. pitch quadcopter simulation with pid by using collected data, calculation of the response time control on the quadcopter was designed as follows (figure 12): based on the calculation of the percent overshoot obtained a value of 20.20%, which means the quadcopter rotates at a pitch motion of 20.20% to achieve a steady-state from the overshoot state. the pitch motion is not given interference, but because of the large output in the roll motion, the disturbance in the pitch motion is a side effect of such an output; thus, resulting in disturbance as small as 5 degrees, can be seen in figure 12. b. a. roll motion b. pitch motion figure 12. roll and pitch motion with pid on quadcopter the reference value of tr roll is 2 degrees so that the tr roll time is 0.99 seconds, which means that the quadcopter takes 0.99 seconds to reach 90% of the interval to the setpoint on the roll motion. the ts roll time is approximately 4.28 seconds, with a ts reference value of -0.4 degrees from the setpoint. the quadcopter takes 1.4 seconds to reach the peak overshoot value of -12.8 degrees. a value of 23.85% is obtained based on overshoot calculation, which means the quadcopter rotates at a roll motion of 23.85% to reach a steady state. the percent overshoot value occurs because the peak overshoot is much higher than the steady-state value due to the pid control response against temporary disturbances. based on the picture, the reference value of tr pitch is -0.5 degrees, so that the tr pitch time is 0.7 seconds, which means that the quadcopter takes 0.7 seconds to reach 90% of the interval to the setpoint in pitch motion. then, the reference value of ts pitch is approximately 0.1 degrees from the setpoint, and the ts pitch time is approximately 5.3 seconds. it takes 5.3 seconds to reach a steady state. the reference value of tp pitch is 2.12 degrees, where this reference value is obtained from the peak value at overshoot, peak time (tp) is 1.4 seconds, the quadcopter rotates at a pitch motion of 2020% to achieve a steady-state from the overshoot state. the pitch motion is not disturbed, but because of the large output in the roll motion, there is a disturbance lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 171 in the pitch motion as a side effect of such a large output, but the resulting disturbance is 5 degrees. figure 13. quadcopter motor pwm output with pid the value of each motion still oscillates in the steady-state range because the quadcopter detects an error on the quadcopter's z-axis. it can be proven based on the motor output shown in fig. figure 13, where it can be analyzed that motors 4 and 3 have a higher value than the input pwm setpoint or a steady-state error occurs. based on the quadcopter configuration that has been designed, if motors 4 and 3 have a higher output than motors 1 and 2, the quadcopter will rotate to the right. 3.5. testing and analysis of control response times against variation of pivot points in the quadcopter (figure 14), loads are given to the quadcopter with a fulcrum variation in the middle point (700g), between 2 arms (500g), and on one quadcopter arm (200g). the data obtained from the time response analysis for each motor and the response time analysis in this test are divided into 2, namely the transient and steady-state responses. figure 14. quadcopter with load variation 1200 1300 1400 1500 1600 1700 1800 1900 1 1 2 .3 3 1 1 2 .6 3 1 1 2 .9 3 2 1 1 3 .2 3 1 1 3 .5 3 1 1 1 3 .8 3 1 1 4 .1 3 1 1 1 4 .4 3 1 1 4 .7 3 1 1 5 .0 3 1 1 1 5 .3 3 1 1 1 5 .6 3 1 1 5 .9 3 2 1 1 6 .2 3 1 1 1 6 .5 3 1 1 6 .8 3 1 1 7 .1 3 1 1 7 .4 3 1 1 7 .7 3 1 1 8 .0 3 1 1 8 .3 3 1 1 8 .6 3 1 1 1 8 .9 3 1 1 9 .2 3 1 1 9 .5 3 1 1 9 .8 3 1 2 0 .1 3 2 1 2 0 .4 3 1 1 2 0 .7 3 3 p w m waktu pwm motor input motor1 motor2 motor3 motor4 lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 172 (a) 700 g at the midpoint (b) 200 g at m2 (c) 500 g at m2 and m4 figure 15. quadcopter motor pwm output with pid the addition of load to the midpoint of the quadcopter (figure 15.a) does not affect roll and pitch motion, thus, affecting the speed and resulting in a steady-state error for all motors. the quadcopter requires 17.47 percent more power on motor 1, 21.19% more power on motor 2, 29.2 percent more on motor 3, and 27.89 percent more power on motor 4 to remain to hover with a 700g load at the midpoint of the quadcopter compared to hovering no burden. figure 15.b shows the results of quadcopter testing when given a 200g load on motor 1. the response time on motor 1 is slower because the pid control detects a more significant disturbance in motor 1 pair, namely motor 2, so motor 1 must be slower than motor 2 to balance quickly. the additional load on the two quadcopter motors affects the roll and pitch motion of 25 degrees and 26.5 degrees. the load also affects the speed of the quadcopter, where the motor experiences a steady-state error. the quadcopter requires 3.86 percent more power on motor 1. 9.8 percent more on motor 2., 4.83 percent more on motor 3, and 4.02 percent more on motor 4 to remain able to hover with a 200g load on motor 2 compared to the hover state without load, the most significant error value occurs in motor 2 where the load is stacked, the closer the motor is to the fulcrum, the greater the error. furthermore, for testing with 500g load on motor 2 and 4, figure 15.c. quadcopter takes 1.8 seconds for motor 1, 1.8 seconds for motor 2, 1.2 seconds for motor 3, and 0.8 seconds for motor 4 to reach 90% of the interval to steady-state. the response time on motors 1 and 3 is slower because the pid control detects a more significant disturbance in its partner, motors 2 and 4, to balance itself quickly. the overshoot value is 0.65% on motor 1, 0.93% on motor 2, 0.09% on motor 3, and 1.54% on motor 4, where this percentage value means the power required for each quadcopter motor to reach a steady-state from the overshoot state. loads that are only focused on their respective partners so that the motor slows down to balance itself. the additional load on the 2 and 4 quadcopter motors affects the roll and pitch motion of 25 degrees and 26.5 degrees. the quadcopter requires 1.79 percent more power on motor 1, 9.8 percent more power on motor lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 173 2, 2.4 percent more on motor 3, and 5.03 percent more power on motor 4 to remain to hover with a 500-gram load between the motors 2 and 4 compared to with no-load hovering state. overall test results show in table 2. table 2. test results for variation of the load support point 4. conclusion based on the research and testing, it can be concluded that pid control can be implemented for the quadcopter balance control system during hovering by determining the pid constants for each roll and pitch motion with the constant of kp = 0.15, kd = 0.108, and ki = 0.05. the quadcopter takes 3 – 6 seconds to return to the 0-degree setpoint when loaded with various loads and positions. the more significant the tilt error in the quadcopter, the longer it takes to return to the 0-degree setpoint. in further research, it is necessary to add a system that can automatically detect the load's position so that the quadcopter balanced system can reach the balance point more quickly during hovering. 5. acknowledgment the authors would like to thank the faculty of information technology, andalas university, for its publication support. references [1] m. f. silva et al., "design of angular pid controllers for quadcopters built with low cost equipment," in 20th international conference on system theory, control and computing (icstcc), 2016, pp. 216-221. [2] a. ghosh, h. roy and s. dhar, "arduino quadcopter," in fourth international conference on research in computational intelligence and communication networks (icrcicn), 2018, pp. 280-283. [3] y. t. shin and y. teh, "design analysis and considerations of power efficient electronic speed controller for small-scale quadcopter unmanned aerial vehicle," in ieee 8th annual computing and communication workshop and conference (ccwc), 2018, pp. 773-776. [4] kuantama e, tarca i, dzitac s, dzitac i, tarca r. "flight stability analysis of a symmetricallystructured quadcopter based on thrust data logger information". symmetry, vol. 10 no. 7, pp. 291, 2018. [5] a. j. m. tamayo, c. a. v. ríos, j. m. i. zannatha and s. m. o. soto, "multirotor modelling and simulation: screws, s.o.a., euler angles, quaternions, wind," in 14th international conference on electrical engineering, computing science and automatic control (cce), 2017, pp. 1-6. [6] zabunov, s. and nedkov, r., "edge controller – a small uavs distributed avionics paradigm", aircraft engineering and aerospace technology, vol. 92 no. 2, pp. 229-236, 2020. [7] mendoza-soto, j.l., corona-sánchez, j.j. & rodríguezcortés, h. quadcopter path following control. a maneuvering approach. j intell robot syst 93, 73–84, 2019. [8] ukaegbu, u.f.; tartibu, l.k.; okwu, m.o.; olayode, i.o. "development of a light-weight unmanned aerial vehicle for precision agriculture." sensors, vol.21, no.13, p.4417, 2021. no load and position tr (s) ts (s) tp (s) os (%) steady state (s) roll pitch roll pitch roll pitch roll pitch m1 m2 m3 m4 1 700 g at the midpoint 1 0.6 2.62 3.82 1.6 1.3 206.6 0.37 20.93 20.93 20.93 20.9 3 2 200 g at m2 2 2.07 4.5 4.7 3.3 3.5 3.51 53 4.6 11.3 5.3 5.3 3 500 g at m2 and m4 1.2 1.1 5.74 6.1 3.3 3.4 0.89 0.35 1.93 8.5 2.2 5.93 lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 174 [9] g.p. rible, n.a. arriola, j.m. ramos "modeling and implementation of quadcopter autonomous flight based on alternative methods to determine propeller parameters", advances in science, technology and engineering systems journal, vol. 5, no. 5, pp. 727741, 2020. [10] w. xie, d. cabecinhas, r. cunha and c. silvestre, "cooperative path following control of multiple quadcopters with unknown external disturbances," in ieee transactions on systems, man, and cybernetics: systems. [11] rabah m, rohan a, han yj, , kim sh. "design of fuzzy-pid controller for quadcopter trajectory-tracking". ijfis, vol. 18, p. 204-213. 2018. [12] j. m. ramírez-rodríguez, y. e. tlatelpa-osorio and h. rodríguez-cortés, "low level controller for quadrotors," in international conference on unmanned aircraft systems (icuas), 2021, pp. 1155-1161. [13] z. zhang, "adaptive control of quadrotor uav based on arduino," in 8th international conference on power electronics systems and applications (pesa), 2020, pp. 1-4. [14] m. k. filyashkin, "the inertance effect of the lifting rotors rotation speed change on the quality of automatic control of a "heavy" quadcopter," in ieee 6th international conference on methods and systems of navigation and motion control (msnmc), 2020, pp. 129-131. [15] aisuwarya, r., marta yonas, f., & yendri, d. (). design of autonomous quadcopter using orientation sensor with variations in load fulcrum point. lontar komputer : jurnal ilmiah teknologi informasi, , vol. 10, no. 2, p. 84-95, 2019. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 324 audit ti untuk menemukan pola best practice pengelolaan ti pada perbankan (studi kasus pt. bank syariah mandiri cabang denpasar) shofwan hanief email : zwanhanf27@gmail.com abstrak pt. bank syariah mandiri cabang denpasar sudah menggunakan ti untuk menunjang proses pelayanan yang dilakukan. sampai saat ini ti yang ada belum pernah dilakukan penilaian sejauh mana proses-proses tersebut dapat berjalan dengan baik. agar implementasi it governance yang ada di pt. bank syariah mandiri berlangsung secara efektif, organisasi perlu menilai sejauh mana it governance yang sekarang berlangsung dan mengidentifikasi peningkatan yang dapat dilakukan. pengunaan model maturity (kematangan) dalam hal ini akan memudahkan dalam penilaian dengan cara pendekatan yang terstruktur terhadap skala yang mudah dimengerti dan konsisten. salah satu alat yang digunakan untuk it governance adalah cobit (control objectives for information and related technology) yaitu suatu model standar pengelolaan ti yang dapat membantu pihak manajemen dan pemakai untuk menjembatani kesenjangan antara resiko bisnis, kebutuhan kontrol, dan permasalahan teknis.analisis untuk tingkat kematangan dilakukan dengan cara membandingkan tingkat kematangan yang ada pada saat ini dengan tingkat kematangan yang dituju.tingkat kematangan saat ini (current maturity level) untuk setiap proses yang ada pada domain deliver and support rata-rata berada pada level 2, walaupun ada sebagian kecil yang berada di level 3, bahkan di level 1. hal ini dapat dikatakan bahwa proses tata kelola ti di pt. bank syariah mandiri cabang denpasar sudah dilakukan tetapi belum berjalan secara optimal. kata kunci : tata kelola ti, domain deliver and support, current maturity level, expected maturity level . 1. pendahuluan teknologi informasi (ti) saat ini menjadi teknologi yang banyak diadopsi oleh hampir seluruh organisasi dan dipercaya dapat membantu meningkatkan efisiensi proses yang berlangsung. untuk mencapai hal tersebut diperlukan suatu pengelolaan ti yang ada secara terstruktur dan berjalan secara efektif. perkembangan terbaru dalam ti telah memberikan dampak besar atas bidang audit (auditing). ti telah menginspirasi rekayasa ulang berbagai proses bisnis tradisional untuk mendukung operasi yang lebih efektif dan efisien serta meningkatkan komunikasi dalam entitas serta operasi yang lebih efisien dan untuk meningkatkan komunikasi dalam entitas serta antara entitas dengan para pelanggan dan pemasoknya. akan tetapi, berbagai kemajuan ini membawa berbagai resiko baru yang membutuhkan pengendalian internal khusus, seperti resiko penyusupan oleh orang yang tidak berwenang, otorisasi yang dapat ditembus oleh pengguna yang tidak berwenang, kehilangan atau ketidak konsistenan data, dan distribusi informasi yang tidak sesuai dengan kebutuhan. oleh sebab itulah perlu adanya it governance di pt. bank syariah mandiri cabang denpasar. kesuksesan enterprise governance didapatkan melalui peningkatan dalam efektivitas dan efisiensi dalam proses organisasi yang berhubungan. it governance yang menyediakan struktur yang menghubungkan proses ti, sumber daya ti dan informasi bagi strategi dan tujuan organisasi.peranan it governance tidaklah diragukan lagi dalam pencapaian tujuan suatu organisasi yang mengadopsi ti. seperti fungsi-fungsi manajemen lainnya pada organisasi publik, maka it governance yang pada intinya adalah bagaimana mengatur penggunaan ti agar lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 325 menghasilkan output yang maksimal dalam organisasi, membantu proses pengambilan keputusan dan membantu proses pemecahan masalah. prinsip-prinsip it governance harus dilakukan secara terintegrasi, sebagaimana fungsi-fungsi manajemen dilaksanakan secara sistematik dilaksanakan pada sebuah organisasi publik. it governance memungkinkan organisasi untuk memperoleh keuntungan penuh dari suatu informasinya, dengan memaksimalkan keuntungan dari peluang dan keuntungan kompetitif yang dimiliki, 0leh karenanya it governance juga harus dilakukan pada lingkungan perbankan. bank merupakan sebuah institusi dengan salah satu tugas yang diembannya adalah memberikan pelayanan kepada nasabah untuk melakukan transaksi-transaksi keuangan . dalam prosesnya, bank membutuhkan sumber informasi yang mutakhir dan selalu terkini. pengembangan implementasi teknologi informasi dan komunikasi (tik) di perbankan merupakan upaya yang sudah seharusnya dilakukan. agar implementasi it governance yang ada di pt. bank syariah mandiri cabang denpasar dapat berlangsung secara efektif, organisasi perlu menilai sejauh mana it governance yang sekarang berlangsung dan mengidentifikasi peningkatan yang dapat dilakukan dengan cara melakukan penilaian terhadap ti yang diterapkan melalui audit ti. hal tersebut berlaku pada semua proses yang dikelola yang terkandung dalam ti dan proses it governance itu sendiri. pengunaan model maturity (kematangan) dalam hal ini akan memudahkan dalam penilaian dengan cara pendekatan yang terstruktur terhadap skala yang mudah dimengerti dan konsisten. salah satu tools yang digunakan untuk it governance adalah cobit (control objectives for information and related technology) 4.1 yaitu suatu model standar yang menyediakan dokumentasi best practice pengelolaan ti yang dapat membantu pihak manajemen dan pemakai untuk menjembatani kesenjangan antara resiko bisnis, kebutuhan kontrol, dan permasalahan teknis.berdasarkan hal tersebut dan berdasarkan perencanaan strategi pengembangan yang ada di pt. bank syariah mandiri cabang denpasar, maka pt. bank syariah mandiri cabang denpasar perlu menerapkan it governance terhadap sistem informasi perbankan dengan menggunakan kerangka kerja cobit versi 4.1 khususnya untuk domain deliver and support (ds). dalam pelaksanaannya saat ini di pt. bank syariah mandiri sudah ada mekanisme audit keuangan yang dilakukan setiap periode tertentu. dimana audit yang dilakuakn mengacu pada audit keuangan dan segala aspek yang terkait didalamnya, termasuk sumber daya manusia yang melakukan operasional sehari-hari. dari hasil audit tersebut biasanya akan menangani pemasalahan-permasalahan yang berhubungan dengan keuangan perusahaan, seperti selisih, pajak, utang, dan piutang yang bemasalah. dan dari hasil audit tersebut direkomendasikan suatu cara untuk menangani permasalahan yang terjadi agar perusahaan dapat mengembalikan posisi keuangan dalam kondisi yang normal, dan merekomendasikan beberapa karyawan yang dinilai perlu untuk dilakukan pembekalan ulang untuk ditraining kembali agar bisa menjalankan bisnis perusahaan sesuai dengan job desk yang sudah ditetapkan. dari hal tersebut diatas, penulis merasa melakukan penelitian terhadap ti yang ada di pt. bank syariah mandiri cabang denpasar, agar proses bisnis dan operasional yang dilakukan sehari hari dengan menggunakan ti dapat terukur. 2. kajian pustaka 2.1. it governance secara formal pengelolaan ti memiliki definisi sebagai berikut (itgi, 2000): “pengelolaan ti adalah suatu struktur dan proses yang saling berhubungan serta mengarahkan dan mengendalikan perusahaan dalam pencapaian tujuan perusahaan melalui nilai tambah dan penyeimbangan antara risiko dan manfaat dari teknologi informasi serta prosesnya”. it governance merupakan satu kesatuan dengan sukses dari enterprise governance melalui peningkatan dalam efektivitas dan efisiensi dalam proses perusahaan yangberhubungan. it lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 326 governance menyediakan struktur yang menghubungkan proses ti,sumber daya ti dan informasi bagi strategi dan tujuan perusahaan.lebih jauh lagi it governance menggabungkan good (best) practice dari perencanaandan pengorganisasian ti, pembangunan dan pengimplemantasian, delivery dansupport, serta memantau kinerja ti untuk memastikan kalau informasi perusahaandan teknologi yang berhubungan mendukung tujuan bisnis perusahaan. selain definisi di atas pengelolaan ti juga didefinisikan sebagai “sebuah kerangka kebijakan, prosedur dan kumpulan proses-proses yang bertujuan untuk mengarahkan dan mengendalikan perusahaan dalam rangka pencapaian tujuan perusahaan dengan memberikan tambahan nilai bisnis, melalui penyeimbangan keuntungan dan resiko ti beserta proses-proses yang ada di dalamnya”. it governance memungkinkan perusahaan untuk memperoleh keuntungan penuh dari informasinya, dengan memaksimalkan keuntungan dari peluang dan keuntungan kompetitif yang dimiliki. menurut hasil penelitian csir mit, terdapat lima kunci keputusan pengelolaan, sehingga teknologi informasi adalah sebuah aset yang strategis. ke lima kunci tersebut adalah: pertama, it principal. keputusan teknologi informasi ini adalah kumpulan dari pernyataanpernyataan level eksekutif tinggi tentang bagaimana teknologi informasi dapat digunakan organisasi kedua, it architecture decisions. dengan mengklarifikasikan teknologi sebagai pendukung bisnis organisasi yang telah dikembangkan melalui principal it baik secara eksplisit maupun implisit, selanjutnya memerlukan proses standarisasi dan integrasi di dalam suatu organisasi ketiga, it infrastucture. prasarana dan sarana teknologi informasi yang menyangkut jaringan, komputer, perangkat keras dan lunak lainnya adalah suatu kumpulan komponen yang diharapkan bisa mempercepat proses perhitungan, pengiriman dalam berbagai media informasi (data, informasi, gambar, video, teks) dalam waktu yang singkat dan proses penyimpanan yang efektif. keempat, kebutuhan aplikasi bisnis. dalam pengembangan teknologi informasi keperluan bisnis yang spesifik sehingga kehadiran teknologi informasi memberikan suatu nilai baru bagi organisasi. dua hal penting dalam identifikasi keperluan bisnis yang terkait dengan teknologi informasi yaitu kreativitas dan disiplin. kelima, it investment and prioritization. investasi teknologi informasi sering menjadi bahan yang sulit dimengerti oleh top manajemen dari suatu organisasi, hal ini dikarenakan nilai baru yang ditimbulkan tidak langsung terasa oleh organisasi. 2.2. cobit (control objectives for information and related technology) alat yang komprehensif untuk menciptakan adanya it governance di organisasi adalah penggunaan cobit (control objectives for information and relatedtechnology) yang mempertemukan kebutuhan beragam manajemen dengan menjembatani celah antara risiko bisnis, kebutuhan kontrol, dan masalah-masalah teknis ti. cobit menyediakan referensi best business practice yang mencakup keseluruhan proses bisnis organisasi dan memaparkannya dalam struktur aktivitas-aktivitas logis yang dapat dikelola dan dikendalikan secara efektif. tujuan utama cobit adalah memberikan kebijaksanaan yang jelas dan latihan yang bagus bagi it governance bagi organisasi di seluruh dunia untuk membantu manajemen senior untuk memahami dan mengatur risiko–risiko yang berhubungan dengan ti. cobit melakukannya dengan menyediakan kerangka kerja it governance dan petunjuk kontrol obyektif yang rinci bagi manajemen, pemilik proses bisnis, pemakai dan auditor. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 327 2.2.1. kerangka kerja cobit cobit (control objectives for information and related technology) adalah kerangka it governance yang ditujukan kepada manajemen, staf pelayanan ti, control departement, fungsi audit dan lebih penting lagi bagi pemilik proses bisnis (business process owner’s), untuk memastikan confidenciality, integrity dan availability data serta informasi sensitif dan kritikal. konsep dasar kerangka kerja cobit adalah bahwa penentuan kendali dalam ti berdasarkan informasi yang dibutuhkan untuk mendukung tujuan bisnis dan informasi yang dihasilkan dari gabungan penerapan proses ti dan sumber daya terkait. dalam penerapan pengelolaan ti terdapat dua jenis model kendali, yaitu model kendali bisnis (business controls model) dan model kendali ti (it focused control model), cobit mencoba untuk menjembatani kesenjangan dari kedua jenis kendali tersebut. pada dasarnya kerangka kerja cobit terdiri dari 3 tingkatcontrol objectives, yaitu activities dan tasks, process, domains. activities dan tasks merupakan kegiatan rutin yang memiliki konsep daur hidup, sedangkan task merupakan kegiatan yang dilakukan secara terpisah. selanjutnya kumpulan activity dan task ini dikelompokan ke dalam proses ti yang memiliki permasalahan pengelolaan ti yang sama dikelompokan ke dalam domains (itgi,2005). gambar 1. cobit cube (itgi: 2005) cobit di rancang terdiri dari 34 high level control objectives yang menggambarkan proses ti yang terdiri dari 4 domain yaitu: plan and organise,acquire and implement, deliver and support dan monitor and evaluate. berikut kerangka kerja cobit yang terdiri dari 34 proses ti yang terbagi ke dalam 4 domain pengelolaan, yaitu (itgi,2005 : p25): plan and organise (po),mencakup masalah mengidentifikasikan cara terbaik ti untuk memberikan kontribusi yang maksimal terhadap pencapaian tujuan bisnis organisasi. domain ini menitikberatkan pada proses perencanaan dan penyelarasan strategi ti dengan strategi organisasi. domain po terdiri dari 10 control objectives, yaitu: po1 define a strategic it plan. po2 – define the information architechture. po3 – determine technological direction. po4 – define the it processes, organisation and relationships. po5 manage the it investment. po6 – communicate management aims and direction. po7 – manage it human resource. po8 – manage quality. po9 – asses and manage it risks. po10 – manage projects. acquire and implement (ai), domain ini menitikberatkan pada proses pemilihan, pengadaaan dan penerapan ti yang digunakan. pelaksanaan strategi yang telah ditetapkan, harus disertai solusi-solusi ti yang sesuai dan solusi ti tersebut diadakan, diimplementasikan dan diintegrasikan ke dalam proses bisnis organisasi. domain ai terdiri dari 7 control objectives, yaitu: lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 328 ai1 – identify automated solutions. ai2 – acquire and maintain application software. ai3 – acquire and maintain technology infrastructure. ai4 – enable operation and use. ai5 – procure it resources. ai6 – manage changes. ai7 – install and accredit solutions and changes. deliver and support (ds), domain ini menitikberatkan pada proses pelayanan ti dan dukungan teknisnya yang meliputi hal keamanan sistem, kesinambungan layanan, pelatihan dan pendidikan untuk pengguna, dan pengelolaan data yang sedang berjalan. domain ds terdiri dari 13 controlobjectives, yaitu: ds1 – define and manage service levels. ds2 – manage third-party services. ds3 – manage performance and capacity. ds4 – ensure continuous service. ds5 – ensure systems security. ds6 – identify and allocate costs. ds7 – educate and train users. ds8 – manage service desk and incidents. ds9 – manage the configuration. ds10 – manage problems. ds11 – manage data. ds12 – manage the physical environment. ds13 – manage operations. monitor and evaluate (me), domain ini menitikberatkan pada proses pengawasan pengelolaan ti pada organisasi seluruh kendali-kendali yang diterapkan setiap proses ti harus diawasi dan dinilai kelayakannya secara berkala. domain ini fokus pada masalah kendali-kendali yang diterapkan dalam organisasi, pemeriksaan internal dan eksternal. berikut proses-proses ti pada domain monitoring and evaluate: me1 – monitor and evaluate it performance. me2 – monitor and evaluate internal control. me3 – ensure regulatory compliance. me4 – provide it governance. dengan melakukan kontrol terhadap ke 34 obyektif tersebut, organisasi dapat memperoleh keyakinan akan kelayakan pengelolaan dan kontrol yang diperlukan untuk lingkungan ti. untuk mendukung proses ti tersebut tersedia lagi sekitar 215 tujuan kontrol yang lebih detil untuk menjamin kelengkapan dan efektifitas implementasi. karena cobit berorientasi bisnis, maka untuk memahami control objectives dalam rangka mengelola ti yang terkait dengan risiko bisnis dilakukan dengancara: a. mulai dengan sasaran bisnis dalam framework. b. pilih proses dan kontrol ti yang sesuai untuk enterprise dari controlobjectives. c. operasikan rencana bisnis. d. menilai prosedur dan hasil dengan pedoman audit. menilai status organisasi, identifikasi aktivitas yang kritis untuk kesuksesan dan performansi ukuran dalam mencapai tujuan enterprise dengan pedoman manajemen. manajemen sebuah organisasi akan berfungsi secara efektif apabila para pengambil keputusan selalu ditunjang dengan keberadaan informasi yang berkualitas. cobit mendeskripsikan karakteristik informasi yang berkualitas menjadi tujuh aspek utama, yaitu masing-masing (itgi,2005) : lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 329 a. effectiveness, dimana informasi yang dihasilkan haruslah relevan dan dapat memenuhi kebutuhan dari setiap proses bisnis terkait dan tersedia secara tepat waktu, akurat, konsisten dan dapat dengan mudah diakses. b. efficiency, dimana informasi dapat diperoleh dan disediakan melalui cara yang ekonomis, terutama terkait dengan konsumsi sumber daya yang dialokasikan. c. confindentiality, dimana informasi rahasia dan yang bersifat sensitif harus dapat dilindungi atau dijamin keamanannya, terutama dari pihak-pihak yang tidak berhak mengetahuinya. d. avaibility, dimana informasi haruslah tersedia bilamana dibutuhkan dengan kinerja waktu dan kapabilitas yang diharapkan. e. compliance, dimana informasi yang dimiliki harus dapat dipertanggungjawabkan kebenarannya dan mengacu pada hukum maupun regulasi yang berlaku, termasuk di dalamnya mengikuti standar nasional atau internasional yang ada. f. reliability, dimana informasi yang dihasilkan haruslah berasal dari sumber yang dapat dipercaya sehingga tidak menyesatkan para pengambil keputusan yang menggunakan informasi tersebut. gambar 2. kerangka kerja cobit (itgi,2005) untuk memastikan hasil yang diperoleh dari proses ti sesuai kebutuhan bisnis, perlu diterapkan kendali-kendali yang tepat terhadap proses ti tersebut. hasil yang diperoleh perlu diukur dan dibandingkan kesesuaiannya dengan kebutuhan bisnis organisasi secara berkala. keseluruhan informasi tersebut dihasilkan oleh sebuah ti yang dimiliki organisasi, dimana didalamnya terdapat sejumlah komponen sumber daya penting, yaitu (itgi, 2005) : a. aplikasi, yang merupakan sekumpulan program untuk mengolah dan menampilkan data maupun informasi yang dimiliki oleh organisasi. b. informasi, yang merupakan hasil pengolahan dari data yang merupakan bahan mentah dari setiap informasi yang dihasilkan, dimana di dalamnya terkandung fakta dari aktivitas transaksi dan interaksi sehari-hari masing-masing proses bisnis yang ada di organisasi. c. infrastruktur, yang terdiri dari sejumlah perangkat keras, infrastruktur teknologi informasi sebagai teknologi pendukung untuk menjalankan portfolio aplikasi yang ada. selain itu yang termasuk dalam infrastruktur dapat berupa sarana fisik seperti ruangan dan gedung dimana keseluruhan perangkat sistem dan teknologi informasi ditempatkan. d. manusia, yang merupakan pemakai dan pengelola dari sistem informasi yang dimiliki. 2.2.2. model maturity cobit mempunyai model kematangan untuk mengontrol proses-proses ti dengan menggunakan metode penilaian/scoring sehingga organisasi dapat menilai proses-proses ti yang dimilikinya (skala 0 sampai 5). maturity models yang ada pada cobit dapat dilihat pada gambardibawah ini: lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 330 gambar 3. model maturity (itgi, 2005) dengan adanya maturity level model, maka organisasi dapat mengetahui posisi kematangannya saat ini, dan secara terus menerus serta berkesinambungan harus berusaha untuk meningkatkan levelnya sampai tingkat tertinggi agar aspek governance terhadap teknologi informasi dapat berjalan secara efektif. berikut ini adalah tabel yang menjelaskan mengenai model maturity. tabel 1. generic maturity model 3. metode penelitian 3.1 jenis penelitian jenis penelitian yang dilakukan oleh penulis yaitu sebagai berikut : a. penelitian tentang evaluasi tata kelola ti bersifat penelitian deskriptif,artinya hasil penelitian disampaikan dalam bentuk deskripsi yang bersifat kualitatif maupun kuantitatif. b. selain itu penelitian ini bersifat eksploratif artinya penelitian dilakukan dengan cara menggali informasi untuk pengelolaan ti yang berlangsung di pt. bank syariah mandiri cabang denpasar. c. penelitian ini dilakukan di pt. bank syariah mandiri cabang denpasar yang beralamat di jl. teuku umar no.177 selama 3 bulan. 3.2. perancangan penelitian dalam melakukan penelitian ini, penulis melakukan langkah-langkah penelitian tata kelola ti di pt. bank syariah mandiri cabang denpasar yang diilustrasikan sepertigambar berikut. gambar 4. langkah-langkah penelitian a. studi awal dalam melakukan studi awal, penulis melakukan : pencarian materi, pembuatan draf kuesioner, serta mempelajari sistem informasi dan teknologi informasi yang diterapkan di perusahaan tersebut. lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 331 b. pengumpulan data padatahapan ini, penulis melakukan pengumpulan data yang diperoleh dengan cara wawancara, observasi dan pemberian kuesioner kepada beberapa karyawan di perusahaan tersebut, juga melakukan public hearing untuk menggali informasi mengenai tata kelola di pt. bank syarian mandiri c. pengolahan data pada tahapan ini, penulis melakukan pengolahan data dari kuesioner yang di isi oleh para responden dengan cara melakukan pemetaan terhadap framework cobit 4.1 pada domain dengan hasilnya berupa tingkat maturity. d. analisa data dan control objective pada tahapan ini, penulis melakukan analisa data dan control objective yang diperoleh dari tingkat maturity, dengan mencari mekanisme best practice dalam melakukan pengukuran maturity level pada pt. bank syariah mandiri cabang denpasar. e. kesimpulan dan saran pada tahap akhir penulis membuat kesimpulan dan saran dari semua proses penelitian yang dilakukan. 3.3. metode pemilihan sampel sebelum melakukan pemilihan sampel dalam penelitian ini, penulis membuat populasi sampel seperti yang dapat pada tabel berikut. tabel 2. populasi sampel dari populasi sampel tersebut di atas, maka penulis menggunakan metode pemilihan sampel dengan menggunakan teknik purposive sampling. melalui teknik ini, pemilihan sample dilakukan berdasarkan tujuan dari penelitian dan pertimbangan-pertimbangan tertentu. pertimbangan itu adalah, pertama sample yang dipilih merupakan manajemen dari pt. bank syariah mandiri, kedua sample yang dipilih merupakan sampel yang bersentuhan langsung dengan teknologi informasi yang diterapkandi perusahaan tersebut dalam karyawan yang mengelola ti atau karyawan yang mempunyai wawasan di bidang ti, dalam hal ini karyawan yang mempunyai wawasan tentang ti ditempatkan di back office,ketiga, sampel yang dipilih merupakan pengguna langsung dari sistem informasi di perusahaan tersebut dalam hal ini staff operasional dan back office. 3.4. instrumentasi penelitian instrument yang digunakan dalam penelitian ini adalah berupa kuesioner. kuesioner disusun dan dikelompokan berdasarkan proses, dimana setiap proses dibagi menurut level, pada setiap level di sajikan butir-butir pertanyaan yang bersifat “endclose”. berikut ini sebaran kuesioner menurut masing-masing proses dapat dilihat pada tabel berikut ini. tabel 3. instrumentasi penelitian lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 332 3.5. metode pengumpulan data metode pengumpulan data merupakan bagian paling penting dalam sebuah penelitian. ketersediaan data akan sangat menentukan dalam proses pengolahan dan analisa selanjutnya. karenanya, dalam pengumpulan data harus dilakukan teknik yang menjamin bahwa data diperoleh itu benar, akurat dan bisa dipertanggungjawabkan sehingga hasil pengolahan dan analisa data tidak bias. data yang dikumpulkan dalam penelitian ini merupakan data primer dan sekunder yang diperoleh dari berbagai sumber. teknik pengumpulannya dilakukan melalui beberapa langkah yakni: a. data primer diperoleh melalui : 1. wawancara, yaitu dengan melakukan tanya jawab dengan seseorang untuk mendapatkan keterangan atau pendapatnya akan suatu hal atau masalah. 2. observasi, yaitu dilakukan dengan melakukan pengamatan secara langsung terhadap obyek penelitian, selama periode waktu tertentu. 3. metode survei, yaitu dengan menggunakan kuesioner yang dibagikan kepada responden yang terpilih sebagai sampel dalam penelitian. kuesioner berisi daftar pertanyaan yang ditujukan kepada responden untuk diisi. dengan demikian, peneliti akan memperoleh data atau fakta yang bersifat teoritis yang memiliki hubungan dengan permasalahan yang akan dibahas. b. data sekunder meliputi struktur organisasi, infrastruktur ti, gambaran sistem informasi di perusahaan tersebut, dan lain-lain. data sekunder diperoleh melalui: 1. studi dokumentasi studi dokumentasi digunakan untuk mencari data-data sekunder yang dibutuhkan dalam melakukan tata kelola ti yang ada. 2. akses internet akses internet digunakan untuk mencari data-data pendukung dari berbagai buku, ebook, maupun jurnal-jurnal yang disediakan di internet. 3. studi yang relevan studi yang relevan ini digunakan sebagai acuan dalam melakukan penelitian. 3.6. metode pengolahan data proses pengolahan data yang dilakukan dalam penelitian ini adalah sebagai berikut : a. pengolahan data kuantitatif hanya dilakukan pada pengolahan tingkat maturity b. pengolahan tingkat maturity dilakukan pada masing-masing proses untuk setiap responden. dilakukan dengan mempertimbangkan jumlah level, jumlah kuisioner pada masing-masing level. c. agregasi tingkat maturity semua responden dilakukan dengan cara menghitung rata-rata aritmatik. d. hasil agregasi disajikan dalam bentuk tabel dan grafik radar. dikarenakan pengolahan data tingkat maturity dilakukan dengan teknik-teknik yang sederhana, maka rangkaian prosedur pengolahan tidak dikemas dalam bentuk program. 3.7. teknik analisis teknik analisis yang dilakukan pada penelitian ini dilakukan dengan beberapa cara, yaitu sebagai berikut : a. untuk memperoleh gambaran tata kelola saat ini, analisis dikembangkan dengan cara mensintesakan hasil-hasil yang terkumpul melalui kuesioner. b. analisis untuk maturity dilakukan dengan cara membandingkan tingkat maturity yang ada pada saat ini dengan tingkat maturity yang dituju lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 333 c. kesenjangan antara yang diperoleh saat ini dengan yang dituju merupakan indikator dalam dalam rumusan rekomendasi perbaikan tata kelola. 3.8. pengembangan kuesioner pada penelitian ini survei dengan metode kuesioner dikembangkan dalam 5 level kedewasaan disetiap domainnya, sehingga akan lebih mudah untuk memetakan pertanyaan-pertanyaan di setiap level tersebut kedalam subdomain yang ada pada domain ds. contoh kuesioner yang dikembangkan oleh penulis untuk mendapatkan hasil tingkat maturitas domain ds pada pt. bank syariah mandiri cabang denpasar beserta pemetaan terhadap subdomain yang ada dan level kedewasaan pada masing-masing domainnya dapat dilihat pada tabel 4. tabel 4. kuisioner domain ds 1 dan level kedewasaan pada contoh tabel 4, disusun pertanyaan-pertanyaan dalam bentuk kuesioner, dimana masingmasing pertanyaan dibagi menjadi atas 6 level kedewasaan (level 0 -5) untuk mendapatkan perhitungan yang akurat terhadap domain ds 1 pada framework cobit 4.1 dalam hal ini menetapkan dan mengelola tingkat layanan. hal ini dilakukan juga untuk setiap domain ds yang lainnya. 4. pembahasan 4.1. kuesioner kuesioner berisi daftar pertanyaan yang akan ditanyakan langsung kepada pegawai yang berwenang sehubungan dengan bidangnya. kuesioner bertujuan untuk mendapatkan bukti yang kompeten (berhubungan) guna mendukung kesimpulan yang akan diambil. adapun kuesioner yang dibuat adalah kuesioner menetapkan dan mengelola tingkat layanan (ds 1), mengelola layanan dari pihak ketiga (ds 2), mengatur kinerja dan kapasitas (ds 3), menjamin keberlangungan layanan (ds 4), pengendalian manajemen keamanan (ds 5), mengidentifikasi dan mengalokasikan biaya (ds 6), mengedukasi dan melatih user (ds 7), mengelola service desk dan masalah (ds 8), mengatur konfigurasi (ds 9), mengelola masalah (ds 10), pengendalian manajemen data (ds 11), mengatur lingkungan fisik (ds 12), dan mengatur operasional (ds 13). tabel kuesioner disusun terdiri dari enam kolom yaitu: 1) kolom no urut pertanyaan. 2) kolom pertanyaan terhadap pengendalian 3) kolom jawaban. 4) kolom penilaian. pengendalian pada domain ds terhadap ti di pt. bank syariah mandiri cabang denpasar perlu dilakukan untuk mendapatkan level kedewasaan terhadap domain ds pada framework cobit 4.1 di ti perusahaan yang saat ini sudah ada. disamping itu, tujuan audit ti ini dilakukan juga untuk melakukan pembenahan terhadap ti yang pada saat dihitung nanti tidak sesuai dengan harapan dari pt. bank syariah mandiri cabang denpasar, dimana harapan dari perusahaan, ti yang sudah ada saat ini berada pada level 3. penilaiankuesioner pada domain ds ini menggunakan suatu ceklist yang berisi setiap segi mutu lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 334 yang dinilai. dalam penilaian kualitatif pada suatu ceklist digunakan sistempembobotan menggunakan skala : 0,00=tidak sama sekali 0,33=sedikit 0,66=sebagian besar 1,00= seluruhnya 4.2. pengolahan data kuesioner contoh hasil kuesioner mengenai domain ds pada framework cobit 4.1 dapat dilihat pada tabel 5. kuesioner dipecah menjadi 6 bagian dengan menyusun pertanyaan berdasarkan level kedewasaan. perhitungan skor kuesioner ini dihitung untuk setiap respondennya di setiap level kedewasaan. tabel 6 menjelaskan contoh perhitungan kuisioner ds 1. pada kolom tingkat kepatutan merupakan skor yang didapatkan dengan cara menjumlahkan total nilai dari kuisioner yang diisi, setelah didapatkan maka dibagi dengan banyaknya soal yang terdapat pada level kedewasaan di domain tersebut. sedangkan kolom total tingkat kepatutan merupakan nilai yang dibagi dengan mencari rata-rata dari setiap level kedewasaan. 4.3. tingkat maturitas pengelolaan ti pt. bank syariah mandiri cabang denpasar dari hasil perhitungan kuesioner pada domain ds, maka didapatkan tingkat maturitas untuk pengelolaan ti di pt. bank syariah mandiri cabang denpasar dapat disajikan dalam gambar 5. gambar 5. grafik radar tingkat kematangan pengelolaan teknologi informasi pt. bank syariah mandiri cabang denpasar pada domain ds 5. kesimpulan setelah dilakukan penelitian audit ti yang dilakukan di pt. bank syariah mandiri cabang denpasar, ada beberapa kesimpulan yang dapat diambil adalah sebagai berikut : a. tata kelola ti pt. bank syariah mandiri cabang denpasar sudah dilakukan walaupun masih belum berjalan secara optimal karena belum mencapai pada tingkat kematangan yang diharapkan yaitu level 3 (perusahaan telah memiliki prosedur baku formal dan tertulis yang telah disosialisasikan ke segenap jajaran manajemen dan karyawan untuk dipatuhi dan dikerjakan dalam aktivitas sehari-hari). b. maturity level yang ada pada setiap proses ti yang terdapat dalam domain deliver and support (ds) rata-rata berada pada level 2 (perusahaan telah memiliki pola yang berulangkali dilakukan dalam melakukan manajemen aktivitas terkait dengan pengelolaan ti, namun keberadaannya belum terdefinisi secara baik dan formal sehingga masih terjadi tabel 5. perhitungan skor responden terhadap domain ds 1 tabel 6. tingkat kedewasaan proses ti domain ds 1 lontar komputer vol. 4 no. 2desember 2013 issn: 2088-1541 335 ketidakkonsistenan) sehingga masih perlu dilakukan perbaikan terhadap proses-proses yang telah berjalan baik itu bersifat prioriras maupun super proiritas. proses yang perlu diperbaiki untuk semua proses yang prioritas yaitu : 1. ds1 = 2.83 2. ds3 = 2.57 3. ds9 = 2.7 sedangkan untuk superprioritas yaitu 1. ds2 = 2.00 2. ds4 = 2.43 3. ds6 = 2.39 4. ds7 = 1.79 5. ds8 = 1.14 6. ds10 = 2.05 7. ds12 = 2.48 8. ds13 = 2.36 c. ada 2 proses tata kelola ti yang harus dipertahankan, yaitu pada domain ds 5 dan ds 11. sedangkan pada domain ds yang lainnya proses tata kelola ti perlu diperbaiki, karena masih berada pada level 2.rata-rata proses tata kelola ti menjadi superprioritas. superprioritas utama berada pada proses ds 2, ds 7, ds 4, ds 6, ds 8, ds 10, ds 12, ds 13 sedangkan prioritas utama berada pada proses ds 1, ds 3, ds 9. walaupun teknologi informasi pt. bank syariah mandiri cabang denpasarsudah berjalan selama 9 tahun, ternyata sebagian besar proses masih perlu diperbaiki bahkan sampai pada penanganan yang bersifat superprioritas. a. melakukan evaluasi tata kelola selain untuk mengetahui tingkat kematangan tiap proses ti pada setiap domain, juga untuk menetapkan indikator kinerja dan tujuan (kpi dan kgi) dan critical success factor (csf). b. evaluasi tata kelola ti untuk selanjutnya dapat dilakukan pada semua proses yang ada pada 4 domain dalam cobit, yaitu plan and organise (po), acquire and implement (ai), deliver and support (ds) dan monitor and evaluate (me), untuk mendapatkan hasil evaluasi yang lebih lengkap dan disarankan dapat dilakukan secara rutin setiap periode waktu tertentu (secara periodik), agar tingkat kematangan yang diinginkan dapat dicapai. daftar pustaka [1]. appendix iv—cobit 4.1 primary reference material . ... appendix v—cross-references between cobit 3rd edition and cobit 4.1, http://www.trainning.com.br/download/cobit_41.pdf.[diunduh:3 desember 2010]. [2]. dajtmiko, bambang. 2007. audit sistem informasi untuk menilai proses penyampaian dan dukungan (delivery and support) dalam pelayanan informasi dengan menggunakan framework cobit studi kasus : pt. telekomunikasi indonesia, tbk. r&d center. program magister informatika, sekolah tinggi elektro dan informatika institut teknologi bandung. [3]. riasetiawan, mardhani. 2007. pembuatan pedoman tata kelola teknologi informasi menggunakan it governance design framework pada ugm. program studi magister teknologi informasi, jurusan teknik elekto yogyakarta. [4]. solikin. 2004. pengelolaan informasi sekolah tinggi manajemen informatika dan komputer “amik bandung. program magister sistem informasi, departemen teknik informatika institut teknologi bandung. [5]. sarno, riyanarto., 2009. audit sistem dan teknologi informasi. cetakan pertama. surabaya: its press. [6]. sugiyono, 2004. metodologi penelitian bisnis. cetakan ketujuh. bandung: alfabeta [7]. surendro, k., 2009. implementasi tata kelola teknologi informasi, informatika, bandung. http://www.trainning.com.br/download/cobit_41.pdf lontar template lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 114 graph-ql responsibility analysis at integrated competency certification test system base on web service i gede susrama mas diyasaa1, gideon setya budiwitjaksonob2, haf idz amarul ma3, ilham ade widya sampurnoa4, ni made ika marini mandennic5 adepartment of informatic, university of pembangunan nasional “veteran jawa timur jl. rungkut madya surabaya, indonesia 1igsusrama.if@upnjatim.ac.id, 3haf idzamarul@gmail.com 4ilhamade@gmail.com bdepartment of accounting, university of pembangunan nasional “veteran jawa timur jl. rungkut madya surabaya, indonesia 2gideon.ak@upnjatim.ac.id cdepartment of inf ormation technology, udayana university jl. raya kampus unud bukit jimbaran, bali, indonesia 5made_ikamarini@unud.ac.id abstract graph-ql (query language) is a new concept in the application programming interface (api). graph-ql was developed by facebook which is implemented on the server-side. although it is a query language, graph-ql is not directly related to the database, in other words, graph-ql is not limited to certain databases, either sql or nosql. the position of graph-ql is on the client and server-side that access an api. one of the objectives of dev eloping this query language is to facilitate data communication between the backend and frontend / mobile applications. for this reason, this paper will examine the responsibility of graph-ql in terms of response time and response size in the development of an integrated competency certification test system based on web service and compared with efficiency and flexibility using the rest api. from the test results, it was found that graph-ql provided some advantages compare to rest api. it give more flexibility for the clients to access the data and solve the most typical problem that was over or under fetching cause by fixed data given by rest api endpoints. keywords: graph-ql, rest, responsibility, analysis, web service 1. introduction graph-ql is a server-side query and runtime language for application programming interfaces (api) that prioritizes giving clients data exactly what they request [1]. in essence, graph-ql is a language f or querying databases f rom client-side applications [2]. on the backend, graph-ql can specify to the api how the data is presented to the client. it is also designed to make apis faster, more f lexible and developer f riendly [3]. as a rest alternative, graph-ql allows developers to make requests that pull data from multiple data sources in a single apis endpoint [4]. in addition, the api manager will also have the f lexibility to be able add and remove f ields without having af f ect to existing queries [5]. developers can also build apis by any method they want. to prove that graph-ql has a f airly good responsibility, this paper is implemented in the manufacture and testing of an integrated competency certification test system, and compared using the rest api [6]. some previous studies related to graph-ql, among others in ref erence [7] is analyzing the calculation of performance of graph-ql and restful technology in the web information service system of the institute f or research and community service hasanuddin university [7]. the perf ormance parameters used are response time and throughput, with restf ul speeds still lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 115 superior to graph-ql because restful speeds are consistently stable in terms of access time and data size. whereas graph-ql is dynamic because it can change depending on demand f luctuations. another researcher [8] showed in his research that graph-ql can reduce the size of the json document returned by rest apis in 94% (in the number of f ields) and 99% (in the number of bytes), both of which are median results, but the dataset is used in this paper in cludes gray literature articles, migrated system source code, and queries used in runtime evaluation publicly available at https://github.com/gleisonbt/migrating-to-graphql [8]. another case with another researcher, in reference [9], where the purpose stated in his papers to understand the properties of language in the facebook initial, by providing semantic f ormal queries [9]. after that, language analysis is performed and shows that the language has very low complexity f or evaluation. this paper only compares the graph-ql request language with the classic request language, which is the acyclic conjunctive query language (acq). research on advanced data retrieval with graph-ql: a case study in case bakery services, where this paper also studies and compares two data collection approaches. rest and graph-ql in the context of case studies for web applications (bakery service applications), however, this paper does not consider aspects such as caching, mutation, and security [10]. from some of the research above, it f ocuses on comparing performance of the graph-ql with the rest api based on aspects of mutation, query, and type before using data manipulation language (dml) [11], whereas in the paper presented here, it has novelty, which is about responsibility analysis of graph-ql on the response time and response size, and also comparing with rest in making an integrated system of "competency certification test " based on web services which based on time and size of the res ponse, and compare it with rest, and also f ocuses on several aspects including mutation which is an operation that involves changes in the database, query is an operation to take data in the database, and types are almost the same like classes in programming languages, and include aspects such as caching, mutation, and security [12]. the steps for testing the responsibility of graph-ql, first is the initial step to create an integrated system of "competency certification testing" based on web services and b uild api rest and graph-ql apis [13], then test each of the apis above. the goal is the graph-ql approach can be set any conditions or data needed by a query in the manuf acture of a system so that all data as needed without additional information that is not needed. with hope that using graph-ql will be more efficient and flexible to get data [14]. 2. reseach methods the research began by building an integrated system of competency tests then input the data into the database. this system will be built with 2 concepts in the api, graph-ql and rest [15], the data will be used as output requests f rom clients, then test and comparing the performance of each api concept that has been built using the characteristics of qos (quality of service). as shown in figure 1. graph-ql test system design and rest apis [16] [17]. the experiment was carried out, namely conducting an experiment to access the api endpoint of graph-ql and rest which has been applied to the integrated competency test system. the f actors that will be used as a comparison in this study are the speed, size, and effectiveness of the response from graph-ql and rest. 2.1. building an information system competency test a competency test is a process of assessment both technical and non-technical through the collection of a relevant test to determine whether a person is competent or not yet competent in a competency unit or certain qualifications. the competency test system is built based on problems in data processing and distribution in the competency certification process at a professional certification institution [18]. this system has 3 role users namely admin, assessor, and assessee (competency test participants). in this system, the assessment has the role to register with the system, f ill in the apl 1 f orm, register professional lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 116 certif ication, and fill in the apl-2 self assessment f orm. the assessor has the role to verify the registration of assesse, check the assessee’s self assessments apl-2 f orm, conduct the assessment, f ill in the observation f orm, portfolio, and decide the results of the assessee graduation with the assessment record form. admin in this system has the role to manage the competency scheme data, manage the competency test data site, select assessors f or each assessee who register, manage the assessor user, verify the registration of the assessment and create a competency test schedule. figure 1. design of graph-ql test systems and rest api this system is built using an api [19] that allows f or multiplatform system development. the f ire concept used is graph-ql which consists of 24 types of objects, 52 mutations, and 44 queries. the tools used to build this system are using the php 7 programming language and the lumen f ramework [20]. the database management system (dbms) used is mariadb 10.4.6. the web server used to run the competency test information system is apache 2.4.41 on the local server [21]. 2.2. building an api with graph-ql in the graph-ql implementation using the lumen f ramework and lighthouse library the architectural pattern used is in figure 2, which explains the system architecture used in the graphql api. requests will be accepted by the server and will be checked on graph-ql schema [22]. then the request is continued to the resolver which uses a model to access the database. the results of the requested data will be issued with a json data type [22]. figure 2. graph-ql architecture resolver model graphql query dbms output on json schema + middl eware lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 117 2.3 building an api with rest in the implementation of rest using the lumen framework the pattern used is in figure 3. figure 3 is an architecture in implementing rest on the lumen framework. requests will be accepted by the server and f orwarded to route [21]. the route will be then connected to a controller that uses a model to access the database. the results of the requested data will be issued with a json data type [21]. 2.4 test design of the rest api and graph-ql a trial was conducted to find out the functionality of the api with the concept of rest and graphql can run as desired or not. the trial was carried out using the postman application, which is an application commonly used to make http requests on the server. tests are carried out on f unctions that have the same data output between rest and graph-ql [22]. figure 3. rest architecture 3. result and discussion the use of an api in an inf ormation system is a bridge between systems built on different platf orms so that the information system has one central server and database storage. graph-ql was present in 2015, according to the developer graph-ql is easier to implement in an inf ormation system and can reduce the number of requests on the server and have an impact on reducing network traffic on the server. 3.1. data retrieval using graph-ql bef ore performing data retrieval, the schema of graph-ql must f irst define all the attributes of the database tables that are needed as output from requests received. an example of defining a graph-ql schema on an object and query is in figure 4 (a). figure 4. (a) shows the code used to define an object named schema and the query graph-ql code used to retrieve 1 schema data in the lumen f ramework using the lighthouse library. to access the query that was created in figure 4. (a) using the code as in figure 4. (b). figure 4. (b) shows the code used in querying graph-ql with the writing format used is json. the results of the query are in figure 5. controller /middleware model route output on json end-point dbms lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 118 (a) (b) figure 4. (a) graph-ql schema, (b) graph-ql query figure 5. graph-ql query results 3.2. retrieving data using rest using rest requires a f unction in the controller class that handles requests f rom clients. the f unction code f or retrieving the schema data is shown in figure 6 (a). namely a f unction that is used to retrieve 1 schema data according to id. the result of this function is in figure 6. (b), is the result of rest, the writing format used is the same, json. lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 119 (a) (b) figure 6. (a) schema function, (b). rest result 3.3 response time comparison results in comparing the response time of the api implementation with the concept of graph-ql and rest, 20 experiments were carried out on each concept. the results of the response time comparison between graph-ql and rest are shown in figure 7. the time displayed has units of millisecond (ms) figure 7. shows the results of the response time comparison between rest and graph-ql. the result shows that the rest response time is f aster than graph-ql. the average response time of rest is 125.35ms while the average response time of graph-ql is 262.15. in response time testing is carried out on the process of fetching the schema data that is on the system. only 25 data are available. from the results depicted in figure 7, it will be dif ferent f or each p rocess in the system. figure 2 shows that in terms of speed, rest is f aster than graph-ql. figure 7. results of comparison of rest and graph-ql response times 3.4 response size comparison results in comparing the response sizes of the api implementation with the graph-ql and rest concepts an experiment was conducted with the same required output goals. the results of testing the rest response size are in figure 8. in figure 10 it is explained that the response size of requests to the api with rest of 563 bit is taken in 160ms. while the results of the graph-ql response size test in figure 9. 0 100 200 300 400 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 response time on ms rest graphql lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 120 figure 8. rest response size results in figure 9 explains that the response size of requests to the api with graph-ql of 584 bit reached with 317 ms. these results are greater than the rest response size. but graph-ql has dynamic properties that can be adjusted to the needs so that if the dat a requirements are less than the data in figure 9, the response size of graph-ql is smaller. 3.4 comparisons with large data another experiment carried out to test the size or speed was to collect 17,329 lines of data with the same code as the process for retrieving schema data in the previous experiment. figure 9. rest response size results figure 10. graph-ql response results in asesmens lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 121 figure 11. rest response results in assessments figure 10 shows the results of the data retrieval process with 17,329 rows of independent assessment data on the system using graph-ql, while figure 11 shows the data retrieval process using rest. the results of the experiments conducted with 17,329 rows of data in terms of rest speed were superior to graph-ql with a ratio of 1: 5, but in terms of data size, graph-ql was lighter than rest due to its effectiveness in data retrieval with graph-ql. figure 12. rest response results in asesmens figure 12 shows the results of 20 experiments for requests for the process of taking independent assessment data on a system with 17329 rows of data, showing that the request time with rest is f aster than graph-ql. this is still the same as previous experiments on 25 schema data with rest and graph-ql. 4. conclusion from the results of the research conducted and explained, rest and graph-ql can be implemented in the competency test information system. it shows that rest is superior in terms of time and response size if the data needed is the same compared to graph-ql. however, rest 0 1000 2000 3000 4000 5000 6000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 respons time on ms graphql time rest time lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 122 is static, which means that the output results are in accordance with what is written in the function code, it can cause under data fetching or over data fetching. graph-ql that takes a more dynamic approach, the output results can be modified to reduce the attributes as needed or to retrieve data in the classes that are related to the requested class, which results in, reduced demand from clients. the response size of graph-ql will accord with the data needed. for this reason, this system is bettered suited if the api is implemented with graph-ql because each function on the client system will have different data requirements . references [1] mondaca, f., schildkamp, p., & rau, f. “introducing kosh, a f ramework f or creating and maintaining apis f or lexical data”. proceedings of electronic lexicography in the 21st century conference, 2019-october, 2019, 907–921. [2] brito, g., mombach, t., & valente, m. t. “migrating to graphql: a practical assessment”. saner 2019 proceedings of the 2019 ieee 26th international conference on software analysis, evolution, and reengineering, (january), 2019, 140–150. https://doi.org/10.1109/saner.2019.8667986 [3] malakhov, k. s., kurgaev, a. p., & velychko, v. y. “modern restf ul api dls and frameworks f or restful web services api schema modelling, documenting, visualizing”. scientific journals problems of programming, 2018, vol. 4, pp. 059–068. https://doi.org/10.15407/pp2018.04.059 [4] ulrich, h., kern, j., tas, d., kock-schoppenhauer, a. k., ückert, f., ingenerf, j., & lablans, m. “ql 4 mdr: a graphql query language f or iso 11179-based metadata repositories”. bmc medical informatics and decision making, 2018, vol. 19, no.1, pp. 1–7. https://doi.org/10.1186/s12911-019-0794-z [5] mark logic corp. rest application developer’s guide, marklogic corporation.us. 2019. [6] neumann, a., laranjeiro, n., & bernardino, j. “an analysis of public rest web service apis”. ieee transactions on services computing, june 2018. pp. 99. https://doi.org/10.1109/tsc.2018.2847344 [7] hartina, d. a., lawi, a., & panggabean, b. l. e. “perf ormance analysis of graphql and restf ul in sim lp2m of the hasanuddin university”. proceedings 2nd east indonesia conference on computer and information technology: internet of things for industry, eiconcit november 2018, pp. 237–240. https://doi.org/10.1109/eiconcit.2018.8878524 [8] brito, g., mombach, t., & valente, m. t. “migrating to graphql: a practical assessment”. saner 2019 proceedings of the 2019 ieee 26th international conference on software analysis, evolution, and reengineering, january 2019, pp. 140–150. https://doi.org/10.1109/saner.2019.8667986 [9] hartig, o., & pérez, j. “an initial analysis of f acebook’s graphql language”. ceur workshop proceedings, june 2017. [10] taskula, t. “advanced data fetching with graphql: case bakery service”. janne kario m.sc. (tech.) jukka keski-luopa m.sc, 2018, pp. 14–15. [11] farré, c., varga, j., & almar, r. “graphql schema generation for data-intensive web apis”. lecture notes in computer science (including subseries lecture notes in artificial intelligence and lecture notes in bioinformatics), 11815 lncs, 184–194. https://doi.org/10.1007/978-3-030-32065-2_13 [12] landeiro, m. i. f. analysis of graphql performance: a case study. springer international publishing, 2019. [13] ritsilä, a. “graphql: the api design revolution”, haaga-helia university, 2017. retrieved f rom https://www.theseus.fi/bitstream/handle/10024/141989/graphqlthe api design revolution.pdf?sequence=1&isallowed=y https://doi.org/10.1007/978-3-030-32065-2_13 lontar komputer vol. 11, no. 2 august 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i02.p05 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 123 [14] ghebremicael, e. s. “transformation of rest api to graphql for opentosca”. university of stuttgart, 2017. https://doi.org/10.18419/opus-9352 [15] ulrich, h., kern, j., tas, d., kock-schoppenhauer, a. k., ückert, f., ingenerf, j., & lablans, m. “ql 4 mdr: a graphql query language f or iso 11179-based metadata repositories”. bmc medical informatics and decision making, vol. 19, no. 1, pp. 1–7, 2019. https://doi.org/10.1186/s12911-019-0794-z [16] hossain, a., nowsin, m., sheikh, a., halder, m., biswas, s., & arman, a. i. quality of service in sof tware def ined networking quality of service in sof tware def ined networking, september, 2018. [17] karakus, m., & durresi, a. “quality of service (qos) in software defined networking (sdn): a survey”. journal of network and computer applications, vol. 80, pp. 200–218, 2017. https://doi.org/10.1016/j.jnca.2016.12.019 [18] febiharsa, d., sudana, i. m., & hudallah, n. “inf ormation system f or batik profession certif ication institution”. journal of vocational and career education, vol. 3, no. 2, 2018. https://doi.org/10.15294/jvce.v3i2.17259 [19] guo, y., deng, f., & yang, x. design and implementation of real-time management system architecture based on graphql. iop conference series: materials science and engineering, vol. 466, no.1, 2018. https://doi.org/10.1088/1757-899x/466/1/012015 [20] čechák, d. using graphql f or content delivery in kentico cloud. is.muni.cz. 2017. retrieved from https://is.muni.cz/th/qm0cs/thesis.pdf [21] hartig, o., & pérez, j. semantics and complexity of graphql preprint version *. 27th world wide web conference on world wide web (www), (www), 1155–1164, 2018. [22] nogatz, f., & seipel, d. implementing graphql as a query language f or deductive databases in swi-prolog using dcgs, quasi quotations, and dicts. electronic proceedings in theoretical computer science, eptcs, 234, 42–56, 2017. https://doi.org/10.4204/eptcs.234.4 lontar template lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 1 frequency band and pca feature comparison for eeg signal classification i wayan pio pratamaa1, made windu antara kesimana2, i gede aris gunadib3 aganesha university of education, computer science departement denpasar, indonesia 1piopratama2@gmail.com 2antara.kesiman@undiksha.ac.id 3igagunadi@gmail.com abstract the frequency band method is popular in signal processing; this method separates eeg signals into five bands of frequency. besides the frequency band, the recent research show pca method gives a good result to classify digits number from eeg signal. even pca give a good accuracy to classify digit number from eeg signal, but there are no research shows which one yielded better accuracy between pca and frequency band to classify digit number from eeg signals. this paper presents the comparison between those methods using secondary data from mindbigdata (mdb). the result shows that the frequency band and pca achieve 9% and 12,5% on average accuracy with the epoc dataset. the paired wilcoxon test produces a significant difference in accuracy between methods in the digit classification problem. experiment with muse dataset provides 31% accuracy with frequency band method and 24,8% with pca method. the result is competitive compared to other experiments to classify digit numbers from eeg signals. in conclusion, there is no winner between the two methods since no method fits both datasets used in this research. keywords: digit classification, feature comparison, frequency band, pca, eeg signal, wilcoxon test 1. introduction digital signal processing (dsp) is a complex task yet a very hot topic for the researcher. one of the most popular topics in dsp is how to classify signals to be a piece of meaningful information. voice recognition is one example of how dsp could lead this world to a phase that never happens before. someone with their phone can give a command to send a message just by a voice, or someone could just turn on and off their car just by a hand clap. something that feels impossible in the past now becomes a reality. something even more surprising is brainwaves. recently the use of brainwaves is increasingly widespread, ranging from detecting brain disease to moving robot hands. one of the most interesting is the use of brain waves to control computer screens or interfacing them. these waves are formed due to the interaction of the neurons in the brain. this interaction generates electricity and is known as brainwaves [1]. to get this signal researcher needs to use a device called electroencephalography. eeg is defined as a measurement of electrical activity produced by the brain [2]. the concept of interfacing a computer directly to the brain is a relatively new one, but the analysis of brain waves has been reported since 1929 [3]. nowadays, controlling devices by the mind is a very controversial topic but highly researched. some devices such as smartphones, laptops, and tablets, and even televisions to be used by people with disabilities, for which these technologies could be the only way of communication with the external environment. a bci is defined as a device that measures the activity of the brain or central nervous system and converts these signals into artificial output [4]. a wide range of applications can apply knowledge of the eeg signal [5], but bci is not an easy task. bci research requires expertise and knowledge in many different fields such as signal processing, computer science, computational neuroscience, and embedded intelligent systems. with the extraordinary benefits that can be obtained from eeg signals, many researchers are finally competing to apply eeg signals in many different applications. but unfortunately, lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 2 processing eeg signals so that they can be used in applications is not an easy thing to do. apart from technical problems such as effective electrode placement and impedance between scalp, signal processing tasks are also difficult. one of the problems is the feature extraction method. even a simple classifier, if we feed in high-quality data, can produce a high accuracy system. this reason made feature extraction becomes crucial in any classification problem. frequency band and pca methods are widely used in the case of dsp and eeg signals specifically. the recent works related to eeg signals that using pca to recognize digit numbers from eeg signals have been done in [6]. the researchers used data from mdb and collected it by a device called insight with five channels and show that pca based method yielded good accuracy, around 84%. another research is using multilayer perceptron (mlp) to recognize digit numbers from eeg signals have been done in [2]. the data used in that experiment is from mindbigdata (mdb) which is collected by a device called muse with four channels. the research found the best accuracy is 27% with non boosted mlp. another research is in ref. [7] which had tried to recognize digits numbers from eeg signals using cnn and yielded an accuracy of around 27-34%. the research also used data from mdb that collected by muse device. ref. [8] is another eeg research with power spectral density to detect pleasure and displeasure state with the highest accuracy result is 99,3%. however, there is no direct comparison between frequency band and pca on an object of the problem with the same data and research environment. for this reason, this study conducted a comparison of both methods in a case to recognize digit numbers from the eeg signal. in the end, this research is expected to be a consideration in selecting the feature extraction method in the eeg signal problems so that it can be used in real applications such as bci to detect a digit numbers signal. 2. research methods this section will explain the stages carried out in the research. the general steps for classification research contain four major steps that are data acquisition, preprocessing, feature extraction, and testing. there is something to be noticed in that no specific training stage in this research. the reason behind this is that knn is considered that called a lazy learner algorithm. the step that becomes the emphasis in this research is feature extraction using frequency band and pca. figure 1. research schema lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 3 2.1. data acquisition the data that was used in this research is an eeg signal labeled with a digit of a number that can be found on the mdb website. there are four different datasets collected by four different devices on that website: mindwave, epoc, insight, muse. some paper research such as [2], [6], and [7] had used this dataset for their research. that is a secondary dataset collected by another researcher. this research used the data collected by a device called epoc as the main experiment and can be downloaded from the mdb website. the website provides data of the eeg signal in csv format in a .txt file extension. this experiment used data that was measured by epoc. the dataset contains 910,476 rows of data in total and labeled from -1 to 9. label -1 stands for the subject with a random thought, and other labels thought of a digit number. the subject for this data collection is one with a healthy brain. epoc has 14 channels, and each channel produces a csv of decimal value as a result. figure 2. data snippet file format id : this is just for reference event : to differentiate between measurement event device : character to identify what device to use in the measurement channel : a string to identify the 10/20 brain location of the signal code : label that the value can be 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, -1. size : the size of the signal recorded data : amplitude as a result of the measurement only epoc data follow the rule of 10/20 international electrode placement that is recommended [9]. one subject was stimulated by a digit of number from 0 to 9 in 2s and recorded by epoc headset. figure 3 shows in detail the standard of electrode placement. epoc with 14 channels is qualified for this standard and be the reason that was used in this research. but at the end, this experiment, to get a fair comparison result with other research papers, also uses the muse dataset from mbd. the experiment used all the data provided collected by muse, which is 163932 in total. both measurements by epoc and muse use the same subject and collected by the same researcher, and the only difference is the device and channel. more detail of the data can be found through this website http://www.mindbigdata.com/opendb/. figure 3. electrode standard placement [10] http://www.mindbigdata.com/opendb/ lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 4 2.2. sampling and fixed length considering the size of the data obtained, sampling was employed to make this research faster. for each label, 5600 rows of data were taken and 56,000 in total. figure 4. data signal size/length distribution figure 4 explained that the majority signal length fell in 260. in theory, the epoc sample rate is 128hz [11]. so, to tackle this problem then the signal was padded with 0 or trimmed to make it had a fixed length of 256 values per 2s. 2.3. flattening and normalization since every 14 lines of data represent a measurement, then the data was flattened. flattening is a process to convert the data into a 1-dimensional array for inputting it to the next layer [12]. this process would have made the dimension of the data was (400, 3584) after that min-max normalization was applied. min-max normalization is a method of normalization with performing linear transformations of the original data, thus resulting in a balance of values comparison between data before and after the process [13]. equation 1 shows the min-max normalization formula, 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑧𝑒𝑑 𝑥 = ( 𝑚𝑖𝑛𝑅𝑎𝑛𝑔𝑒 + (𝑥 − 𝑚𝑖𝑛𝑉𝑎𝑙𝑢𝑒)(𝑚𝑎𝑥𝑅𝑎𝑛𝑔𝑒 − 𝑚𝑖𝑛𝑅𝑎𝑛𝑔𝑒) 𝑚𝑎𝑥𝑉𝑎𝑙𝑢𝑒 − 𝑚𝑖𝑛𝑉𝑎𝑙𝑢𝑒 ) (1) error! reference source not found. is explained in detail step by step that needs to follow in this research. the thing to note is that normalization is carried out on the training data; for testing, data use predictor from training normalization. 2.4. frequency band frequency is one of the most important criteria for assessing abnormalities in clinical eegs and for understanding functional behaviors in cognitive research. there are five major brain waves distinguished by their different frequency ranges. these frequency bands from low to high frequencies, respectively, are typically categorized in specific bands such as 0.5–4 hz (delta, 𝛿), 4–8 hz (theta, 𝜃), 8–13 hz (alpha, 𝛼), 13–30 hz (beta, 𝛽) and >30 hz (gamma, 𝛾) [14]. i.e., alpha waves often appear in the eyes closed, waking state, and relaxed conditions, beta waves often arises when the person is thinking, theta waves in a range of 4–7 hz and usually occurs when someone is in a night of light sleep, sleepy or stressed, delta waves in the range of 0.5–3 hz and often present in the person in a state of deep sleep [15]. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 5 figure 5. four typical dominant brain normal rhythms [16]. fft was employed to convert time domain signal to frequency. for each band, then power spectral, power ratio, and spectral entropy were calculated [17]. power spectral, 𝑃𝑆𝐼𝑘 = ∑ |𝑋𝑖 | [𝑁(𝑓𝑘+1/𝑓𝑠)] 𝑖=[𝑁(𝑓𝑘/𝑓𝑠)] , 𝑘 = 1, 2, … , 𝑘 − 1 (2) power ratio, 𝑅𝐼𝑅𝑗 = 𝑃𝑆𝐼𝑗 ∑ 𝑃𝑆𝐼𝑘 𝐾−1 𝑘=1 , 𝑗 = 1, 2, … , 𝑘 − 1 (3) spectral entropy, 𝐻 = − 1 log (𝐾) ∑ 𝑅𝐼𝑅𝑖 log 𝑅𝐼𝑅𝑖 𝐾 𝑖=1 , 𝑗 = 1, 2, … , 𝑘 − 1 (4) 2.5. principal component analysis (pca) principal component analysis (pca) is a technique to transforms several possibly correlated variables into a smaller number of variables called principal components [18]. pca technique has many goals, including finding relationships between observations, extracting the most important information from the data, outlier detection and removal, and reducing the dimension of the data by keeping only the important information [19]. first, the covariance matrix of the data matrix (x) is calculated. second, the eigenvalues and eigenvectors of the covariance matrix are calculated. in detail, to compute pca can be seen in [20]. figure 6 shown how pca transformed data from a higher dimension to a lower dimension just by one component. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 6 figure 6. illustration of pca result [21] 2.6. k-nearest neighbor (knn) the knn algorithm completes its execution in two steps, first finding the number of nearest neighbors and second classifying the data point into a particular class using the first step. to find the neighbor, it makes use of distance metrics like euclidean distance, as given in equation 5 [22]. 𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑒 = √∑(𝑥𝑖 − 𝑦𝑖 ) 2 𝑖 (5) it chooses the nearest k samples from the training set, then takes the majority vote of their class where k should be an odd number to avoid ambiguity. 2.7. testing method in testing, 10-fold validation was used. k-fold cv is a typical procedure to split the data randomly and evenly into k parts. the training set is built based on the k − 1 part of the dataset. the prediction accuracy of this candidate model is then evaluated on a test set containing the data in the hold-out part [23]. for each fold, accuracy is then calculated using equation 6. 𝑎𝑐𝑐𝑢𝑟𝑎𝑐𝑦 = 𝑇𝑃 + 𝑇𝑁 𝑇𝑃 + 𝑇𝑁 + 𝐹𝑃 + 𝐹𝑁 (6) where the term tp is truly positive, tn is a true negative, fp is false positive, and fn is false negative [24]. 3. result and discussion the experiment of this research reported the feature extraction and evaluation using 10-fold validation and accuracy metric. 3.1. feature extraction using frequency band to extract the frequency band feature, each channel in the data transformed into the frequency domain. fft is the method that was used in this experiment. fft figure 7. fft result lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 7 fft produced a huge magnitude on zero frequency, so this was made the loss in detail. to solve this, a dc removal operation was then applied. at the end of the flattening process, the dimension of the data became (400, 210). the flattening result then normalizes using equation (1) and ready to use in knn classification. 3.2. feature extraction using pca to process the data with pca, flattened and normalized were used to make each measurement unite and balance in weight. after that then pca can be applied. pca transforms original data into principal components. the principal component is the key factor when using pca as a characteristic of a classification problem. selecting the optimal principle will improve the chance to give a good experiment result. one of the important things to be considered is the cumulative variance explained. by making cumulative variance explained is as close as the original data will make optimal dimension and also keep the originality of the variance. to achieve this small experiment was conducted, and the result is drawn in figure 9. figure 9. cumulative variance explained delta theta alpha beta gam ma 𝑃𝑆𝐼𝑘 , 𝑅𝐼𝑅𝑗 , 𝐻 figure 8. dc removal and frequency band applied lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 8 the graph explains to us that number component 186 will give 99% of the cumulative variance explained. 3.3. result and analysis the first assessment was for the frequency band feature. knn was employed with 210 features and 400 data in total. 70% of 400 data were used as training and 30% as testing with ten labels. each label would have the same number of data in both training and testing. the ten-fold validation method was also implemented to give a stable result, and the selected k was 3. table 1. frequency band and knn the second experiment was the pca. the same portion of data and parameters were used in this experiment. table 2. pca and knn clearly, from table 1, the average accuracy for the frequency band with the knn method is 41% for training and 9% for testing. on the other hand average accuracy for pca with knn are 42,1% for training and 12,3% for testing. even clearly seen that average accuracy with pca is better than frequency band in both training and testing set with a 10-fold validation method, a hypothesis test is still another consideration to believe this result significant based on the classic statistical method. before the test is started normality of the result is tested using the shapiro-wilk test since the sample is less than 50. the result can be seen in figure 10. figure 10. normality test experiment train acc (%) test acc (%) 1 40 9 2 39 11 3 4 5 6 7 8 9 10 39 42 46 40 41 46 39 38 8 9 8 7 7 7 12 12 experiment train acc (%) test acc (%) 1 43 17 2 42 13 3 4 5 6 7 8 9 10 38 42 44 43 41 45 41 42 13 10 10 9 14 16 10 11 lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 9 since the sig. (p) ≥0,05, then the result is not normal. this condition didn't allow the use of a parametric statistical method. wilcoxon test was used since both methods, as well as frequency band and pca using the same data for training and testing. figure 11. paired wilcoxon rank result the result showed that training accuracy using frequency band to pca yielded three negative results. the decrease that occurs in the average accuracy is 2.17. positive ranks showed that 5 data gives better train accuracy after using pca for feature extraction. the increase that occurred in the average was 5.90. in contrast, the two results showed ties. testing accuracy from frequency band to pca showed two negative results with an average reduction of 3 basis points. positive ranks showed 8 data that 8 data gives better test accuracy after using pca with 6.13 improvement on average. figure 12. paired wilcoxon statistic result figure 12 explained that there is no significant difference between train accuracy of frequency band and pca by looking at sig. (2-tailed) which is lower than 0.05. otherwise, testing results showed a significant difference between frequency band and pca since 0.027 lower than 0.05. the experiment showed that pca based method gives better accuracy than the frequency band method by comparing it descriptively. wilcoxon test also informs there is a significant difference in accuracy between those methods with 95% of confidence level. so that can be said, pca based method is significantly better compared to the frequency-based method. although the accuracy of both methods is smaller than any other research that exists, the comparison between research leads to bias since other research using a different dataset. for example, research conducted by [2] and [7] used the dataset from mdb but was collected by muse device. the research can achieve an accuracy of around 27% using the non boosted mlp method. in their research, the use of data with label -1 or random thought, which has a larger number compared to other data with labels 0-9 could lead to bias interpretation since there is an imbalanced data problem, and the used of accuracy could give an inaccurate result [25]. another problem is data in mdb collected by muse doesn't follow the rule of 10/20 international electrode placement since the device only has 4 channels. research conducted by [26] provides proof that 10/20 international electrode placement could give better results in analysis eeg data. even with that reason, the experiment is still conducted with the muse dataset so that a comparison can be made between research papers. the experiment is conducted by all muse dataset like [2] and [7] to get a fair comparison. lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 10 table 3. result using muse dataset table 3 shows that an average frequency band can achieve an accuracy of 31%, and pca can achieve 24,8%. this result can be interpreted that the frequency band method is better than the pca method to classify digit numbers from 0-9 and label -1 for random thought with muse dataset. the result also produces better accuracy with the frequency band method compare to the result in [2] with the non boosted mlp method and gives a competitive result with the experiment in [7]. but important to note that the experiment with the muse dataset contains data with label -1 dominate 27% in the overall dataset. that is different from the experiment with the epoc dataset that only considered data with labels 0-9 and made the data size balance which is 40 data for each label or 400 in total. hence, the result can not be compared with the muse dataset. in the experiment with the muse dataset, label -1, which is a random thought, is left as original or imbalance in size. other than that, epoc has 14 channels, and muse only four channels that make the comparison is not fair. also, the research found here has lower accuracy with the research report in [6]. this might be happened because of the difference in the data and also the way of testing that is used. but overall from the experiment, pca based method does not always be better in order to classify digit number from eeg signal like what is reported in [6]. 4. conclusion pca method has a significant difference in accuracy than the frequency band method with epoc dataset labeled by 0-9. pca yielded 12,3% accuracy in average and frequency band only 9% accuracy. with a 95% of confidence level, there were significant differences in accuracy between pca and frequency band methods with the epoc dataset. on the other hand, testing with muse dataset with data labeled by numbers 0-9 and -1 for random thought produces an accuracy of 31% on average for the frequency band and 25% for pca. compared with the result found in [2] and [7], this experiment with frequency band produces a competitive result. otherwise, compared to [6] the accuracy in this experiment is lower. this might happen because of the data difference and the technique to do the testing. but overall, focus on both datasets used here can be concluded there is no winner method because each dataset favors a specific method. even the data is similar to be used in digit number classification, but many factors such as device channel and imbalance size of data can be lead to a different result. in the future, analysis to channel and better treatment on the dataset is needed since both methods showing no positive result in terms of use in an application and the use of different datasets to give better generalization results. references [1] w. l. liem, “pengetahuan umum mengenai kekuatan otak alam bawah sadar”, 2018. [online]. available: https://inakyokushinacademy.com/pengetahuan-umum-mengenaikekuatan-otak-alam-bawah-sadar/#:~:text=otak manusia terdiri dari milyaran,“gelombang otak” atau brainwave. [accessed: 21-jan-2021] [2] jordan j. bird, diego r. faria, luis j. manso, anikó ekárt, christopher d. buckingham "a deep evolutionary approach to bioinspired classifier optimisation for brain-machine interaction", complexity, vol. 2019, articleid 4316548, 14 pages, 2019. https://doi.org/10.11 55/2019/4316548 experiment frequency band test acc (%) pca test acc (%) 1 31 24 2 31 25 3 4 5 6 7 8 9 10 31 31 31 31 31 31 31 31 25 25 24 25 25 25 25 25 lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 11 [3] n. kasabov, "springer handbook of bio-/neuroinformatics," springer handb. bio/neuroinformatics, no. june 2016, pp. 1–1229, 2014. doi 10.1007/978-3-642-30574-0 [4] kögel j, schmid jr, jox rj, friedrich o. "using brain-computer interfaces: a scoping review of studies employing social research methods". bmc med ethics. 2019 mar 7;20(1):18. doi: 10.1186/s12910-019-0354-1 [5] s. d. rosca and m. leba, "using brain-computer-interface for robot arm control" matec web conf., vol. 121, article number 08006, 7 pages, 2017. doi: 10.1051/matecconf/20171210 mse 2017 8006 [6] chen d, yang w, miao r, huang l, zhang l, deng c, han n. novel joint algorithm based on eeg in complex scenarios. comput assist surg (abingdon). 2019 oct;24(sup2):117-125. doi: 10.1080/24699322.2019. [7] b. l. k. jolly, p. aggrawal, s. s. nath, v. gupta, m. s. grover, and r. r. shah, "universal eeg encoder for learning diverse intelligent tasks," 2019 ieee fifth international conference on multimedia big data (bigmm), singapore, 2019, pp. 213-218, doi: 10.1109/bigmm.2019.00-23. [8] a. ameera, a. saidatul, and z. ibrahim, "analysis of eeg spectrum bands using power spectral density for pleasure and displeasure state" iop conference series: materials science engineering, vol. 557, no. 1, 2019. https://doi.org/10.1088/1757-899x/557/1/012030 [9] a. morley, l. hill, and a. g. kaditis, "10-20 system eeg placement" eur. respir. soc., p. 34, 2016. [online]. available: https://www.sleep.pitt.edu/wp-content/uploads/2020/03/10-20system-el.pdf. [accessed: 10-dec-2020]. [10] p. campisi, d. la rocca and g. scarano, "eeg for automatic person recognition," in computer, vol. 45, no. 7, pp. 87-89, july 2012. doi: 10.1109/mc.2012.233. [11] d. vivancos, "mindbigdata the 'mnist' of brain digits," 2018. [online]. available: http://www.mindbigdata.com/opendb/. [accessed: 10-dec-2021]. [12] j. jeong, "the most intuitive and easiest guide for convolutional neural network" 2019. [online]. available: https://towardsdatascience.com/the-most-intuitive-and-easiest-guide-forconvolutional-neural-network-3607be47480. [accessed: 21-jan-2021]. [13] d. a. nasution, h. h. khotimah, and n. chamidah, “perbandingan normalisasi data untuk klasifikasi wine menggunakan algoritma k-nn”, journal of computer engineering, system and science, vol. 4, no. 1, p. 78, 2019. doi: https://doi.org/10.24114/cess.v4i1.11458 [14] s. siuly, y. li, and y. zhang. eeg signal analysis and classification techniques and application, edition 1. springer international publishing. 2016. pp. 3-13. doi : 10.1007/9783-319-47653-7 [15] h. hindarto and s. sumarno, "feature extraction of electroencephalography signals using fast fourier transform" commit (communication and information technology) journal, vol. 10, no. 2, p. 49, 2016. doi : https://doi.org/10.21512/commit.v10i2.1548 [16] p. a. abhang, b. w. gawali, and s. c. mehrotra. introduction to eegand speech-based emotion recognition. academic press, 2016, pp. 19–50. https://doi.org/10.1016/b978-0-12804490-2.00002-6 [17] forrest sheng bao, xin liu, christina zhang, "pyeeg: an open source python module for eeg/meg feature extraction", computational intelligence and neuroscience, vol. 2011, articleid 406391, 7 pages, 2011. https://doi.org/10.1155/2011/406 391 [18] s. mishra, s. taraphder, u. sarkar, and s. datta, "principal component analysis," vol. 7, no. 5, pp. 60–70, 2017. doi: 10.5455/ijlr.20170415115235 [19] tharwat, alaa. (2016). principal component analysis a tutorial. international journal of applied pattern recognition. 3. 197. 10.1504/ijapr.2016.079733. [20] j. a. lópez del val and j. p. alonso pérez de agreda, “principal components analysis,” aten. primaria, vol. 12, no. 6, pp. 333–338, 1993. [21] v. powell and l. lehe, "principal component analysis.", 2015. [online]. available: https://setosa.io/ev/principal-component-analysis/. [accessed: 20-jan-2021] [22] a. bablani, d. r. edla, and s. dodia, "classification of eeg data using k-nearest neighbor approach for concealed information test". procedia computer science, vol. 143, pp. 242– 249, 2018. https://doi.org/10.1016/j.procs.2018.10.392 [23] y. jung and j. hu, "a k-fold averaging cross-validation procedure" j. nonparametr. stat., vol. 27, no. 2, pp. 167–179, 2015. doi: 10.1080/10485252.2015.1010532 https://doi.org/10.1088/1757-899x/557/1/012030 https://doi.org/10.24114/cess.v4i1.11458 https://doi.org/10.21512/commit.v10i2.1548 https://doi.org/10.1016/j.procs.2018.10.392 https://dx.doi.org/10.1080%2f10485252.2015.1010532 lontar komputer vol. 12, no. 1 april 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i01.p01 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 12 [24] m. d. yudianto, t. m. fahrudin, and a. nugroho, "a feature-driven decision support system for heart disease prediction based on fisher's discriminant ratio and backpropagation algorithm," lontar komputer jurnal ilmiah teknologi informasi, vol. 11, no. 2, p. 65, 2020. https://doi.org/10.24843/lkjiti.2020.v11.i02.p01 [25] j. l. leevy, t. m. khoshgoftaar, r. a. bauder, and n. seliya, "a survey on addressing highclass imbalance in big data". journal of big data, vol. 5, no. 1, 2018. https://doi.org/10.1186/s40537-018-0151-6 [26] s. parameswaran et al., "comparison of various eeg electrode placement systems to detect epileptiform abnormalities in infants" mnj (malang neurology journal), vol. 7, no. 1, pp. 30–33, 2021. https://doi.org/10.21776/ub.mnj.2021.007.01.7 https://doi.org/10.24843/lkjiti.2020.v11.i02.p01 https://doi.org/10.1186/s40537-018-0151-6 https://doi.org/10.21776/ub.mnj.2021.007.01.7 lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 186 detecting excessive daytime sleepiness with cnn and commercial grade eeg made sudarmaa1, ni wayan sri ariyania2, i putu agus eka darma udayanab3 adepartment of electrical engineering, udayana university bukit jimbaran campus, indonesia 1msudarma@unud.ac.id 2sriariyani@unud.ac.id bdepartment of engineering science, udayana university bukit jimbaran campus, indonesia 3agus.ekadarma@gmail.com abstract excessive daytime sleepiness is a common symptom that has proved to be a good predictor of obstructive sleep apnea. this symptom became a focus on various studies or a computer-aided diagnostic tool in the sleep medicine world. however, the current implementation of excessive daytime sleepiness mainly relied on subjective features and did not overly emphasize common objective features, such as brainwaves. even though few studies show that the epworth sleepiness scale test results correlated with the brainwave signal, even commercial-grade eeg can capture. this research compared the three cnn architecture performances to overcome these problems, namely the classic alexnet architecture and two custom cnn architectures. the study tested on 20 university students taking the epworth sleepiness test beforehand. then, we put the participant in 10 minutes eeg session, downsampling the data for normalization purposes and trying to predict the outcome of the eds in respect of their brainwave state. the ai accuracy reaches 65% and 81% of sensitivity with just under five minutes of excellent initial training, considering the small dataset. keywords: elektroensefalogram (eeg), convolutional neural network (cnn), epworth sleepiness scale, hypersomnia, dropout. 1. introduction obstructive sleep apnea is a severe sleep disorder where the patient breath repeatedly restarts during nighttime sleep. it is approximately affecting on average 6% of any country's population. obstructive sleep apnea is commonly associated with excessive daytime sleepiness or hypersomnia. it is another sleeping disorder in which the patient falls asleep repeatedly during the day [1],[2]. in today's world, there are reports of an increase in the number of hypersomnia across the globe as the world adapts to coronavirus. many people also found themselves changing their biological clock and becoming overly dependent on the digital screen [3]. fortunately, there is an old age method for easy detection of excessive daytime sleepiness, invented by dr. murray jhons when he worked in epworth sleeping center. this test is named accordingly and known as the epworth sleepiness scale [4]. this test is a self-assessment questionnaire that has a set of questions. it will relate to the most common symptoms of eds. this simple test has proved to be an excellent clinical instrument to detect hypersomnia [5]. the only drawback is the method relies too heavily on subjective assessment of the test results. the need for trained professionals is only to examine the self-assessment test. it causes the epworth sleepiness case not a very scalable option in the post-pandemic world these days, especially in indonesia where the social restriction runs [6]. in recent years, advancements in computer-aided clinical diagnosis also have momentum with the intrusive entry of ai into the public health world. there are various attempts to detect sleep disorders in the sleep medicine world, for example, this study [7], [8], and [9]. for excessive daytime disorder, various studies have tried to solve the problem. research by the iranian university detects obstructive sleeping apnea using the eds as a benchmark and decision tree as a classifier [10]. instead of using biological markers, the research still using self-assessment. instead of using prediction based on subjective lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 187 questionnaire questions, this research models the brainwave of eds patient and use it to predict another people. instead of using a simple neural network like what they did in this study [11], we used a convolutional network and deep learning network that is more suitable for working with multidimensional data. last, instead of just tying eds features to alpha wave only, this research tried to step up the game by binding the feature with multiple brainwaves to improve the classifier performance [12]. 2. research methods this study focused on improving the method demonstrated in a few previously mentioned studies. this study uses multiple brainwaves instead of just one like what was performed in a study [12] and used deep learning as a classifier method, with a few signals preprocessing to improve the system performance. the general overview of the system can be seen in the picture shown below. figure 1. research scheme the experiment started with screening a random subject of university students for symptoms of excessive daytime sleepiness using the standard epworth sleepiness scale test. then, we divide the population into two classes: one with positive excessive daytime sleepiness symptoms and the other with negative class. then we record the data from each participant and apply the minmax normalization method to normalize the data for normalization. then we do a signal decomposition and labeling to extract the individual signal (namely alpha, beta, and gamma signal to the system). for the training data itself, we use the same normalization and frequency lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 188 decomposition technique. then we train the dataset to the classifier and save the data to the pretrained model file to later be used in the testing phase. data used in this research was a dataset that we used as a training set belonging to carnegie mellon university language technology institute [13]. the recorded data used a single band eeg handheld device capable of recording brain wave data from the participant. the wave consists of alpha-beta and theta wave, and it also translated into the pre-recognition of participant state of mind powered by neurosky proprietary algorithm. we used it as a baseline of point of view at the end of the research. the baseline used in the study was a sampling rate of 512 hz. the training set consists of 14200 sessions taken from 25 participants, of which half of the sessions consider insufficient attention and 7000 which participants viewed as a good attention model. while the testing set consists of 2.000 sessions taken from 20 participants, each session consists of two seconds of brainwave recording both the training and testing set used in this research. it was only limited to sessions that captured their attention level and were associated with the epworth sleepiness scale. 2.1. data acquisition the data acquired in this research consists of training and testing data. the training data is public research data consisting of eeg data from the carnegie-mellon public research data archive found on kaggle. this information is usually used to classify confused students (thus interpreted as a low attention state). some paper research such as confused or not confused disentangling brain activity from eeg data using bidirectional lstm recurrent neural networks, multi-task learning for commercial brain-computer interfaces, and electroencephalography (eeg) technology applications and available devices had used this dataset too [14],[15],[16]. we also added a little twist to the experiment by adding the self-assessment of epworth sleepiness scale for every participant for this data since it was founded the strong correlation from eeg signal data with a score of self-reported sleepiness scale [17]. data we used for training provided in csv format that had collected with neurosky mindwave single band headset that had accredited using the standardized 10-20 international electrode placement standard [18]. datasets contained the 12.812 rows that measured the raw signal data, alpha-beta, and gamma signal with their selfreported sleepiness scale. the participated subject in this research was considered a subject with healthy mental health. neurosky headset had a single channel that had proved to be having enough capabilities to gain big data. the data itself would be in the form of a float number with the decimal value representing the brainwave and a number in integer value representing the mental state and sleepiness level. the data explanation shows in figure 2. figure 2. eeg recording data data format: att : attention level measured by neurosky attention meter algorithm raw : unfiltered brainwave signal delta : filtered delta brainwave theta : filter theta brainwave alpha : filtered alpha brainwave beta : filtered beta brainwave gamma: filtered gamma brainwave lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 189 the data and experiment conducted here rely heavily on the eeg device. figure 3 shows the illustration of the standard electrode placement known as 10-20 standard. figure 3. point of brainwave location 2.2. data sampling since the data obtained in this research had a massive size compared to usual tabular-matrix size data, it conducted the sampling process to simplify analysis for each class. the 5000 data was taken and labeled accordingly as low and average attention levels, respectively. in theory, the sampling rate of the neurosky headset is 512hz, so the data is also trimmed and normalized according to the usual specification, and the data considered noise omits in preprocessing phase. 2.3. data normalization since every eight rows of data represent one aspect of the classifier, thus the data is a subject of the flattening process. flattening is a popular term for a statistical equation that transports multidimensional data into a single layer of data. this process made the data more compact to process later in a training phase [19]. we used the minimum-maximum process in this phase. a popular process is named the min-max normalization. this process performed a linear transformation process to the data, hoping to produce a more balanced dataset that will equal a more fair comparison among the dataset. mathematically, speaking represents with the equation below. 𝑥 min−max = 𝑥 − 𝑥𝑚𝑖𝑛 𝑥max − 𝑥𝑚𝑖𝑛 (1) 2.4. brainwave frequency labelling eeg signal and frequency are the most common health and clinical research criteria when we speak about eeg. in the study of psychology and the academic consensus, five central frequencies are labeled as a different kind altogether. it usually categorizes from low to high frequencies. respectively, these are commonly used based on the greek alphabets, such as 0.5– 4 hz (delta), 4–8 hz (theta), 8–13 hz (alpha), 13–30 hz (beta), and >30 hz (gamma). commonly, alpha states are associated with waking states and relaxed states of mind. beta waves are associated with full attention in mind. theta waves are frequently associated with a sleepy individual or a biological marker of a stressed or highly working brain. last, delta waves reside in the range of 0.5–3 hz and are often associated with a state of deep sleep [20]. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 190 figure 4. different types of brainwaves 2.5. convolutional neural network (cnn) convolutional neural network or popular with the abbreviation of cnn, is the recent development of the ever-changing artificial intelligence and machine learning field. its popularity increased in recent years because of the rise of cloud computing and a sheer collaboration movement on open-source machine learning frameworks like tensorflow and openai initiative makes cnn the favorite approach to tackle machine learning problems. these problems are especially the machine learning problem in the computer vision field. the keen architecture of cnn makes the network functional in tackling multidimensional data. the cnn approach that considers every bit of pixel in the data is independent of each other makes the classifier thrive in the image or spatial based classification popular recently with the development of big data on the internet [21]. figure 5. cnn architecture cnn as a scientific term is firstly mentioned in the paper by a young japanese researcher known to the public as kaneshiro fukushima, whose lab is kinuta setagaya nhk research laboratory invented with neocognitron. later, it inspired the turing award awardee yanlecunn to develop and implement a fully-fledged cnn classifier with the name of lenet and the inventor's last name attached within it [22]. a decade later, the same cnn model won a prestigious machine learning contest in 2012 held by google. model outperforming a more classical model like svm and other perceptron-based models. this winning record in the machine learning contest fueled the popularity of the cnn model to the masses. it is one of the reasons cnn is still used today as one of the states of the art of image recognition to date. 2.6. the architecture of convolutional neural network the standard artificial neural network is a bunch of connected artificial neurons stacked into the various layers of the neuron learn itself, which is the fastest way to solve the problem. it is revolutionary compared to the traditional procedural programming paradigm with case by case lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 191 basis [23]. if we move ahead to the realm of multilayer perceptron, a well-known neural network architecture without the hidden layer part, has explained to have the capabilities to map a linear equation with the various versatile condition and variable sets. we track back with the limitation of perception that is only good for a problem with a small dataset. but even with all the good well of mlp, it has to come down to the advancement of the big data field. the rise of the big data corner mlp to its corner as the limit of mlp. the layer that can support by mlp is limited as many experts prove that mlp will lose its magic with an architecture of more than three layers as more than that, mlp will be prone to the overfitting problem and will reach its point the diminishing return. then, we have deep learning that can be easy to implement using cnn, which can substitute mlp in its weak point to manage complex and big data as with cnn possible to develop a machine that can transform input data to data. it would be easier to feed to the network that makes deep learning appealing with this so-called machine making hundreds of layers is now possible. it makes deep learning is a newly found swiss-army knife equivalent method in the machine learning world. a typical cnn implementation consists of as follows. a. convolution layer the convolution layer does a massive convolution operation in the network. it means whatever data comes from the previous will be processed repeatedly in a forced mathematical function. then be treated as an input of other functions. the convolution operation illustrates as follows. b. fully connection layer a fully connected layer is a layer of neural network that mimics the mechanism of a multilayer perceptron. the principal purpose of every fully connected layer is to transform multidimensional data into more simple data in a dimensional form. it includes a scalar form; as per consensus, each cell of the neuron needs to be transformed into one-dimensional data at first before it can combine to form a fully connected layer. c. activation layer an activation function is a mathematical form used to present functions of classifying our dataset with a division in a hyperspace using whatever criteria we used. if we talk about binary classification, the one that comes to mind is a sigmoid function illustrated in figure 6 below. figure 6. sigmoid function a sigmoid function is best to classify a binary problem because its output tends to be between zero and one. d. dropout dropout is a term that refers to a machine learning technique for addressing overfitting in the realm of deep learning. popularized in a paper by the university of toronto in a team led by nitish srivastava dropout layer offers a simple idea to randomly drop neural network units along with their connections to the main neural network during the training phase. this sort of action prevents the neuron from co-adapting too much during the process. operations performed by the network lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 192 are to sample the overall predictions from a few selected thinned networks. simply, it uses a single unthinned network that has smaller weights to be added as consensus. it has been proven to reduce overfitting and significantly boost deep learning or cnn-powered neural networks [24]. 2.7. epworth sleepiness scale epworth sleepiness scale is a classic method in the sleep medicine field commonly used to evaluate the level of general sleepiness among the participant. it is commonly used as a clinical predictor of hypersomnia or excessive daytime sleepiness. then, it is a good predictor of obstructive sleep apnea, as time passed become one of the methods used and perfected in the recent decade as the uses of the scaling method have proven to be effective from time to time as cited in this study [25]. this study explains the children's hypersomnia in indonesia or even in the other hemisphere. 2.8. testing method as we tried to emulate the effectiveness of a clinically proven method, named the epworth sleepiness scale, we focused on the model accuracy. we used the confusion matrix as the threshold for the model performance. but the metric we used did not only be limited to accuracy as we would also evaluate the system using other popular metrics such as recall, precision, and f-score. the model compared with the self-assessment that used the epworth sleepiness scale, and then the test results were used as a sole indicator of the classifier's success. the classifier tested with the data from 50 healthy university students with various biological clocks and sleeping patterns with an age range from 19-27 in denpasar city. the experiment results are presented in the next section. 3. result and discussion the research focuses on an effort to detect excessive daytime sleepiness. the research starts with data collection, which is the data among the volunteer is collected, through then the data is normalized using equation 1. the signal itself is decomposed to various frequency bands like what we illustrated in figure 4 then we predict the new patient data using the pre-trained model. we list the outcome to evaluate the result. in the experiment, three cnn architectures illustrated in figure 5 are tested and compared. we choose to compare alexnet and two custom cnn architectures to find the optimal result. the experiment results are then listed in the table shown below. table 1. accuracy, precision, recall, and time training results of each architecture method accuracy precision recall time training alexnet 52% 72% 76% 253 second custom cnn 60% 80% 81% 255 second custom cnn + dropout 65% 81% 86% 251 second in this experiment, the researcher compared the effectiveness of our artificial intelligence (ai) prediction with the self-assessment model that each participant performed to see how many of the predictions turned out to be aligned with an old manual model of detecting excessive daytime sleepiness. we list the outcome and do a bit of statistical evaluation on the data to get the classifier's metric, namely accuracy, precision, and recall. based on the test results in table 1 using the custom cnn and custom cnn + dropout method, the results show that the cnn + dropout method outperforms the custom cnn method by 5% and the classic alexnet method by 13%. then, the comparison results were used to see the suitability between the results of the epworth sleepiness scale using a manual questionnaire and analyzed using eeg that divides into two conditions, namely normal ds (normal ds) and excessive daytime sleepiness (excessive ds). lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 193 table 2. compression survey result of testing epworth and cnn dropout number of user epworth sleepiness scale (survey) classifier prediction (cnn + dropout) result 1 normal ds normal ds true 2 excessive ds excessive ds true 3 excessive ds normal ds false 4 normal ds excessive ds false 5 excessive ds excessive ds true 6 excessive ds excessive ds true 7 excessive ds excessive ds true 8 excessive ds excessive ds true 9 excessive ds excessive ds true 10 excessive ds excessive ds true 11 normal ds excessive ds false 12 normal ds normal ds true 13 excessive ds normal ds false 14 excessive ds normal ds false 15 excessive ds excessive ds true 16 excessive ds excessive ds true 17 normal ds excessive ds false 18 normal ds excessive ds false 19 excessive ds excessive ds true 20 excessive ds excessive ds true with the randomized testing that the classifier performed, the classifier somewhat produces a satisfying result. the success rate of predicting excessive daytime sleepiness yields 65% accuracy, which is a likely result of the limited training set. nevertheless, the complete metrics test which we measure regarding the classifier performance presents below. 4. conclusion the classification performed by the classifier produces good results with an accuracy topped at 65% with the addition of the dropout layer to the classifier. this attempt of excessive sleepiness classifier performs well on sensitivity metrics with a yield of 86% compared to the standard architecture. the addition of the dropout layer slightly increased the performance of the future classifier works are needed to investigate the correlation of data size to the overall classifier performance since compared to other research in the field of eeg dataset that we collected would lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 194 be considered small. further studies on the comparative performance of various eeg devices on tackling this problem also have a great potential to be performed. however, it may be costly compared to our low-cost solution. an improvement in preprocessing is also to consider since eeg data on an enormous basis is very prone to noise if it does not handle properly. references [1] h. nakano, m. kadowaki, t. furukawa, and m. yoshida, "rise in nocturnal respiratory rate during cpap may be an early sign of covid-19 in patients with obstructive sleep apnea," journal of clinical sleep medicine, vol. 6, no. 10, pp. 1811–1813, 2020, doi: 10.5664/jcsm.8714. [2] a. j. el hangouche et al., "relationship between poor quality sleep, excessive daytime sleepiness and low academic performance in medical students," advances in medical education and practice, vol. 9, pp. 631–638, 2018, doi: 10.2147/amep.s162350. [3] c. m. morin, j. carrier, c. bastien, and r. godbout, "sleep and circadian rhythm in response to the covid-19 pandemic," canadian journal of public health, vol. 111, no. 5, pp. 654–657, 2020, doi: 10.17269/s41997-020-00382-7. [4] c. v. senaratna et al., "detecting sleep apnoea syndrome in primary care with screening questionnaires and the epworth sleepiness scale," medical journal of australia, vol. 211, no. 2, pp. 65–70, 2019, doi: 10.5694/mja2.50145. [5] a. bener et al., "internet addiction, fatigue, and sleep problems among adolescent students: a large-scale study," international journal of mental health and addiction, vol. 17, no. 4, pp. 959–969, 2019, doi: 10.1007/s11469-018-9937-1. [6] k. trimmel et al., “wanted: a better cut-off value for the epworth sleepiness scale,” wiener klinische wochenschrift, vol. 130, no. 9–10, pp. 349–355, 2018, doi: 10.1007/s00508-017-1308-6. [7] m. sand, j. m. durán, and k. r. jongsma, "responsibility beyond design: physicians' requirements for ethical medical ai," bioethics, no. october 2020, pp. 1–8, 2021, doi: 10.1111/bioe.12887. [8] i. g. t. suryawan and i. p. a. e. d. udayana, "a deep learning approach for covid 19 detection via x-ray image with image correction method," international journal of engineering and emerging technology, vol. 5, no. 2, pp. 1–5, 2020, doi: 10.24843/ijeet.2020.v05.i02.p018. [9] c. a. goldstein et al., "artificial intelligence in sleep medicine: an american academy of sleep medicine position statement," journal of clinical sleep medicine, vol. 16, no. 4, pp. 605–607, 2020, doi: 10.5664/jcsm.8288. [10] z. manoochehri, m. rezaei, n. salari, h. khazaie, b. k. paveh, and s. manoochehri, "the prediction of obstructive sleep apnea using data mining approaches," archives of iranian medicine, vol. 21, no. 10, pp. 460–465, 2018, [11] i. n. yulita, r. rosadi, s. purwani, and m. suryani, "multi-layer perceptron for sleep stage classification," journal of physics, vol. 1028, no. 1, pp. 1–8, 2018, doi: 10.1088/17426596/1028/1/012212. [12] y. jiao and b. l. lu, "detecting driver sleepiness from eeg alpha wave during daytime driving," in ieee international conference on bioinformatics and biomedicine (bibm), 2017, vol. 1, no. 61272248, pp. 728–731, doi: 10.1109/bibm.2017.8217744. [13] h. wang, y. li, x. hu, y. yang, z. meng, and k. m. chang, "using eeg to improve massive open online courses feedback interaction," in ceur workshop proceedings, 2013, vol. 1009, pp. 59–66. [14] z. ni, a. c. yuksel, x. ni, m. i. mandel, and l. xie, "disentangling brain activity from eeg data using bidirectional lstm recurrent neural networks zhaoheng," in proceedings of the 8th acm international conference on bioinformatics, computational biology, and health informatics, 2017, pp. 241–246. [15] g. panagopoulos, "multi-task learning for commercial brain computer interfaces," in ieee 17th international conference on bioinformatics and bioengineering (bibe), 2017, vol. 1, pp. 86–93. [16] m. soufineyestani, d. dowling, and a. khan, "electroencephalography (eeg) technology applications and available devices," applied sciences (switzerland), vol. 10, no. 21, pp. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p06 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 195 1–23, 2020, doi: 10.3390/app10217453. [17] a. m. strijkstra, d. g. m. beersma, b. drayer, n. halbesma, and s. daan, "subjective sleepiness correlates negatively with global alpha (8-12 hz) and positively with central frontal theta (4-8 hz) frequencies in the human resting awake electroencephalogram," neuroscience letters, vol. 340, no. 1, pp. 17–20, 2003, doi: 10.1016/s03043940(03)00033-8. [18] k. b. e. böcker, j. a. g. van avermaete, and m. m. c. van den berg-lenssen, "the international 10-20 system revisited: cartesian and spherical co-ordinates," brain topography, vol. 6, no. 3, pp. 231–235, 1994, doi: 10.1007/bf01187714. [19] c. saranya and g. manikandan, "a study on normalization techniques for privacy preserving data mining," international journal of engineering and technology, vol. 5, no. 3, pp. 2701–2704, 2013. [20] c. l. chen, c. y. liao, r. c. chen, y. w. tang, and t. f. shih, "bus drivers fatigue measurement based on monopolar eeg," in asian conference on intelligent information and database systems, 2017, vol. 10192, pp. 308–317, doi: 10.1007/978-3-319-544304_30. [21] n. sharma, v. jain, and a. mishra, "an analysis of convolutional neural networks for image classification," in international conference on computational intelligence and data science (iccids), 2018, vol. 132, no. 132, pp. 377–384, doi: 10.1016/j.procs.2018.05.198. [22] i. p. a. e. d. u. udayana and p. g. s. c. nugraha, “prediksi citra makanan menggunakan convolutional neural network untuk menentukan besaran kalori makanan,” jurnal teknologi informasi dan komputer, vol. 6, no. 1, pp. 30–38, 2020. [23] l. i. u. dong, l. i. yue, l. i. n. jianping, l. i. houqiang, and w. u. feng, "deep learningbased video coding: a review and a case study," acm computing surveys, vol. 53, no. 1, pp. 1–35, 2020, doi: 10.1145/3368405. [24] n. srivastava, n. srivastava, a. krizhevsky, i. sutskever, and i. sutskever, "dropout: a simple way to prevent neural networks from overfitting," journal of machine learning research, vol. 299, no. 3–4, pp. 345–350, 2014, doi: 10.1016/0370-2693(93)90272-j. [25] p. sargento, v. perea, v. ladera, p. lopes, and j. oliveira, "the epworth sleepiness scale in portuguese adults: from classical measurement theory to rasch model analysis," sleep and breathing springer, vol. 19, no. 2, pp. 693–701, 2015, doi: 10.1007/s11325-0141078-6. lontar template lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 175 a new simple procedure for extracting coastline from sar image based on low pass filter and edge detection algorithm ni nyoman pujianikia a1, i nyoman sudi parwatab2, takahiro osawac3 acivil engineering department, udayana university denpasar, indonesia 1pujianiki@civil.unud.ac.id (corresponding author) bcentre for remote sensing and ocean sciences (cresos), udayana university denpasar, indonesia 2parwata@unud.ac.id ccentre for research and application of satellite remote sensing (yucars), yamaguchi university ube city, japan 3osawaunu@yamaguchi-u.ac.jp abstract this study proposes a new simple procedure for extracting coastline from synthetic aperture radar (sar) images by utilizing a low-pass filter and edge detection algorithm. the low-pass filter improves the histogram of the pixel value of the sar data. it provides better distribution of pixel value and makes it easy to separate between sea and land surfaces. this study provides the processing steps using open-source software, i.e., snap sar processor and qgis application. this procedure has been tested using a dual-polarization sentinel-1 (10x10 meters resolution) and single polarization alos-2 (3x3 meters resolution) dataset. the results show that using sentinel-1 with dual polarization (vh) provides a better result than single polarization (vv). in the alos-2 case, only single polarization (hh) is available. however, even using only hh polarization, alos-2 provides a good result. in terms of resolution, alos-2 provides a better coastline than sentinel-1 data due to alos-2 having better resolution. this procedure is expected to be helpful to detect coastline changes and for coastal area management. keywords: sar image processing, coastline extraction, low-pass filter, edge detection 1. introduction remote sensing technologies (passive and active sensors) are useful in monitoring and modeling earth's various bio-physical components. the evaluation of shoreline changes is widely used in coastal management. it shows a significant factor in evaluating beach conditions [1], [2]. remote sensing can be used to monitor the earth and its phenomena periodically. the coastal area is well known as a dynamic system. it causes changes in shoreline position. thus, timeseries monitoring data of coastline changes is important, and remote sensing technology has a high possibility to overcome this requirement. furthermore, remote sensing provides an extensive area coverage of monitored earth's surface at relatively cost-effective and high accuracy. the coastal zone is the area located in between land and water. it is bordered by a "line" called shoreline [3]. the concept of a coastal zone is straightforward. however, due to the temporal variability of the shoreline itself, this concept becomes complex in the actual case. the wave motion, tides, and winds are the main factor of shoreline temporal variability. it means that coastal area is dynamic, and continued monitoring is important. remote sensing and geospatial information system (gis) recently are practical tools to detect the coastline. in principle, remote sensing methods are divided into two categories, i.e., passive lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 176 remote sensing (mainly using the optical sensor) and active remote sensing (primarily using radar sensor) [5]. both methods can be used to extract coastline. coastline detection by using optical sensors has been presented well by [6]–[12]. those works mentioned above mainly utilize optical satellite imageries from the landsat series and spot satellite. coastline extraction by using synthetic aperture radar (sar) is presented by [13]–[22]. unlike optical sensors, the sar sensor can be used in day and night observation and penetrate cloud cover. in practice, the optical sensor has limitations that cannot be used in night-time observation (sun illumination dependent) and cannot penetrate the cloud covers. however, in the case of coastline extraction, sar data commonly required special knowledge in terms of object identification and sar data interpretation. it causes complex image processing and data analysis to extract coastline from sar data, for example, using the polarimetric method [15]. in some cases, image processing of sar data to extract coastline is time-consuming and requires highend computing power [17]. in this study, a new simple procedure for extracting coastline from sar images is proposed. it utilizes a low-pass filter and edge detection algorithm. the processing steps are straightforward, and it does not require high-end computing power. the comprehensive processing steps of this procedure are explained in detail and can be applied to the other coastal area. 2. research methods, study area, and dataset 2.1. research methods the method in this study utilizes processing steps provided by open-source software, i.e., snap sar processor and qgis application, as shown in figure 1. the snap sar processor is built using the java programming language, and qgis application modules are mostly built using python. each processing step is explained as follows: a. pre-processing steps for sentinel-1 sar data using snap software 1. read sar data this step opens the sentinel-1 sar data in the snap application. 2. image subset image subset is for cutting the whole scene to the region of interest of the study area. it is done by giving the longitude and latitude of the research area 3. apply orbit file for sentinel-1, applying the orbit file is an essential process because the precise orbit file is applied to sar dataset at this step. this step is downloading the appropriate orbit information, such as the date and time of satellite flight, flight direction, satellite speed, satellite position, etc. 4. thermal noise removal thermal noise is caused by the thermal variability of the sar sensor. thermal noise correction should be applied to sentinel-1 sar data to reduce such noise from sensor temperature. this process can be done by using the information of sensor temperature for each dataset. then, such as thermal noise can be estimated and removed from the original dataset. 5. radiometric calibration the pixel values of the sar scene may not relate directly to the radar backscatter. to overcome this error, a radiometric calibration should be applied. in this step, the calibrated sar dataset is converted as sigma zero. the equation to calculate sigma zero is: lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 177 𝜎 0 = |𝐷𝑁𝑖| 2 (𝐴𝑖) 2 (1) where: 𝜎 0 = sigma zero 𝐷𝑁𝑖 = original digital number of datasets 𝐴𝑖 = scattering area 6. speckle filtering speckle noises are caused by random or granule interference (constructive or destructive) that inherently exists. speckle noises degrade the quality of the sar image. in this step, the single product speckle filter is applied using the lee-sigma algorithm. lee-sigma algorithm utilizes the sigma probability of the gaussian distribution. it smooths the noise by evaluating the intensities within a fixed sigma range of the center pixel. then, it took averaging process only the neighborhood pixels. in general, lee sigma uses two conditions as described as follows: �̂�𝑖,𝑗 = { 𝑡𝑤𝑜 𝑠𝑖𝑔𝑚𝑎 𝑎𝑣𝑒𝑟𝑎𝑔𝑒, 𝑖𝑓 𝑀 > 𝐾 𝑖𝑚𝑚𝑒𝑑𝑖𝑎𝑡𝑒 𝑛𝑒𝑖𝑔ℎ𝑏𝑜𝑢𝑟 𝑎𝑣𝑒𝑟𝑎𝑔𝑒, 𝑖𝑓 𝑀 ≤ 𝐾 } (2) where: �̂�𝑖,𝑗 = intensity of the pixel at (𝑖, 𝑗) image coordinate 𝑀 = the number of pixels within intensity range 𝐾 = the prespecified values 7. linear to decibel (db) conversion this step is to convert linear pixel value to decibel (db) format. it can be done by this equation: 𝑑𝐵 = 10 × log(𝐷𝑁) (3) where: 𝑑𝐵 = pixel value in decibel (db) format 𝐷𝑁 = original digital number of datasets in a linear format 8. low-pass image filtering the objective low-pass filter is to smooth the original image by decreasing the disparity between pixel values by averaging nearby pixels. in step, a low-pass filter with a 3x3 window size is employed. it is an array of ones divided by the number of elements within the kernel. in this case, it is 3 by 3 kernel: [ 1/9 1/9 1/9 1/9 1/9 1/9 1/9 1/9 1/9 ] the low-pass filter is achieved in the frequency domain by dropping out the highfrequency components. 9. geometric correction original sar image is projected into radar coordinate system (azimuth and range). in a gis system, the image geographical coordinate projection is required. the process to project an image from radar coordinate to the geographical coordinate system is called geocoding. geocoding is part of the geometric correction. the other process of geometric correction is called ortho-rectification. in this step, the digital elevation model of the studied area is required, and dem provided by srtm-1 is selected. 10. write raster data this is the final step of pre-processing for the sentinel-1 sar dataset. then, the product is saved in raster format and used for post-processing in the qgis application. b. pre-processing steps for alos-2 sar data using snap software 1. read sar data this step opens the alos-2 sar data in the snap application. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 178 2. image subset the process and explanation are the same as pre-processing in sentinel-1 sar data (point a. number 2). 3. radiometric calibration the process and explanation are the same as pre-processing in sentinel-1 sar data (point a. number 5). 4. speckle filtering the process and explanation are the same as pre-processing in sentinel-1 sar data (point a. number 6). 5. linear to decibel (db) conversion the process and explanation are the same as pre-processing in sentinel-1 sar data (point a. number 7). 6. low-pass filtering the process and explanation are the same as pre-processing in sentinel-1 sar data (point a. number 8). 7. geometric correction the process and explanation are the same as pre-processing in sentinel-1 sar data (point a. number 9). 8. write raster data this is the final step of pre-processing for the alos-2 sar dataset. then, the product is saved in raster format and used for post-processing in the qgis application. c. post-processing steps for sentinel-1 and alos-2 raster data using qgis software 1. read raster data this step reads the pre-processed raster data. 2. apply image thresholding this is the first step to exclude the pixel of the water surface. the threshold value can be defined from the histogram of the raster image after the low-pass filter is applied. this histogram is explained later. 3. edge detection an edge detection algorithm detects the pixel edge or border between the water surface and the ground surface. it produces an image with pixel values 0 and 255. simply speaking, 0 is a pixel of the water surface, and 255 is the pixel from the land surface. the result of edge detection is saved at 8-bit unsigned pixel dept. 4. create contour lines this step generates contour lines from an 8-bit unsigned image. the interval of the contour line is set at 255. it produces many contour lines, and the contour line of the coastline can be easily identified because it is located in the border of the water surface and land surface and connected along the coastal area. 5. delete non-coastline contour lines after the contour line of the coastline is identified, then the other contour lines are deleted. 6. write final coastline this is the final step of post-processing. the final product is a coastline in shapefile (.shp) file format. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 179 figure 1. processing steps in this proposed procedure 2.2. study area the study area is noheji, kamikita district, aomori prefecture, japan, as shown in figure 2. it is a coastal area located in the inland sea (mutsu bay). lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 180 figure 2. procedure location of the study area in noheji, kamikita district, aomori prefecture, japan 2.3. dataset this study uses sentinel-1 and alos-2 sar datasets. the sentinel-1 data can be downloaded free or at charge from the copernicus program website (https://scihub.copernicus.eu/dhus/#/home). alos-2 data cannot be downloaded for free. the user must purchase the dataset or apply a proposal to get the dataset for free for research usage. the information about the sar dataset is given in table 1. polarization means how the way of satellite transmits and receives the data. vertical-vertical (vv) means the satellite transmits electromagnetic waves in a vertical vector and receives the reflected electromagnetic waves in a vertical vector. vertical-horizontal (vh) means the satellite transmits electromagnetic waves in vertical vector and receives the reflected electromagnetic waves in horizontal vector. horizontalhorizontal (hh) means the satellite transmits electromagnetic waves in a horizontal vector and receives the reflected electromagnetic waves in a horizontal vector. sentinel-1 sar datasets (vv and vh) were taken at once on june 26, 2017, at 17:26 local time. alos-2 sar dataset was taken on june 27, 2017, at 23:31 local time. the observation time difference between sentinel-1 and alos-2 is only one day. the spatial resolution or the size of one pixel of the sentinel-1 sar dataset (vv and vh) is 10 x 10 meters, while alos-2 is 3 x 3 meters. it means alos-2 is three times higher resolution than the sentinel-1 sar dataset (vv and vh). table 1. sar dataset used in this study platform observation date resolution polarization sentinel-1 2017-06-26 at 17:26 local time 10 x 10 meters vv sentinel-1 2017-06-26 at 17:26 local time 10 x 10 meters vh alos-2 2017-06-27 at 23:31 local time 3 x 3 meters hh lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 181 3. results and discussion figure 3 shows the sar image before and after low-pass filtering for sentinel-1 vv polarization. both images did not show much difference visually. however, from the pixel value histogram, there are many improvements between before and after low-pass filtering. the histogram of the filtering image shows a more apparent distribution than the original image. it makes it easier to distinguish between pixels from the water surface and land surface. this filtered histogram is used to decide the threshold value in the image thresholding step. figure 3. application of low-pass filter to sentinel-1 vv: (a) before and (b) after the low-pass filter is applied. the x-axis is the pixel value (in db), and y-axis is the frequency of pixel value. the results of before and after low-pass filtering for sentinel-vh polarization are presented in figure 4. same as in figure 3, both images did not show much difference visually. from the pixel value histogram, there is much improvement between before and after low-pass filtering. compared with sentinel-1 vv polarization, sentinel-1 vh polarization shows a better histogram. it is because sentinel-1 vh has a smaller coefficient of variation (cv) of pixel value than sentinel1 vv. the coefficient of variation (cv) of the pixel value is one of the parameters to assess sar data polarization quality. cv can be calculated by: 𝐶𝑉 = 𝑠𝑡𝑎𝑛𝑑𝑎𝑟 𝑑𝑒𝑣𝑖𝑎𝑡𝑖𝑜𝑛 𝑜𝑓 𝑝𝑖𝑥𝑒𝑙 𝑣𝑎𝑙𝑢𝑒 𝑚𝑒𝑎𝑛 𝑜𝑓 𝑝𝑖𝑥𝑒𝑙 𝑣𝑎𝑙𝑢𝑒 (4) the smaller value of cv is better for coastline extraction. in this case, the cv value for sentinel1 vv and vh are 10,78 and 5,24, respectively. thus, the histogram of the filtered image of sentinel-1 vh polarization shows an obvious pixel value between water and land surfaces. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 182 figure 4. application of low-pass filter to sentinel-1 vh: (a) before and (b) after the low-pass filter is applied. the x-axis is the pixel value (in db), and y-axis is the frequency of pixel value. figure 5 shows alos-2 hh polarization results before and after low-pass filtering. alos-2 has 3 x 3 meters resolution and provides a detailed sar image (fig. 5). the histogram of alos-2 after low-pass filtering provides a similar pattern as sentinel-1 vh (fig. 4). it shows that alos-2 has a better result than sentinel-1 even though alos-2 only uses hh polarization. it is expected that this method can be tested to alos-2 hv polarization. figure 5. application of low-pass filter to alos-2 hh: (a) before and (b) after the low-pass filter is applied. the x-axis is the pixel value (in db), and y-axis is the frequency of pixel value. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 183 figures 3, 4, and 5 show different histogram patterns (after the low-pass filter is applied) for each dataset. it indicates the ability of each dataset to distinguish between the land surface and water surface. this ability depends on the polarization and resolution of the satellite dataset. the final coastlines of sentinel-1 vv, sentinel-1 vh, and alos-2 hh are shown in fig. 6. in general, alos-2 hh provides the best result among those sentinel-1 ones. the main reason is that the resolution of alos-2 is almost three times better than sentinel-1. however, alos-2 is not provided for free. it means not all users can try this method using the alos-2 dataset. furthermore, using sentinel-1 vh provides a better coastline than sentinel-1 vv. the coastline provided by alos-2 and sentinel-1 is slightly different. it is because the observation times between alos-2 and sentinel-1 are different. sentinel-1 took the data at 17:26 local time, while alos-2 took the data one day after at 23:31 local time. the possibility of a tidal effect is strong. this research focuses on explaining the proposed procedure, and the tidal correction is not applied, and it has become future work to improve the accuracy of detected coastline. figure 6. coastlines generated from sar data: (a) sentinel-1 vv, (b) sentinel-1 vh, (c) alos2 hh, and (d) overlaid of sentinel-1 vv-vh and alos-2 hh 4. conclusions and future works this research demonstrates the proposed procedure for extracting coastline from the sar dataset. the detail of the processing steps is explained. the proposed procedure is tested using sentinel-1 vv, sentinel-1 vh, and alos-2 hh sar datasets. the results show that a low-pass filtering algorithm can improve the histogram of each sar dataset. in general, alos-2 provides the best coastline among sentinel-1 ones. it is because alos-2 has three times better spatial resolution than sentinel-1. the coastline provided by alos-2 and sentinel-1 is slightly different. it is because the observation times between alos-2 and sentinel-1 are different. sentinel-1 took the data at 17:26 local time, and alos-2 took the data one day after at 23:31 local time. the possibility of a tidal effect is strong. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p04 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 184 for future work, it is recommended to conduct a deep analysis of the effect of the resolution of the satellite dataset on the final results of extracted coastline. it can be done by conducting a comparative study using several satellite datasets in different resolutions. in addition, it is a good chance to test this procedure with the alos-2 hv sar dataset. alos-2 hv sar dataset is expected to provide a better result than alos-2 hh. for a more advanced comparison between coastline provided by alos-2 and sentinel-1, it is better to apply digital shoreline analysis system (dsas) for those results. this time dsas is not applied because dsas is an add-on of arcgis software (commercial license). references [1] m. j. f. stive et al., "variability of shore and shoreline evolution," coastal engineering, vol. 47, pp. 211–235, 2002, [online]. available: www.elsevier.com/locate/coastaleng [2] g. anfuso, e. pranzini, and g. vitale, "an integrated approach to coastal erosion problems in northern tuscany (italy): littoral morphological evolution and cell distribution," geomorphology, vol. 129, no. 3–4, pp. 204–214, jun. 2011, doi: 10.1016/j.geomorph.2011.01.023. [3] r. m. sorensen, basic coastal engineering, third edit. springer science & business media, 2005. [4] t. a. łabuz, "environmental impacts—coastal erosion and coastline changes," pp. 381– 396, 2015, doi: 10.1007/978-3-319-16006-1_20. [5] a. spinosa, a. ziemba, a. saponieri, v. d. navarro-sanchez, l. damiani, and g. el serafy, "automatic extraction of shoreline from satellite images: a new approach," in 2018 ieee international workshop on metrology for the sea; learning to measure sea health parameters, metrosea 2018 proceedings, mar. 2019, pp. 33–38. doi: 10.1109/metrosea.2018.8657864. [6] i. sekovski, f. stecchi, f. mancini, and l. del rio, "image classification methods applied to shoreline extraction on very high-resolution multispectral imagery," international journal of remote sensing, vol. 35, no. 10, pp. 3556–3578, 2014, doi: 10.1080/01431161.2014.907939. [7] t. y. shyu, h. c. yeh, and c. c. liu, "mapping of a boundary line from remote sensing: an applied case study on little okinawa island," international journal of remote sensing, vol. 33, no. 23, pp. 7599–7608, 2012, doi: 10.1080/01431161.2012.685987. [8] l. c. chen and j. y. rau, "detection of shoreline changes for tideland areas using multitemporal satellite images," international journal of remote sensing, vol. 19, no. 17, pp. 3383–3397, 1998, doi: 10.1080/014311698214055. [9] f. s. kawakubo, r. g. morato, r. s. nader, and a. luchiari, "mapping changes in coastline geomorphic features using landsat tm and etm+ imagery: examples in southeastern brazil," international journal of remote sensing, vol. 32, no. 9, pp. 2547– 2562, 2011, doi: 10.1080/01431161003698419. [10] c. wang, j. zhang, and y. ma, "coastline interpretation from multispectral remote sensing images using an association rule algorithm," international journal of remote sensing, vol. 31, no. 24, pp. 6409–6423, 2010, doi: 10.1080/01431160903413739. [11] a. ahmed, f. drake, r. nawaz, and c. woulds, "where is the coast? monitoring coastal land dynamics in bangladesh: an integrated management approach using gis and remote sensing techniques," ocean and coastal management, vol. 151, no. july, pp. 10–24, 2018, doi: 10.1016/j.ocecoaman.2017.10.030. [12] o. a. dada, a. o. agbaje, r. b. adesina, and y. a. asiwaju-bello, "effect of coastal land use change on coastline dynamics along the nigerian transgressive mahin mud coast," ocean and coastal management, vol. 168, no. april 2018, pp. 251–264, 2019, doi: 10.1016/j.ocecoaman.2018.11.014. [13] s. patel, e. shah, p. jayaprasad, and m. e. james, "changes in antarctic coastline between 1997 and 2016 using radarsat and modis data," international journal of remote sensing, vol. 41, no. 4, pp. 1389–1414, feb. 2019, doi: 10.1080/01431161.2019.1667550. lontar komputer vol. 12, no. 3 december 2021 p-issn 2088-1541 doi : 10.24843/lkjiti.2021.v12.i03.p05 e-issn 2541-5832 accredited sinta 2 by ristekdikti decree no. 30/e/kpt/2018 185 [14] m. modava and g. akbarizadeh, "coastline extraction from sar images using spatial fuzzy clustering and the active contour method," international journal of remote sensing, vol. 38, no. 2, pp. 355–370, jan. 2017, doi: 10.1080/01431161.2016.1266104. [15] e. ferrentino, f. nunziata, and m. migliaccio, "full-polarimetric sar measurements for coastline extraction and coastal area classification," international journal of remote sensing, vol. 38, no. 23, pp. 7405–7421, dec. 2017, doi: 10.1080/01431161.2017.1376128. [16] x. ding and x. li, "shoreline movement monitoring based on sar images in shanghai, china," international journal of remote sensing, vol. 35, no. 11–12, pp. 3994–4008, 2014, doi: 10.1080/01431161.2014.916480. [17] y. ouyang, j. chong, and y. wu, "two coastline detection methods in synthetic aperture radar imagery based on level set algorithm," international journal of remote sensing, vol. 31, no. 17, pp. 4957–4968, 2010, doi: 10.1080/01431161.2010.485142. [18] s. zollini, m. alicandro, m. cuevas-gonzález, v. baiocchi, d. dominici, and p. m. buscema, "shoreline extraction based on an active connection matrix (acm) image enhancement strategy," journal of marine science and engineering, vol. 8, no. 1, 2020, doi: 10.3390/jmse8010009. [19] c. dai, i. m. howat, e. larour, and e. husby, "coastline extraction from repeat high resolution satellite imagery," remote sensing of environment, vol. 229, no. april, pp. 260– 270, 2019, doi: 10.1016/j.rse.2019.04.010. [20] r. gens, "remote sensing of coastlines: detection, extraction and monitoring," international journal of remote sensing, vol. 31, no. 7. taylor and francis ltd., pp. 1819– 1836, 2010. doi: 10.1080/01431160902926673. [21] r. pelich, m. chini, r. hostache, p. matgen, and c. lopez-martinez, "coastline detection based on sentinel-1 time series for shipand flood-monitoring applications," ieee geoscience and remote sensing letters, pp. 1–5, 2020, doi: 10.1109/lgrs.2020.3008011. [22] m. schmitt, g. baier, and x. x. zhu, "potential of nonlocally filtered pursuit monostatic tandem-x data for coastline detection," isprs journal of photogrammetry and remote sensing, vol. 148, no. july 2018, pp. 130–141, 2019, doi: 10.1016/j.isprsjprs.2018.12.007. verifikasi biometrika suara menggunakan metode mfcc dan dtw lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              8    verifikasi biometrika suara menggunakan metode mfcc dan dtw darma putra1 , adi resmawan2 1staff pengajar teknologi informasi, fakultas teknik, universitas udayana 2alumni teknik elektro, fakultas teknik, universitas udayana email : duglaire@yahoo.com1, adiresmawan@yahoo.com2 abstrak teknologi pengenalan suara merupakan salah satu teknologi biometrika yang tidak memerlukan biaya besar serta peralatan khusus. suara merupakan salah satu dari bagian tubuh manusia yang unik dan dapat dibedakan dengan mudah. aplikasi yang dibuat dalam penelitian ini adalah sistem verifikasi suara yang dapat memverifikasi/membuktikan identitas yang di klaim oleh seseorang berdasarkan suara yang di-input-kan. perangkat lunak ini dirancang menggunakan metode mfcc (mel frequency cepstrum coefficients) untuk proses ekstraksi ciri dari sinyal wicara dan metode dtw (dynamic time warping) untuk proses pencocokan. proses mfcc akan mengkonversikan sinyal suara menjadi beberapa vektor yang berguna untuk proses pengenalan. vector ciri hasil dari proses mfcc selanjutnya akan dibandingkan dengan vector ciri yang tersimpan dalam basis data melalui proses dtw berdasarkan id yang di klaim oleh pengguna. bahasa pemrograman yang digunakan dalam merancang perangkat lunak ini adalah visual c# 2008. pengujian dilakukan terhadap 35 orang pengguna yang terdiri dari 27 orang laki-laki dan 8 orang perempuan. masing-masing orang mengucapkan 5 buah kata yang telah ditentukan sebelumnya, dimana untuk masing-masing kata diucapkan sebanyak 7 kali. enam buah sampel dijadikan sebagai acuan dan 1 sebagai sampel uji. hasil pengujian memperlihatkan tingkat akurasi paling rendah adalah 59.664 %, sedangkan tingkat akurasi tertinggi yaitu 93.254 %. baik buruknya sistem dalam melakukan pengenalan dipengaruhi oleh panjang frame, panjang overlapping, jumlah koefisien fileterbank, dan jumlah koefisien mfcc. kata kunci : pengenalan suara, mfcc, dtw, filterbank, verifikasi suara. abstract voice recognition technology is one of the biometrics technology that does not require great expense and special equipment. voice is one of human body parts that unique and easily distinguishable. application made in this research is a voice verification system that can authenticate the identity of the a person based on his/her voice. the software is designed using mfcc (mel frequency cepstrum coefficients) for the process of feature extraction from speech signals and method of dtw (dynamic time warping) for the matching process. mfcc process convert the voice signal into a useful vector for the recognition. vector features result from the process compared with the mfcc feature vector stored in the database through the dynamic time warping process based on id claims by the user. the programming language used in designing this software is visual c# 2008. test conducted on 35 people consisting of 27 men and 8 women. each person say 5 predetermined words, where each word is spoken 7 times. six samples is used as reference and one as a test sample. test results show the lowest accuracy rate was 59,664%, while the highest level of accuracy was 93,254%. the result of this recognition system is affected by the length of the frame, overlapping length, the number of coefficients fileterbank, and the number of mfcc coefficients. key words: speech recognition, mfcc, dtw, filterbank, voice verification. 1. pendahuluan perkembangan teknologi terutama dalam bidang komputer saat ini melaju sangat pesat. hal tersebut dipicu oleh perkembangan ilmu pengetahuan disertai kebutuhan manusia akan teknologi canggih yang dapat mempermudah pekerjaan. salah satu teknologi dibidang komputer yang banyak diteliti saat ini adalah teknologi biometrika. teknologi biometrika merupakan suatu teknik pengenalan diri menggunakan bagian tubuh atau perilaku manusia. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              9    teknologi ini mememuhi dua fungsi penting yaitu identifikasi dan verifikasi. sistem identifikasi bertujuan untuk memecahkan identitas seseorang. sedangkan sistem verifikasi bertujuan untuk menolak atau menerima identitas yang diklaim oleh seseorang. kebutuhan akan sistem keamanan yang tangguh merupakan salah satu faktor penting kenapa teknologi biometrika terus dikembangkan. sistem keamanan lama yaitu dengan menggunakan password saat ini sudah banyak kelemahannya. disamping itu banyak orang hanya menggunakan satu password untuk segala hal, mulai dari e-mail, penggunaan kartu atm, sampai menjadi keanggotaan mailing list. kelemahan penggunaan password tersebut dapat diatasi dengan menggunakan teknologi pengenalan suara (syah, 2009). teknologi pengenalan suara (speaker recognition) merupakan salah satu teknologi biometrika yang tidak memerlukan biaya besar serta peralatan khusus. pada dasarnya setiap manusia memiliki sesuatu yang unik/khas yang hanya dimiliki oleh dirinya sendiri. suara merupakan salah satu dari bagian tubuh manusia yang unik dan dapat dibedakan dengan mudah. disamping itu, sistem biometrika suara memiliki karakteristik seperti, tidak dapat lupa, tidak mudah hilang, dan tidak mudah untuk dipalsukan karena keberadaannya melekat pada diri manusia sehingga keunikannya lebih terjamin (syah, 2009). dari permasalahan diatas, dalam penelitian ini akan dibahas mengenai bagaimana merancang dan membuat suatu perangkat lunak yang dapat melakukan verifikasi terhadap seorang pembicara dengan menggunakan metode mfcc sebagai ekstraksi ciri dan dtw untuk proses pencocokan. 2. konsep dasar pengenalan suara pengenalan suara dapat dikategorikan menjadi 3 bagian, yaitu : speech recognition, speaker recognition, dan language recognition. dalam penelitian ini hanya khusus membahas mengenai speaker recognition lebih spesifiknya lagi membahas tentang speaker verification. speaker recognition adalah suatu proses yang bertujuan mengenali siapa yang sedang berbicara berdasarkan informasi yang terkandung dalam gelombang suara yang di-input-kan. speaker recognition dibagi menjadi 2 bagian, yaitu : speaker verification dan speaker identification. speaker verification adalah proses verifikasi seorang pembicara, dimana sebelumnya telah diketahui identitas pembicara tersebut berdasarkan data yang telah diinputkan. speaker verification melakukan perbandingan one to one (1:1). dalam arti bahwa fitur-fitur suara dari seorang pembicara dibandingkan secara langsung dengan firur-fitur seorang pembicara tertentu yang ada dalam sistem. bila hasil perbandingan (skor) tersebut lebih kecil atau sama dengan batasan tertentu (treshold), maka pembicara tersebut diterima, bila tidak maka akan ditolak (dengan asumsi semakin kecil skor berarti kedua sampel semakin mirip). gambar dibawah adalah blok diagram dari speaker verification. gambar 1 blok diagram speaker verification (darma putra, 2009) speaker identification adalah proses mendapatkan identitas dari seorang pembicara dengan membandingkan fitur-fitur suara yang diinputkan dengan semua fitur-fitur dari setiap pembicara yang ada dalam database. berbeda dengan pada speaker verification, proses ini melakukan perbandingan one to many (1:n). 3. feature ekstraksi dengan metode mfcc mfcc (mel frequency cepstrum coefficients) merupakan salah satu medode yang banyak digunakan dalam bidang speech technology, baik speaker recognition maupun speech recognition. metode ini digunakan untuk melakukan feature extraction, sebuah proses yang lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              10    mengkonversikan signal suara menjadi beberapa parameter. beberapa keunggulan dari metode ini adalah (manunggal, 2005) : a. mampu untuk menangkap karakteristik suara yang sangat penting bagi pengenalan suara, atau dengan kata lain dapat menangkap informasi-informasi penting yang terkandung dalam signal suara. b. menghasilkan data seminimal mungkin, tanpa menghilangkan informasi-informasi penting yang dikandungnya. c. mereplikasi organ pendengaran manusia dalam melakukan persepsi terhadap signal suara. mfcc feature extraction sebenarnya merupakan adaptasi dari sistem pendengaran manusia, dimana signal suara akan difilter secara linear untuk frekuensi rendah (dibawah 1000 hz) dan secara logaritmik untuk frekuensi tinggi (diatas 1000 hz). gambar dibawah ini merupakan block diagram untuk mfcc. gambar 2 blok diagram untuk mfcc 3.1. konversi analog menjadi digital signal – signal yang natural pada umumnya seperti signal suara merupakan signal continue dimana memiliki nilai yang tidak terbatas. sedangkan pada komputer, semua signal yang dapat diproses oleh komputer hanyalah signal discrete atau sering dikenal sebagai istilah digital signal. agar signal natural dapat diproses oleh komputer, maka harus diubah terlebih dahulu dari data signal continue menjadi discrete. hal itu dapat dilakukan melalui 3 proses, diantaranya adalah proses sampling data, proses kuantisasi, dan proses pengkodean. proses sampling adalah suatu proses untuk mengambil data signal continue untuk setiap periode tertentu. dalam melakukan proses sampling data, berlaku aturan nyquist, yaitu bahwa frekuensi sampling (sampling rate) minimal harus 2 kali lebih tinggi dari frekuensi maksimum yang akan di sampling. jika signal sampling kurang dari 2 kali frekuensi maksimum signal yang akan di sampling, maka akan timbul efek aliasing. aliasing adalah suatu efek dimana signal yang dihasilkan memiliki frekuensi yang berbeda dengan signal aslinya. proses kuantisasi adalah proses untuk membulatkan nilai data ke dalam bilanganbilangan tertentu yang telah ditentukan terlebih dahulu. semakin banyak level yang dipakai maka semakin akurat pula data signal yang disimpan tetapi akan menghasilkan ukuran data besar dan proses yang lama. proses pengkodean adalah proses pemberian kode untuk tiap-tiap data signal yang telah terkuantisasi berdasarkan level yang ditempati. gambar 3 proses pembentukan signal digital. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              11    3.2. dc-removal remove dc components bertujuan untuk menghitung rata-rata dari data sampel suara, dan mengurangkan nilai setiap sampel suara dengan nilai rata-rata tersebut. tujuannya adalah mendapat normalisasi dari data suara input. y[n] = x[n] , 0 ≤ n ≤ n-1 dimana : y[n] = sampel signal hasil proses dc removal x[n]= sampel signal asli = nilai rata-rata sampel signal asli. n = panjang signal 3.3. pre – emphasize filetering pre – emphasize filetering merupakan salah satu jenis filter yang sering digunakan sebelum sebuah signal diproses lebih lanjut. filter ini mempertahankan frekuensi-frekuensi tinggi pada sebuah spektrum, yang umumnya tereliminasi pada saat proses produksi suara. tujuan dari pre – emphasize filetering ini adalah (manunggal, 2005) : a. mengurangi noise ratio pada signal, sehingga dapat meningkatkan kualitas signal. b. menyeimbangkan spektrum dari voiced sound. pada saat memproduksi voiced sound, glottis manusia menghasilkan sekitar -12 db octave slope. namun ketika energy akustik tersebut dikeluarkan melalui bibir, terjadi peningkatan sebesar +6. sehingga signal yang terekam oleh microphone adalah sekitar -6 db octave slope. dampak dari efek ini dapat dilihat pada gambar dibawah ini. gambar 4 contoh dari pre-emphasize pada sebuah frame pada gambar diatas terlihat bahwa distribusi energi pada setiap frekuensi terlihat lebih seimbang setelah diimplementasikan pre-emphasize filter. bentuk yang paling umum digunakan dalam pre-emphasize filter adalah sebagai berikut : y[n] = s[n] – α s[n 1] , 0.9 ≤ α ≤ 1.0 dimana : y[n] = signal hasil pre-emphasize filter s[n] = signal sebelum pre-emphasize filter 3.4. frame blocking karena signal suara terus mangalami perubahan akibat adanya pergeseran artikulasi dari organ produksi vocal, signal harus diproses secara short segments (short frame). panjang frame yang biasanya digunakan untuk pemrosesan signal adalah antara 10-30 milidetik. panjang frame yang digunakan sangat mempengaruhi keberhasilan dalam analisa spektral. di satu sisi, ukuran dari frame harus sepanjang mungkin untuk dapat menunjukkan resolusi frekuensi yang baik. tetapi di lain sisi, ukuran frame juga harus cukup pendek untuk dapat menunjukkan resolusi waktu yang baik. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              12    gambar 5 short term spectral analysis (manunggal, 2005) proses frame ini dilakukan terus sampai seluruh signal dapat diproses. selain itu, proses ini umumnya dilakukan secara overlapping untuk setiap framenya. panjang daerah overlap yang umum digunakan adalah kurang lebih 30% sampai 50% dari panjang frame. overlapping dilakukan untuk menghindari hilangnya ciri atau karakteristik suara pada perbatasan perpotongan setiap frame. 3.5. windowing proses framing dapat menyebabkan terjadinya kebocoran spektral (spectral leakage) atau aliasing. aliasing adalah signal baru dimana memiliki frekuensi yang berbeda dengan signal aslinya. efek ini dapat terjadi karena rendahnya jumlah sampling rate, ataupun karena proses frame blocking dimana menyebabkan signal menjadi discontinue. untuk mengurangi kemungkinan terjadinya kebocoran spektral, maka hasil dari proses framing harus melewati proses window. sebuah fungsi window yang baik harus menyempit pada bagian main lobe dan melebar pada bagian side lobe-nya. berikut ini adalah representasi dari fungsi window terhadap signal suara yang diinputkan. n= 0,1,…,n-1 = nilai sampel signal hasil windowing = nilai sampel dari frame signal ke i = fungsi window n = frame size, merupakan kelipatan 2 ada banyak fungsi window, namun yang paling sering digunakan dalam aplikasi speaker recognition adalah hamming window. fungsi window ini menghasilkan sidelobe level yang tidak terlalu tinggi (kurang lebih -43 db), selain itu noise yang dihasilkan pun tidak terlalu besar. fungsi hamming window adalah sebagai berikut : dimana : n = 0,1,...,m-1 m = panjang frame 3.6. analisis fourier analisis fourier adalah sebuah metode yang memungkinkan untuk melakukan analisa terhadap spectral properties dari signal yang diinputkan. representasi dari spectral properties sering disebut sebagai spectrogram. dalam spectrogram terdapat hubungan yang sangat erat antara waktu dan frekuensi. hubungan antara frekuensi dan waktu adalah hubungan berbanding terbalik. bila resolusi waktu yang digunakan tinggi, maka resolusi frekuensi yang dihasilkan akan semakin rendah. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              13    3.6.1. discrete fourier transform (dft) dft merupakan perluasan dari transformasi fourier yang berlaku untuk signal-signal diskrit dengan panjang yang terhingga. semua signal periodik terbentuk dari gabungan signalsignal sinusoidal yang menjadi satu yang dapat dirumuskan sebagai berikut : n = jumlah sampel yang akan diproses (n n) s(n) = nilai sampel signal k = variable frekuensi discrete, dimana akan bernilai (k = ) dengan rumus diatas, suatu signal suara dalam domain waktu dapat kita cari frekuensi pembentuknya. hal inilah tujuan penggunaan analisa fourier pada data suara, yaitu untuk merubah data dari domain waktu menjadi data spektrum di domain frekuensi. untuk pemrosesan signal suara, hal ini sangatlah menguntungkan karena data pada domain frekuensi dapat diproses dengan lebih mudah dibandingkan data pada domain waktu, karena pada domain frekuensi, keras lemahnya suara tidak seberapa berpengaruh. untuk mendapatkan spektrum dari sebuah signal dengan dft diperlukan n buah sampel data berurutan pada domain waktu, yaitu x[m] sampai x[m+n-1]. data tersebut dimasukkan dalam fungsi dft maka akan menghasilkan n buah data. namun karena hasil dari dft adalah simetris, maka hanya n/2 data yang diambil sebagai spektrum. 3.6.2. fast fourier transform (fft) perhitungan dft secara langsung dalam komputerisasi dapat menyebabkan proses perhitungan yang sangat lama. hal itu disebabkan karena dengan dft, dibutuhkan perkalian bilangan kompleks. karena itu dibutuhkan cara lain untuk menghitung dft dengan cepat. hal itu dapat dilakukan dengan menggunakan algoritma fast fourier transform (fft) dimana fft menghilangkan proses perhitungan yang kembar dalam dft. 3.7. mel frequency wrapping mel frequency wrapping umumnya dilakukan dengan menggunakan filterbank. filterbank adalah salah satu bentuk dari filter yang dilakukan dengan tujuan untuk mengetahui ukuran energi dari frequency band tertentu dalam signal suara. filterbank dapat diterapkan baik pada domain waktu maupun pada domain frekuensi, tetapi untuk keperluan mfcc, filterbank harus diterapkan dalam domain frekuensi. filterbank menggunakan representasi konvolusi dalam melakukan filter terhadap signal. konvolusi dapat dilakukan dengan melakukan multiplikasi antara spektrum signal dengan koefisien filterbank. berikut ini adalah rumus yang digunakan dalam perhitungan filterbanks. n = jumlah magnitude spectrum (n n) s[j] = magnitude spectrum pada frekuensi j hi[j] = koefisien filterbank pada frekuensi j (1 ≤ i ≤ m ) m = jumlah channel dalam filterbank persepsi manusia terhadap frekuensi dari signal suara tidak mengikuti linear scale. frekuensi yang sebenarnya (dalam hz) dalam sebuah signal akan diukur manusia secara subyektif dengan menggunakan mel scale. mel frequency scale adalah linear frekuensi scale pada frekuensi dibawah 1000 hz, dan merupakan logarithmic scale pada frekuensi diatas 1000 hz. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              14    3.8. discrete cosine transform (dct) dct merupakan langkah terakhir dari proses utama mfcc feature extraction. konsep dasar dari dct adalah mendekorelasikan mel spectrum sehingga menghasilkan representasi yang baik dari property spektral local. pada dasarnya konsep dari dct sama dengan inverse fourier transform. namun hasil dari dct mendekati pca (principle component analysis). pca adalah metode static klasik yang digunakan secara luas dalam analisa data dan kompresi. hal inilah yang menyebabkan seringkali dct menggantikan inverse fourier transform dalam proses mfcc feature extraction. berikut adalah formula yang digunakan untuk menghitung dct. sk = keluaran dari proses filterbank pada index k k = jumlah koefisien yang diharapkan koefisien ke nol dari dct pada umumya akan dihilangkan, walaupun sebenarnya mengindikasikan energi dari frame signal tersebut. hal ini dilakukan karena, berdasarkan penelitian-penelitian yang pernah dilakukan, koefisien ke nol ini tidak reliable terhadap speaker recognition. 3.9. cepstral liftering hasil dari proses utama mfcc feature extraction memiliki beberapa kelemahan. low order dari cepstral coefficients sangat sensitif terhadap spectral slope, sedangkan bagian high ordernya sangat sensitif terhadap noise. oleh karena itu, cepstral liftering menjadi salah satu standar teknik yang diterapkan untuk meminimalisasi sensitifitas tersebut. cepstral liftering dapat dilakukan dengan mengimplementasikan fungsi window terhadap cepstral features. l = jumlah cepstral coefficients n = index dari cepstral coefficients cepstral liftering menghaluskan spektrum hasil dari main processor sehingga dapat digunakan lebih baik untuk pattern matching. 4. pencocokan dengan metode dtw (dynamic time warping) satu masalah yang cukup rumit dalam speech recognition (pengenalan wicara) adalah proses perekaman yang terjadi seringkali berbeda durasinya, biarpun kata atau kalimat yang diucapkan sama. bahkan untuk satu suku kata yang sama atau vocal yang sama seringkali proses perekaman terjadi dalam durasi yang berbeda. sebagai akibatnya proses matching antara sinyal uji dengan sinyal referensi (template) seringkali tidak menghasilkan nilai yang optimal. sebuah teknik yang cukup popular di awal perkembangan teknologi pengolahan sinyal wicara adalah dengan memanfaatkan sebuah teknik dynamic-programming yang juga lebih dikenal sebagai dynamic time warping (dtw). teknik ini ditujukan untuk mengakomodasi perbedaan waktu antara proses perekaman saat pengujian dengan yang tersedia pada template sinyal referensi. prinsip dasarnya adalah dengan memberikan sebuah rentang 'steps' dalam ruang (dalam hal ini sebuah frame-frame waktu dalam sample, frame-frame waktu dalam template) dan digunakan untuk mempertemukan lintasan yang menunjukkan local match terbesar (kemiripan) antara time frame yang lurus. total `similarity cost' yang diperoleh dengan algorithm ini merupakan sebuah indikasi seberapa bagus sample dan template ini memiliki kesamaan, yang selanjutnya akan dipilih best-matching template. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              15    dtw (dynamictime warping) adalah metode untuk menghitung jarak antara dua data time series. keunggulan dtw dari metode jarak yang lainnya adalah mampu menghitung jarak dari dua vektor data dengan panjang berbeda. jarak dtw diantara dua vektor dihitung dari jalur pembengkokkan optimal (optimal warping path) dari kedua vektor tersebut. ilustrasi pencocokan dengan metode dtw ditunjukkan pada gambar dibawah ini. (a) (b) gambar 6 pencocokan sequence (a) alignment asli dari 2 sequence (b) alignment dengan dtw (darma putra, 2009). dari beberapa teknik yang digunakan untuk menghitung dtw, salah satu yang paling handal adalah dengan metode pemrograman dinamis. jarak dtw dapat dihitung dengan rumus: ),(),( nmvud γ= ⎪ ⎩ ⎪ ⎨ ⎧ − −− − += )1,( )1,1( ),1( min),(),( ji ji ji vudnm jibase γ γ γ γ 5. hasil pengujian pengujian terhadap aplikasi yg telah dibuat dilakukan dengan mencari rasio kesalahan pencocokan yang menyatakan probabilitas terjadinya kesalahan pencocokan pada sistem. terdapat 2 jenis rasio kesalahan pencocokan, yaitu: rasio kesalahan kecocokan (false match rate) dan rasio kesalahan ketidakcocokan (false non match rate). 1. rasio kesalahan kecocokan false match rate (fmr) menyatakan probabilitas sampel dari pengguna cocok dengan acuan yang diambil secara acak milik pengguna yang berbeda. false match rate disebut juga false positive. rasio kesalahan kecocokan dihitung dengan rumus: 2. rasio kesalahan ketidakcocokan false non match rate (fnmr) menyatakan probabilitas sampel dari pengguna tidak cocok dengan acuan lain yang diberikan pengguna yang sama. false non match rate disebut juga false negative. rasio kesalahan ketidakcocokan dihitung dengan rumus: 3. nilai ambang (thresold value) nilai ambang, yang sering dilambangkan dengan t, memegang peranan penting dalam memutuskan terjadinya kesalahan dalam pencocokan. nilai fmr/fnmr tergantung pada besarnya nilai ambang yang digunakan. nilai t akan dibandingkan dengan skor hasil dan bila memenuhi kondisi skor ≤ t, maka pengguna dinyatakan sah, bila tidak, maka pengguna dinyatakan tidak sah (dengan asumsi semakin kecil skor, kedua data yang dibandingkan semakin mirip). pengujian pada penelitian ini dilakukan dengan jumlah pengguna 35 orang yang terbagi menjadi 210 sampel acuan dan 35 sampel uji sehingga total pencocokan yang dilakukan adalah 7350. enam sampel dari masing-masing pengguna akan dijadikan sebagai sampel acuan atau reference dan satu sampel untuk pengujian. ada beberapa pengujian yang dilakukan dalam penelitian ini, diantaranya adalah : pengujian terhadap suku kata yang diucapkan(satu, dua, tiga, empat dan lima) lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              16    pengujian terhadap jumlah sampel acuan yang digunakan (1, 3 dan 6 sampel acuan) pengujian terhadap jumlah pengguna (10,20 dan 35 pengguna) pengujian terhadap jumlah koefisien mfcc yang digunakan (11, 15, 19 dan 23 koefisien mfcc) pengujian terhadap panjang frame (n) dan panjang pergeseran frame (m) yang digunakan (n=20, m=10 dan n=30, m=15) 5.1. analisa hasil pengujian terhadap suku kata yang diucapkan hasil pengujian sistem verifikasi suara terhadap suku kata yang diucapkan dapat ditampilkan dalam bentuk grafik perbandingan akurasi berikut ini : gambar 7 grafik perbandingan akurasi sistem berdasarkan suku kata yang diucapkan hasil pengujian menggunakan 10 orang pengguna, 30 sampel acuan, 10 sampel uji dan 15 koefisien mfcc didapatkan nilai akurasi tertinggi sebesar 87.778 % pada pengucapan kata ‘tiga’. nilai akurasi paling rendah adalah 66.667 % pada kata ‘empat’. rata-rata akurasi yang diperoleh adalah 76.888 %. tingkat keberhasilan sistem dalam melakukan verifikasi terhadap pengguna dapat dikatakan merata yaitu dari 66.667 % sampai 87.778 % dengan kata lain tidak terdapat hasil yang terlalu rendah. dalam pengujian ini sistem dapat dikatakan berhasil dalam melakukan verifikasi terhadap pengguna. 5.2. analisa hasil pengujian terhadap jumlah sampel acuan hasil pengujian sistem verifikasi suara terhadap jumlah sampel acuan yang digunakan dapat ditampilkan dalam bentuk grafik perbandingan akurasi berikut ini : gambar 8 grafik perbandingan akurasi sistem berdasarkan jumlah sampel acuan rata-rata akurasi sistem saat menggunakan 1 sampel acuan adalah 65.555 %, 76.888 % saat menggunakan 3 buah sampel acuan dan 78.444 % saat ditambahkan 3 sampel acuan lagi. rata-rata akurasinya meningkat seiring dengan penambahan sampel acuan yang dilakukan. namun ada juga yang mengalami sedikit penurunan seperti terlihat pada grafik diatas yaitu pada kata ‘dua’, ‘empat’, dan ‘lima’. hal tersebut hanya terjadi pada beberapa pengguna saja karena perekaman dilakukan pada lingkungan yang dipengaruhi oleh noise. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              17    melalui grafik diatas dapat ditarik suatu kesimpulan yaitu : semakin banyak suara yang ditrainingkan oleh pengguna maka semakin meningkat pula kemampuan sistem dalam melakukan pengenalan terhadap pengguna. namun semakin banyak sampel yang ditrainingkan (sampel acuan) maka semakin lama juga waktu yang diperlukan untuk melakukan pengenalan. berikut ini adalah grafik pengaruh jumlah sampel acuan terhadap waktu : gambar 9 grafik pengaruh jumlah sampel acuan terhadap waktu melalui grafik diatas dapat ditarik satu kesimpulan yaitu semakin banyak sampel acuan yang dipakai maka semakin meningkat waktu yang diperlukan untuk pemrosesan. 5.3. analisa hasil pengujian terhadap jumlah pengguna hasil pengujian sistem verifikasi suara terhadap jumlah pengguna yang terdapat dalam basis data dapat ditampilkan dalam bentuk grafik perbandingan akurasi berikut ini : gambar 10 grafik perbandingan akurasi sistem berdasarkan jumlah pengguna rata-rata akurasi yang diperoleh ketika digunakan 10 orang pengguna sebesar 78.444 %. setelah ditambahkan 10 pengguna rata-rata akurasi menjadi 76.579 %. akurasinya berkurang sebesar 1.865 %, kemudia ditambahkan 15 pengguna lagi sehingga totalnya menjadi 35 orang pengguna, rata-rata akurasi yang diperoleh adalah sebesar 76.067 %. rata-rata akurasi yang diperoleh relatif sama ketika jumlah pengguna ditambahkan, terdapat sedikit penurunan akurasi pada beberapa kata yang diujikan, namum ada juga yang meningkat seperti terlihat pada grafik diatas. hal tersebut wajar karena semakin banyak pengguna maka semakin banyak juga pencocokan yang dilakukan oleh sistem. sehingga semakin banyak pula kemungkinan kesalahan sistem dalam melakukan pengenalan. disamping itu kualitas dari sampel suara yang diujikan juga tidak sama (pengaruh noise dari lingkungan) karena proses perekaman tidak dilakukan pada satu tempat yang sama. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              18    berikut ini adalah grafik pengaruh jumlah pengguna terhadap waktu : gambar 11 grafik pengaruh jumlah pengguna terhadap waktu melalui grafik diatas dapat dilihat bahwa semakin banyak pengguna yang terdaftar dalam basis data, maka semakin lama waktu proses yang diperlukan. hal tersebut terjadi karena saat pengujian, sistem melakukan perbandingan 1 : n, dimana setiap sampel uji dibandingkan dengan seluruh sampel acuan yang ada dalam basis data. namun dalam penggunaannya, sistem verifikasi ini melakukan perbandingan 1 : 1, dimana sistem hanya akan melakukan perbandingan terhadap id yang diklaim oleh user saja. sehingga penambahan jumlah pengguna tidak akan berpengaruh terhadap waktu pemrosesan yang diperlukan oleh sistem. 5.4. analisa hasil pengujian terhadap jumlah koefisien mfcc hasil pengujian sistem verifikasi suara terhadap jumlah koefisien mfcc yang digunakan dapat ditampilkan dalam bentuk grafik perbandingan akurasi berikut ini : 0 50 100 su cc es s  r at e( % ) words 11 koefisien  mfcc 15 koefisien  mfcc 19 koefisien  mfcc 23 koefisien  mfcc gambar 12 grafik perbandingan akurasi sistem berdasarkan jumlah koefisien mfcc rata-rata akurasi yang diperoleh dengan pengujian menggunakan 11, 15, 19, dan 23 koefisien mfcc secara berurutan adalah sebesar : 73.260 %, 76.067 %, 78.6052, 80.3864 %. dari hasil tersebut dapat disimpulkan yaitu semakin besar jumlah koefisien mfcc yang digunakan maka semakin baik kemampuan sistem dalam melakukan pengenalan terhadap pengguna begitu juga sebaliknya, semakin kecil jumlah koefisien mfcc yang digunakan maka semakin kecil tingkat akurasi sistem dalam melakukan pengenalan. namun, semakin banyak jumlah koefisien mfcc yang digunakan, maka waktu yang diperlukan dalam proses pengenalan juga semakin lama, begitu juga sebaliknya. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              19    berikut ini adalah grafik pengaruh jumlah koefisien mfcc terhadap waktu : gambar 13 grafik pengaruh jumlah kofisien mfcc terhadap waktu sumbu y pada grafik diatas menyatakan waktu (menit) dan sumbu x menyatakan jumlah koefisien mfcc yang digunakan. berdasarkan grafik tersebut dapat disimpulkan bahwa semakin besar jumlah koefisien mfcc yang digunakan, maka semakin besar juga waktu yang diperlukan untuk melakukan pemrosesan. peningkatan jumlah koefisien mfcc menyebabkan semakin banyak pula perhitungan dan looping yang dilakukan oleh sistem sehingga meningkatkan waktu pemrosesan. 5.5. analisa hasil pengujian terhadap panjang frame (n) dan panjang pergeseran frame(m) hasil pengujian sistem verifikasi suara terhadap panjang frame dan panjang pergeserannya dapat ditampilkan dalam bentuk grafik perbandingan akurasi berikut ini : gambar 14 grafik perbandingan akurasi sistem berdasarkan panjang frame dan panjang pergeseran frame hasil pengujian dengan n=20, m=10 dan 23 koefisien mfcc didapatkan rata-rata akurasi sebesar 80.3864 %, setelah panjang frame dan pergeserannya dirubah menjadi n=30, m=15 dan koefisien mfcc tetap 23 didapatkan rata-rata akurasi sebesar 87.7946 %, meningkat sebesar 7.4082 %. untuk pengujian terakhir penulis mencoba menambah jumlah koefisien mfcc menjadi 25 koefisien sedangkan parameter yang lain tetap sama dan didapatkan rata-rata akurasi sebesar 88.508 %. berdasarkan hasil pengujian tersebut diketahui bahwa dengan menggunakan n=30 ms dan m=15 ms kinerja sistem verifikasi lebih baik dibandingkan saat menggunakan n=20 ms dan m=10 ms dimana keduanya menggunakan frekuensi sampling sebesar 12800 hz. berikut ini adalah grafik pengaruh panjang frame dan panjang pergeseran frame terhadap waktu : lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              20    gambar 15 grafik pengaruh jumlah panjang frame dan pergeseran frame terhadap waktu grafik diatas menunjukkan bahwa semakin besar panjang frame yang digunakan, maka semakin kecil waktu pemrosesan yang diperlukan oleh sistem. hal tersebut disebabkan oleh semakin sedikitnya proses perhitungan dan looping yang dilakukan oleh sistem. 6. penutup 6.1. kesimpulan berdasarkan uraian pembahasan dan analisa hasil dapat disimpulkan beberapa hal sebagai berikut: 1. metode mel frequency cepstrums coefficients adalah metode yang baik untuk ekstraksi fitur dalam pengenalan suara. 2. semakin banyak training yang dilakukan oleh setiap pengguna, semakin baik pula kemampuan sistem dalam melakukan pengenalan. 3. metode dynamic time warping dapat digunakan untuk membandingkan dua buah fitur suara hasil dari proses mfcc. 4. nilai-nilai parameter mfcc yang digunakan sangat mempengaruhi baik buruknya hasil dari proses mfcc itu sendiri, sehingga berpengaruh terhadap tingkat kesuksesan saat pencocokan. 5. hal-hal yang dapat mempengaruhi baik buruknya kinerja sistem verifikasi suara yang dibuat adalah panjang frame(n), panjang pergeseran frame(m), jumlah koefisien filterbank dan jumlah koefisien mfcc. 6. pada penelitian ini, hasil terbaik yang diberikan oleh sistem adalah pada saat digunakan nilai-nilai parameter mfcc sebagai berikut : n=30 ms, m=15 ms, 33 koefisien filterbank dan 25 koefisien mfcc. pengujian dilakukan terhadap kata satu, dua, tiga, empat, lima dengan 36 orang pengguna, 6 buah sampel acuan dan 1 buah sampel uji untuk masing-masing kata, diperoleh rata-rata akurasi sebesar 88.508 %. 7. sisterm verifikasi suara memperlihatkan hasil yang buruk saat nilai-nilai parameter mfcc yang digunakan adalah n=20 ms, m=10 ms, 23 koefisien filterbank, 11 koefisien mfcc dilakukan terhadap 35 orang pengguna, 210 sampel acuan, 35 sampel uji terhadap kata satu, dua, tiga, empat dan lima didapatkan rata-rata akurasi sebesar 73.260 %. 7. daftar pustaka [1] campbell, j. 1997. speaker recognition : a tutorial.___. ieee. [2] darma putra. 2009. sistem biometrika. konsep dasar, teknik analisis citra, dan tahapan membangun aplikasi sistem biometrika. yogyakarta : andi. [3] goananta wangsa, anak agung gede. 2008. tugas akhir: sistem identifikasi telapak tangan dengan menggunakan metode alihragam fourier. bukit jimbaran: universitas udayana. [4] hartanto, b. 2008. memahami visual c#.net secara mudah. yogyakarta : andi. [5] kartikasari,ye. 2006. pembuatan software pembuka program aplikasi komputer berbasis pengenalan suara. surabaya. politeknik elektronika negeri surabaya. [6] manunggal, hs. 2005. perancangan dan pembuatan perangkat lunak pengenalan suara pembicara dengan menggunakan analisa mfcc feature extraction. surabaya : universitas kristen petra. lontar komputer vol. 2 no.1 juni 2011 issn: 2088-1541 www.it.unud.ac.id  verifikasi biometrika suara menggunakan (darma putra, adi resmawan)                              21    [7] morton, jeff. 2009.http://www.codeproject.com/kb/audiovideo/soundcatcher/ soundcatcher_source.zip. akses tanggal : 20 april 2009. [8] shannon, bj., paliwal,kk. 2003. a comparative study of filter bank spacing for speech recognition. ___. microelectronic engineering research conference. [9] sitanggang, d., sumardi., hidayatno, a. 2002. pengenalan vokal bahasa indonesia dengan jaringan syaraf tiruan melalui transformasi fourier. semarang. jurusan teknik elektro undip. [10] syah, dpa. 2009. sistem biometriks absensi karyawan dalam menunjang efektifitas kinerja perusahaan. http://donupermana.wordpress.com/ makalah/sistem-biometrikabsensi/. akses tanggal : 23 pebruari 2010. [11] xafopoulos, a. 2001. speaker verification(an overview). greece. aristotle university of thessaloniki. [12] ___. 2009. about eer. http://www.bioid.com/sdk /docs/about_eer.htm. akses tanggal : 15 febuari 2009. [13] ___. 2009. http://msdn.microsoft.com/enus/library/aa446573(loband).aspx#wavei nout_topic_004/. akses tanggal : 05 desember 2009. 2011-08-11t14:41:02+0800 lontar komputer lontar template lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p02 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 132 design of web virtual reality for job interview preparation simulation pius dian widi anggoroa1 ainformatics department, stmik akakom yogyakarta, indonesia 1piusanggoro@akakom.ac.id (corresponding author) abstract the implementation of virtual reality (vr) in education is a breakthrough in using technology to support the teaching-learning system. this study will provide more knowledge about the use of vr in english classes. students can practice answering interview questions in their own place, as often as they need. students also can practice answering interview questions. this research is use vr technology in a web platform for job interview simulation cases. in the early stages, the evaluation to review the use of vr technology that running on low-specification smartphones (low-cost device), which require a lower internet connection. the webvr and react 360 libraries were used to develop the virtual environments and javascript for the language. the web speech api was used to convert the test into conversations by taking questions from the web service on the moodle learning platform that was connected to postgresql. the first test methods were the web application performance, then followed by alpha testing, a validation test by media and material experts. than it continued in beta testing where a product test by 15 english class students participants. the data collection technique used a questionnaire that has to be answered by the participants. the validity and reliability tests were carried out for product usage test. the results obtained from the assessment of media experts and participant provide an assessment score of 83.10 from the experts and 77.58 from the users. the average score obtained is 80.34 which is included in the feasible category. therefore, this learning media is ready to be used to support learning in english class. keywords: english class, job interviews, low device, software testing, webvr. 1. introduction the virtual reality (vr) system developed is known to have a game simulation product, and when used, user interaction will be like in real-life situations. although several manufacturers later made special head-mounted display (hmd) vr at a high price and still need a desktop computer (pc), it becomes popular [1]. currently, there are also vr headsets that are made specifically with software that can run on smartphone systems that have a smaller size and do not require additional hardware. one of the contributions of mobile vr has been created by google with cardboard shown in figure 1, and daydream [2], this simple mobile vr device supports most smartphones in today's market. the price reduction and the increased availability of the device have opened up more vr opportunities for the wider field. for example, it is included in the engineering education and training field. vr has been implemented as a promising learning tool for both formal and informal learning contexts in various educational activities [3] [4]. it is also reported that the use of immersive vr applications can provide a virtual environment to simulate challenges in teaching and thus act as a pedagogical tool for collaborative teaching/training [5]. another common use is science learning in laboratories, in which the students perform experiments that are supposed to be dangerous or expensive, yet now can be overcome by the use of vr. for example, high school students can mix several chemicals to observe their effects safely in a virtual environment [6]. a 360-degree youtube video channel, which is widely available and can be used for vr support in education, where learners can walk through a virtual environment to a place or to see artifacts from historical times and observe how buildings and areas have changed over the years year [7]. in figure 2, the teachers take their students on a virtual field trip using 360-degree videos to lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p02 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 133 immerse them in a diverse and informative environment while learning english at the same time [8]. vr video content can help students in building connections between the concepts that they learn and their influence on the world [9]. figure 1. google cardboard vr version 2 figure 2. the use of vr for historical site exploration. in the field of language education, vr has been used to make students having a tour in a particular place, such as an airport [10], or engaging in location-based games by walking around the city to find clues related to a story [11]. cheng et al. [12] state that one of the english course objectives discusses the knowledge use of language vocabulary in the conversation field. one of its topics is about the preparation in the working field; job interviews. melnik [13] identifies what prospective employees are looking for, knows what can be offered to the employers, able to prepare and promote themselves well as the most suitable people for the needs [14]. although the use of animated robots that can simulate conversations has been studied [15], there are still some obstacles in dealing with the large file size (above 200mb) to be downloaded and installed [16]. this problem becomes the research background in achieving the goal of vr function in the education field; so, the students become more enthusiastic in learning and improving their lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p02 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 134 speaking skills by using smartphone devices that have limited internet connections. however, more interesting experiments need to be done to say that vr will be widely used at the university level for language education. the use of mobile vr, which is run on a set of cellular technologies, has been long recognized as a potential tool in learning [17]. referring to the list [18] for studying and applying it in the field of language education with the challenge of using cellular service fees. first, the discussion on the portability benefits to support learning, which is not tied to one place and setting that can be arranged between formal and informal [19]. second, in terms of mobile technology, it benefits to facilitate social interaction, which enables collaborative learning. the benefits of using vr for training to become a second language in discussions in the language field have also been improved [20], referring to [21]. third, mobile vr offers context-sensitivity; for example, it can adapt to the user's location. it means that it can display content based on the language used in the user's location, which potentially will be able to make things easier in creating opportunities for location-based learning [22]. furthermore, devices integrated with the mobile vr system offer connectivity and access to various resources, such as information, teachers, and other learners, which have proven in providing and supporting learning experiences [23]. how students can practice as often as they like in virtual interview scenarios, ensuring that they are ready and confident for future interviews, is the challenge for application content in vr to overcome. the content in the vr application ensures students will be better prepared, as well as the interview questions that have been asked in the job interview. they will only have one chance to impress the interviewer in real-life, so it takes a lot of practice dealing with the job interview environment. the combination of online english classes and a virtual reality platform will be able to improve their interviewing skills in a conditioned environment and learn how to communicate effectively. this study combines online classes with a vr system for a learning approach. students are going to practice what they have learned in english classes in the vr application of job interview simulation. some technical problems often arise during the application development process, but eliminating the difficulties that occur will be able to reduce costs, simplify the development process, and increase optimization and usability in calculating the correct perspective [24]. as a result, the application product will be more attractive and user friendly. the possibility of achieving such simplicity is found in the idea of providing vr content in a web platform via a browser by implementing a new api called web-vr [25]. in improving english learning in the job interview training case study, web-based vr technology is implemented. this research scope is the vr system used will be integrated into a smartphone device based on a web platform, with the help of low-cost hmd equipment cardboard vr version 2. to reduce running file size, the mobile vr application is developed by using features from the a-frame reference for webvr and web speech api for its speech generation. it is hoped that the evaluation results of this study will be able to give a contribution to finding the potential pedagogical benefits of the web-based mobile vr application use in a small size file in learning english; to simulate conversations during job interviews. this paper analysed the effectiveness of conducting job interviews in a vr environment and then examines possible deployments using a browser installed on a smartphone. the web-based job interview simulation is designed to evaluate whether virtual reality job interview simulations can help improve skills and abilities to use english in conversation. in particular, the qualitative data will provide valuable insights into how participants would perceive barriers to implementing virtual reality job interview simulations. 2. research methods the general architecture of the vr system used to develop the job interview application is shown in figure 3. the first focus of this research is on the development of the webvr application, which is then evaluated by the user through a questionnaire, and later, the data obtained is then analyzed. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p02 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 135 2.1. initial observation stage the user's scope in this study is the english class higher education students at yogyakarta. to provide a research overview on the use of vr to work in language classes, initial activities are needed in the form of observations for content development based on the topic in language learning, the steps in classroom learning must be ensured that they can be implemented in the application. it details some rules that need to be created and the procedures that need to be followed, including the devices and applications used. it is also possible to introduce some technical terms that may be unfamiliar to the users. figure 3. vr job interview simulation schematic system. 2.2. technology development stage there are several options for implementing a web-based vr application, but javascript (js) is the main programming language to be implemented in this study. the js reference used by three.js and babylon.js is made to create computer graphics and 3d animations. additional frameworks, namely a-frame and react 360, which are specialized in browser-based vr, are also optimized to create a vr environment that is suitable for real-world job interview environments. the virtual environment is designed for users with little experience (less than one year) in using hmd vr devices so that the virtual environment is created with a few 3d objects as possible. in the web vr platform, these 3d objects are defined in html as document object model (dom) elements. figure 4 shows that the 3d object is a dom when inspected in the browser. the software which will be used is node.js version 12.15.0. this software is chosen due to some reasons. they are: (1) free and open-source code, (2) support for javascript-oriented network applications that must (3) be accessible for many users at the same time (scaled). (4) the use of a v8 virtual machine as the current standard browser and (5) allows it to be developed on servers with the https protocol, without the need to set up a web server, such as nginx or apache. in general, node.js is a low-level environment that allows server-side execution of javascript files. the most important advantage of this method is that it allows synchronous or real-time communication in its implementation on the application for the voice data acquisition feature spoken by the user. the socket.io reference is used to make it easier to implement real-time synchronization via websocket, especially when running the media stream recording feature added in the application to record voice conversations during vr-based job interview simulations. lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p02 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 136 to simplify the integration of the vr interview simulation application with the english online class, the questions are taken from the moodle web service (restful api), a learning platform, which is already available, which uses the postgresql database. question data are obtained in the form of json, which is shown in figure 5, as the response for the request to the moodle web service in english class. next, the json format is then parsed to become a text array. figure 4. 3d content inspection during application development figure 5. json format for web service response results the web speech api has been provided by the mozilla developer network (mdn), is used to be easily implemented with javascript, and provides speech recognition and speech synthesis functions. conversation detection that is captured by the microphone on the user's smartphone is carried out by the speech recognition function, while the speech synthesis, which changes the json parsed text file, is provided by the speech-synthesis-utterance object. another function is the speech-synthesis-voice object, which stores the speech information used to execute the speech synthesis function. the result of this stage is an application prototype, in which the participants can adjust the learning environment in the implementation process. applications with vr interview simulation content can be run on a smartphone browser and with a cheap hmd cardboard vr. the participants are given the experience in using cardboard vr and the ability to have interact with its content, while the time limit for using it is not set to enhance the experience. the use of chatbot-like technology to receive customers' questions and answers [26] has been provided for participants to interact with the vr environment to make the results during the evaluation process are not only based on lontar komputer vol. 11, no. 3 december 2020 p-issn 2088-1541 doi : 10.24843/lkjiti.2020.v11.i03.p02 e-issn 2541-5832 accredited b by ristekdikti decree no. 51/e/kpt/2017 137 a one-time question model. also, chairs are needed to enhance the participant's experience in virtual job interviews; therefore, the participants can use the movement capabilities by using hmd cardboard vr. 2.3. learning implementation in the research process, content that includes three-dimensional visual elements and conversational audio for learning english which is related to job interviews, will be presented. in this context, the participants can obtain information in a virtual environment by having interaction through gaze interactions in virtual environment. the participants can answer questions from interviewing bots via smartphone devices, and the time limit is not applied to the participants while they are learning the job interview simulation process. questionnaire filling in the form of google form has been provided, and the participants who have completed a job interview simulation activity are asked to fill it in. 2.4. data analysis the testing procedure in this study is alpha testing; validation testing by media experts, validation testing by material experts, then testing instrument items in the form of instrument item validity testing and instrument reliability testing, and finally beta testing; product usage testing by the participants. data collection techniques use a questionnaire. the questionnaire is used for data collection by giving a set of questions to be answered to the participants by using the educational research methods reference [27], which refers to [28]. the questionnaire that is applied is a closed questionnaire model or the one in which the options are provided to be chosen by the participants. the validity test is carried out on each question item. the result of r count is compared with r table where df = n-2 with sig 5%, if r table