License Plate Recognition dan Beberapa Manfaatnya

No comments yet

Hampir semua teknologi di masa sekarang tidak lepas dari facial recognition, khususnya pada sektor keamanan. Baik itu syarat untuk membuka ponsel ataupun untuk konfirmasi data diri seperti di layanan keuangan.

Secara garis besar, facial recognition telah dibahas pada artikel sebelumnya, yaitu pemanfaatan potret wajah manusia dalam proses identifikasi menggunakan teknologiNamun, bagaimana jika bentuk format yang sama dilakukan untuk identifikasi angka atau nomor pada kendaraan? Inilah yang dinamakan License Plate Recognition.

Definisi

Konsep License Plate Recognition mirip dengan facial recognition; Perbedaannya adalah jika facial recognition mendeteksi potret wajah, LPR mendeteksi angka dan huruf pada kendaraan. 

LPR mampu menangkap foto atau video dari pelat nomor kendaraan dan mengubah data optik atau visual tersebut menjadi informasi digital.

Teknologi ini umumnya digunakan dalam pelacakan kendaraan, pencegahan kejahatan, layanan keamanan dan parkir, penghitungan dan kontrol lalu lintas, biaya tol elektronik dan lain lain.

Machine Learning dan License Plate Recognition

Seperti yang telah diketahui, License Plate Recognition bekerja dengan cara mendeteksi angka dan huruf pada suatu medium seperti foto dan video. Namun, nomor pelat kendaraan mempunyai variasi berbeda-beda dari segi bentuk huruf dan juga angkanya. Oleh karena itu, ia membutuhkan Machine Learning dalam hal pengenalan, diagnosis, dan sebagainya untuk bisa berfungsi secara optimal.

Algoritma dari License Plate Recognition perlu diasah dan terus dilatih. Ini bertujuan untuk menjaga akurasi dan mengenali angka dan huruf dari desain pelat nomor yang berbeda-beda. Contoh ketika algoritma mesin harus bisa membedakan huruf “O” dan angka “0” pada pelat nomor “KT 3802 OX” misalnya.

Ada berbagai metode proses LPR, salah satunya dikutip dari Survision Group, sebuah perusahaan asal amerika serikat yang bergerak dibidang LPR, seperti:

Localisation

Dalam proses ini, mesin mendeteksi posisi nomor pelat pada kendaraan berdasarkan video atau foto

Segmentation

Setelah mesin menemukan posisi pelat nomor, ia mulai mengenali pelat nomor kendaraan dengan cara memisahkan masing masing karakter untuk diidentifikasi.

Identification

Proses identifikasi karakter dimulai setelah karakter dipisah dengan menganalisis pola huruf atau angka yang ada.

Regionalisation 

Pada tahap ini, mesin berusaha memvalidasi kembali hasil identifikasi pada pelat nomor untuk menghilangkan ambiguitas. Misalnya “0” dan “O”, “J” dan “7”, “B” dan “8”, “I” dan “1” dan seterusnya. 

Pelat nomor mempunyai banyak keragaman seperti bentuk font, warna dasar, ukuran dan lainnya, oleh karena itu semakin banyak variasi data yang diperlukan oleh algoritma mesin LPR. Mesin ini perlu untuk selalu diasah dan dilatih, supaya LPR dapat terus meningkatkan akurasi mesin dalam proses identifikasi dan regionalisasi.

Penggunaan LPR 

Secara umum teknologi License Plate Recognition sangat membantu pada sektor keamanan. Ia mampu meringankan pekerjaan aparat penegak hukum dalam upaya penyelidikan dan penyelesaian kasus yang melibatkan kendaraan.

Dengan bantuan CCTV pada persimpangan lampu merah dan jalan raya misalnya, pihak kepolisian dapat dengan mudah melacak keberadaan kendaraan yang dicuri, atau menemukan pelaku kriminal dengan melacak kendaraan yang digunakan oleh si pelaku dari video lalu lintas jalanan.

Namun tidak hanya itu, LPR juga bisa digunakan untuk mengontrol jalanan lalu lintas dengan mengatur jumlah kendaraan di jalan raya

Di sisi swasta, beberapa tempat yang menggunakan teknologi LPR dalam sistem “smart parking” tidak lagi memerlukan sistem tiket pada pintu masuk karena pelat nomor kendaraan sudah dikenali oleh mesin parkir

Kesimpulan

Teknologi License Plate Recognition menggunakan Machine Learning dalam proses mendeteksi pelat nomor kendaraan. Tidak hanya mendukung dari sisi keamanan, LPR juga dapat mempermudah sistem pengenalan pelat nomor untuk akses parkir, sistem otomatis jalan tol, dan manajemen lalu lintas lainnya. 

 

Penulis: Nawridho Alfismartienez Dirwan

Editor: M. Wahyu Hidayat

Apa Itu Computer Vision?

No comments yet

Artificial Intelligence dan segala produk turunannya berkembang semakin pesat. Mulai dari Machine Learning, Natural Language Programming, Internet-of-Things, sampai dengan Computer Vision. Factsheet Valiance kali ini akan mengulas computer vision sebagai aplikasi teknologi AI .

Definisi

Secara umum, Computer Vision adalah sistem yang menggabungkan penggunaan kamera, komputasi, perangkat lunak, dan Machine Learning sehingga membentuk suatu sistem yang dapat melihat dan mengidentifikasi objek.

Teknologi ini bekerja dengan memasukan input dari Perangkat kamera digital, seperti kamera CCTV ataupun kamera yang terdapat dalam gawai. Input tersebut berupa gambar maupun video yang akan diproses oleh sistem Computer Vision. Nantinya, gambar atau video tersebut akan diproses melalui tahapan komputasi baik melalui edge maupun cloud.

Komputasi yang digunakan oleh computer vision dilakukan dengan memroses data input dengan menggunakan algoritma tertentu. Dengan begitu, computer vision mencoba mereplikasi human vision yang mana kamera dan algoritma komputasi meniru fungsi mata dan pikiran manusia.

Cara Kerja

Secara sederhana, Factsheet ini mengambil contoh bagaimana Computer Vision bekerja untuk mengidentifikasi pemain di lapangan sepak bola melalui beberapa langkah:

Gambar atau data visual

Seperti kita ketahui bersama, gambar atau data visual lainnya disimpan dalam bentuk jejaring matriks yang masing-masing tersimpan dalam bentuk pixel. Pixel tersebut merupakan kombinasi warna dari warna-warna primer RGB (Red, Green, dan Blue). Misalnya, sebuah lapangan sepak bola sebagian besar terdiri dari warna hijau sedangkan pemain sepak bola memakai seragam sepak bola dengan warna tertentu. Berikut adalah penjelasan teknis mengenai gambar sebagai pixel

Melatih Algoritma

Data Scientist melatih algoritma Computer Vision untuk dapat mengidentifikasi suatu pola tertentu yang merupakan representasi pola objek yang akan diidentifikasi. Misalnya, algoritma tertentu perlu dilatih secara berulang-ulang dengan data yang cukup banyak untuk mengingat warna seragam dan warna kulit pemain sepak bola.

Kasus Riil

Algoritma Computer Vision yang telah dilatih kemudian diaplikasikan pada kasus riil untuk melihat apakah identifikasi pemain di lapangan sepak bola sudah sudah cukup berhasil dilakukan oleh Computer Vision.

Ragam dan Contoh Penggunaan

Saat ini Computer Vision telah diaplikasikan pada berbagai sektor, mulai dari facial recognition sampai dengan hal yang lebih kompleks seperti mengidentifikasi secara langsung sebuah benda atau makhluk hidup yang telah terekam oleh AI.

Salah satu contoh yang lebih kompleks dapat dilihat pada penggunaan Computer Vision di industri pertanian. Di beberapa negara, industri pertanian telah mengadopsi teknologi Computer Vision untuk mendeteksi penyakit maupun menentukan kualitas panen dari tanaman hanya dari warnanya saja.

Tidak hanya industri pertanian, industri keamanan pun juga telah lama merasakan manfaat dari penggunaan Computer Vision. Computer Vision telah dimanfaatkan untuk identifikasi wajah manusia, kerumunan manusia, serta pergerakan tubuh manusia.

Di industri manufaktur, beberapa perusahaan telah memakai teknologi Computer Vision untuk memeriksa kualitas hasil produksi.

Penutup

Computer vision telah menghasilkan luaran yang sangat bermanfaat bagi kehidupan manusia. Pada berbagai industri, penerapan Computer vision membantu manusia mengidentifikasi objek secara repetitif dan ringan. 

Kegunaan Computer Vision juga masih terus berkembang. Salah satu pengembangan State of the Art Computer Vision di Amerika Serikat misalnya, adalah identifikasi sel kanker paru-paru. Namun demikian, perlu diketahui bahwa tidak semua projek Computer Vision berujung pada keberhasilan. Perlu iterasi yang cukup panjang dan dukungan tim yang mumpuni agar project Computer Vision dapat berhasil.

 

Penulis: Marvine Viano

Editor: Sigit Suryo, Ghifari Adam

Mengenal Cara Kerja Facial Recognition

No comments yet

Sebagian besar kita sudah tidak asing lagi dengan istilah Facial Recognition atau Pengenalan Wajah beserta kegunaannya sehari-hari. Misalnya Face ID di iPhone yang digunakan untuk membuka layar ponsel, log in ke dalam aplikasi, hingga verifikasi ketika melakukan pembayaran. Sesimpel dengan menunjukkan wajah, proses terkait akan cepat terselesaikan. Sama halnya dengan fitur Trusted Face di Android

Kegunaan praktis Facial Recognition telah diadopsi luas dalam kurun satu dekade terakhir, terlebih di dunia informasi dan komputer. Namun, apa kalian tahu apa yang dimaksud dengan Facial Recognition sendiri?

Secara garis besar, Facial Recognition merupakan teknologi yang memanfaatkan potret wajah manusia dalam proses identifikasi. Teknologi ini mampu mendeteksi wajah baik di dalam foto, video, maupun pantauan real-time. Kemampuan Facial Recognition dalam mendeteksi wajah didukung oleh penggunaan biometrik andal memetakan wajah. Termasuk biometrik lain yaitu voice recognition, fingerprint recognition, hingga iris recognition. Saat ini, institusi keamanan dan hukum seperti kepolisian dan pengadilan menggunakan Face Recognition untuk secara luas menunjang penuntasan kasus kriminal.

Bagaimana Facial Recognition bekerja?

Selayaknya kita sebagai manusia yang bisa mengenali wajah orang lain karena sering bertemu, sehingga mampu mengenali seperti apa rupa wajah si A, B, atau C, maka teknologi Facial Recognition juga melakukan hal serupa. Adalah machine learning sistem yang bekerja selaku otaknya komputer. Berikut gambaran umum bagaimana sesungguhnya facial recognition bekerja:

Langkah Pertama

Hal pertama yang dilakukan oleh machine learning disebut dengan proses deteksi (detection). Langkah ini ialah mencari wajah pada suatu foto. Pada tahap ini machine learning hanya berupaya mendeteksi ada tidaknya wajah.

Langkah Kedua

Selanjutnya, machine learning memproses hasil wajah yang teridentifikasi ke dalam proses yang dinamakan analisis. Pada tahap ini, sistem mulai menghitung jarak antara mata, bentuk hidung, rupa pipi, hingga jarak antara hidung dengan mulut. Kemudian, hasilnya dikonversi ke dalam perhitungan matematis yang disebut sebagai faceprint. Hasil dari proses ini adalah tanda wajah yang kita miliki.

Langkah Ketiga

Di tahap terakhir yang disebut dengan pengenalan (recognition), di mana sistem mengonfirmasi identitas wajah seseorang dalam foto serta menandainya. Proses ini dikenal juga sebagai verifikasi akhir. Lebih lanjut, sistem juga membandingkan hasil verifikasinya dengan data yang dimiliki untuk memeriksa kecocokannya. Setelah itu, wajah kita selesai dan telah terdaftar dalam sistem.

Kegunaan Face Recognition

Hari ini, banyak bidang profesional yang menggunakan face recognition untuk membantu pekerjaan supaya lebih mudah. Hal ini didukung oleh akurasinya yang tinggi hingga 99.97% kecocokan, berdasarkan penelitian yang dilakukan oleh National Institute of Standards and Technology. Bahkan tes serupa yang dilakukan oleh Center for Strategic & International Studies (CSI) menunjukkan angka galat dari satu algoritma hanya 0.1% pada kondisi bagus dan 9.3% galat ketika ditangkap oleh kamera publik. 

Siapa yang menggunakan dan apa kegunaan Facial Recognition? Berikut beberapa di antaranya:

Bisnis ritel

Pelaku usaha ritel memanfaatkan teknologi Facial Recognition untuk memetakan pelanggan dengan preferensi produk yang mereka beli.

Kepolisian

Para penegak hukum menggunakan untuk mencari buron atau pelaku kriminal. Melalui foto yang dimiliki, mereka akan tertangkap lebih cepat. Misal saja hampir 1.500 teroris, penjahat, buronan, orang yang berkepentingan atau orang hilang telah diidentifikasi sejak peluncuran sistem face recognition oleh INTERPOL pada akhir 2016.

Produk smartphone

Seperti Apple dengan Face ID dan Android dengan Trusted Face.

 

Penulis: Muhammad Alif Alauddin

Editor: M. Wahyu Hidayat

 

Kelebihan Topic Classification untuk Analisis Data Tekstual

No comments yet

Sejak Natural Language Processing mengalami perkembangan signifikan, persoalan seputar analisis teks turut mengemuka. Salah satu jenis analisis teks yang mempelajari bagaimana teks dapat dikategorikan ke dalam label atau kelas tertentu adalah Topic Classification

Topic Classification memiliki jangkauan penerapan yang luas, antara lain meliputi Deteksi Spam, Analisis Sentimen, Kategorisasi Berita, dan lain sebagainya. Teks yang dianalisis bisa datang dari berbagai sumber. Misalnya situs web, email, chat, media sosial, klaim asuransi, atau ulasan pengguna pada suatu aplikasi. 

Kendati teks sangat kaya akan informasi, menggali informasi yang tepat boleh jadi memakan waktu lama karena sifat teks pada dasarnya tidak terstruktur. Diperkirakan pada tahun 2025 setidaknya 80% data di seluruh dunia adalah data tidak terstruktur.

Sebelum era Machine Learning, Topic Classification dilakukan secara manual, yakni dengan mengklasifikasikan teks ke dalam kategori-kategori berbeda yang telah ditentukan sebelumnya. Selain memakan waktu lama, akurasi klasifikasi secara manual relatif rendah karena bisa dipengaruhi oleh faktor-faktor subjektif manusia, seperti bias, kapabilitas, atau bahkan kelelahan.

Barulah setelah Machine Learning berkembang, Topic Classification dapat dilakukan secara otomatis dan lebih efisien karena algoritma Machine Learning mampu mempelajari keterkaitan antara teks dan label berdasarkan kumpulan data latih yang ada sebelumnya.

Pembahasan

Karena hampir semua data yang ada mengandung teks, Topic Classification dapat diaplikasikan di berbagai bidang, seperti menandai (tagging) kategori pada lokapasar eCommerce, blog, atau situs berita; mengautomatisasi alur kerja Customer Relationship Management (CRM); atau digunakan pada konten situs web untuk meningkatkan SEO.

Ada empat fase yang harus ditempuh dalam Topic Classification untuk mendapat hasil sesuai ekspektasi, yaitu: feature extraction, dimension reductions, classification techniques, dan evaluation.

Feature extraction 

Pada fase ini, teks tak terstruktur diubah menjadi teks terstruktur menggunakan model matematis.

Dimensionality reductions

Karena teks sering kali mengandung banyak kata unik, sehingga pemrosesan memerlukan banyak waktu dan kapasitas memori, maka digunakan dimensionality reductions untuk meringankan beban tersebut.

Classification techniques 

Ada beberapa teknik klasifikasi yang dapat digunakan sesuai kebutuhan dengan kelebihan serta kekurangannya masing-masing, seperti Logistic Regression, Naïve Bayes, Support Vector Machine, atau Deep Learning.

Evaluation

Pada fase akhir ini, kinerja topic classification akan ditinjau ulang menggunakan model evaluasi, seperti Receiver Operating Characteristics.

Jika Anda adalah seorang pebisnis atau baru merintis bisnis, topic classification menggunakan machine learning sangat dapat sangat berguna. Dari sejumlah kelebihan yang bisa Anda dapatkan, setidaknya ada tiga yang utama, yakni:

Jangkauan

Machine learning memungkinkan analisis teks berskala besar dalam hitungan menit dengan lebih akurat ketimbang analisis secara manual. Jangkauan yang besar atas teks yang berasal dari berbagai sumber ini cocok untuk bisnis skala kecil maupun besar.

Analisis real-time

Ada kalanya Anda harus berhadapan dengan situasi mendesak di mana dibutuhkan pengambilan keputusan yang cepat. Machine learning dapat membantu Anda dalam mengambil keputusan tersebut karena analisisnya dilakukan secara real-time.

Konsistensi

Tanpa campur tangan manusia sepenuhnya, Machine Learning meminimalisasi kesalahan yang disebabkan oleh faktor-faktor manusia, seperti kelelahan atau distraksi. Tidak demikian dengan Machine Learning yang dapat terus beroperasi secara konsisten, sehingga memungkinkan akurasi sesuai dengan ekspektasi.

Meskipun Topic Classification dengan menggunakan Machine Learning tidak mungkin bisa mencapai hasil sempurna, pembaruan dan perbaikan terus dilakukan untuk mencapai hasil maksimal, atau setidaknya sesuai dengan apa yang diinginkan. 

Penutup

Topic Classification menggunakan Machine Learning sangat memudahkan kerja analisis teks yang sebelumnya dilakukan secara manual. Dalam kaitannya dengan proses bisnis, Topic Classification juga meminimalisasi faktor-faktor subjektif manusia yang dapat menurunkan tingkat akurasi klasifikasi.

Penulis: Arlandy Ghifari

Editor: M. Wahyu Hidayat

Bagaimana Cara Kerja Text-to-Speech?

No comments yet

Fitur text-to-speech sudah tidak asing lagi bagi pengguna ponsel pintar. Mungkin selama ini kita tidak menyadari kalau kita sering atau pernah menggunakannya. Semisal ketika kebingungan bagaimana mengucapkan kata dalam bahasa asing, kita menggunakan aplikasi penerjemah sambil menekan ikon pengeras suara yang melafalkan kata tersebut dengan benar. Seperti itu contoh kecil kehadiran fitur Text-to-Speech sehari-hari yang tanpa sadar kita gunakan.

Namun, apakah kamu tahu apa yang dimaksud dengan text-to-speech itu sendiri? Apa saja kegunaannya? Bagaimana cara ia bekerja hingga mampu menyampaikan ujaran selayaknya manusia? Simak tulisan berikut.

Text-to-speech (TTS) merupakan salah satu teknologi asistif yang mampu membaca tulisan dan mengubahnya menjadi suara. Teknologi ini diciptakan dengan tujuan mempermudah manusia apabila ingin memahami suatu teks dengan hanya mendengarkan.

Selain itu, TTS juga termasuk teknologi speech synthesis, yaitu ia menghasilkan suara sintesis yang mirip dengan suara manusia karena teknologi ini menggunakan machine learning. Algoritma machine learning membuatnya bisa berbicara menyerupai manusia dengan jenis suara laki-laki atau perempuan, aksen bahasa, jeda, dan intonasi.

Penasaran, bagaimana teknologi ini bekerja sedemikian hebat? Berikut penjelasan lengkapnya.

Cara Kerja

Untuk dapat mengubah teks menjadi suara, Text-to-Speech yang merupakan produk dari machine learning setidaknya melewati beberapa fase, antara lain:

Mengubah teks menjadi kata-kata

Dalam fase pertama ini, machine learning harus mengubah seluruh teks yang disediakan ke dalam kata-kata yang baku. Selama proses ini, machine learning turut mengubah konten yang bukan kata seperti angka, simbol, singkatan, dsb. Setelah diubah, proses berlanjut dengan pembagian ke dalam frase-frase berbeda. Selama proses ini, machine learning akan mencocokan dengan intonasi kata per kata.

Melengkapi transkripsi

Setelah fase pertama di atas, machine learning mengelaborasi kamus bawaan sebagai rujukan untuk mengoreksi pengucapan dan intonasi. 

Tak hanya itu, selanjutnya sistem menghitung seberapa banyak fragmen per 25 milidetik di dalam teks. Proses ini disebut dengan pemrosesan fonem atau phoneme processing. Fonem merupakan unit minimal dari bunyi suatu bahasa. Selama proses ini, sistem mengidentifikasi setiap kata melalui unit yang beragam, kemudian dirangkum dengan penyusunan intonasi utuh menggunakan data dari tiap kata dan kalimat yang fonemnya telah diidentifikasi.

Mengonversi hasil teks ke dalam suara

Tahap akhir dari proses Text-to-Speech ialah membaca hasil analisis teks melalui model akustik. Pada tahap ini, sistem membentuk korelasi antara fonem di dalam kalimat dengan suara yang cocok dan diakhiri dengan pemberian intonasi. Akhirnya, sistem menggunakan pembangkit gelombang (wave generator) untuk menciptakan suara yang mendekati suara manusia.

Manfaat Penggunaan Text-to-Speech

Dalam dunia professional, TTS telah digunakan dalam beberapa hal yang mana antara lain sebagai:

Membantu kegiatan belajar mengajar selama proses e-learning

Dalam situasi pandemi COVID-19 materi pembelajaran banyak yang disuguhkan dalam bentuk online yang tak jarang mengadopsi Text-to-Speech.

Memungkinan kita melakukan beberapa pekerjaan sekaligus 

Melalui Text-to-Speech yang mampu membaca dengan suara segala teks seperti berita, dokumen, artikel sehingga kita dapat melakukan aktivitas lain sambil mendengarkannya.

Membantu mereka yang memiliki kebutuhan khusus dalam memahami teks

Orang berkebutuhan khusus seperti tunanetra tetap bisa mengakses smartphone dengan fitur Text-to-Speech seperti yang disediakan.

 

Penulis: Muhammad Ihsan

Editor: M. Wahyu Hidayat

Jenis-Jenis Machine Translation

No comments yet

Permintaan dan pertumbuhan pasar industri penerjemahan terus meningkat dalam satu dekade belakangan. Hal ini terutama didorong oleh kebutuhan komunikasi dan pertukaran informasi antarnegara yang semakin meluas. 

Pekerjaan penerjemahan seperti pada dokumen perusahaan, pedoman instalasi, dokumen hukum, buku teks, hingga situs web merupakan tugas repetitif yang membutuhkan konsistensi dan akurasi. 

Pada perkembangannya, para penerjemah profesional semakin kesulitan memenuhi arus permintaan yang terus naik. Dalam situasi inilah Machine Translation (MT) atau penerjemahan mesin muncul untuk memenuhi kebutuhan tersebut. 

Definisi

Machine Translation adalah proses penerjemahan bahasa sumber ke bahasa target yang sepenuhnya dilakukan menggunakan perangkat lunak. Ia memiliki kemampuan komputasional linguistik yang mampu mengidentifikasi, mempelajari dan menyelesaikan pelbagai masalah di proses penerjemahan otomatis. 

Selain itu, ia  merupakan instrumen untuk menghemat waktu para penerjemah. Peningkatan produktivitas dan akses terhadap hasil cepat tanpa bergantung pada penerjemahan manusia seutuhnya merupakan manfaat terbesar dari penggunaan teknologi ini. Dalam perkembangannya, ia terdiri dari tiga kategori, yaitu:

Rule-Based Machine Translation

Rule-Based Machine Translation (RB MT) merupakan Machine Translation yang bergantung pada sistem gramatika dari bahasa asal dan bahasa target guna merancang model untuk mencapai akurasi penerjemahan maksimal. 

Sistem gramatika tersebut bisa ditambah dengan kamus istilah spesifik tergantung dari aplikasi yang diinginkan, misalnya kamus istilah kedokteran atau bisnis untuk meningkatkan ketepatan. 

Kelebihan

  • Tidak membutuhkan teks bilingual yang harus menjadi input sebelum penerjemahan
  • Aturan-aturan baru bisa ditambahkan terus menerus.
  • Aturan-aturan yang telah dibuat bisa dipasangkan dengan bahasa target baru

Kekurangan

  • Tidak ada kamus bilingual yang benar-benar sempurna dan membuat kamus baru sangat memakan waktu.
  • Peraturan baru harus dimasukkan secara manual dan biasanya berbiaya tinggi.
  • Kurang dapat diandalkan ketika menghadapi aspek kebahasaan seperti metafora, gender atau idiom.

Statistical Machine Translation

Statistical Machine Translation (Statistical MT) bekerja dengan mempelajari seluruh korpus terjemahan yang telah divalidasi oleh tenaga manusia. Tidak seperti RBMT, Statistical MT merupakan penerjemahan berbasis frasa alih-alih kata per kata. 

Terjemahan Statistical MT menggunakan korpus terjemahan manusia tersebut sebagai model yang diterapkan pada teks bahasa target untuk melakukan penerjemahan secara otomatis. 

Kelebihan

  • Cepat dikembangkan dan berbiaya relatif murah.
  • Tidak membutuhkan banyak pekerjaan manual bagi pembuatnya.
  • Dengan model bahasa yang tepat, hasil terjemahan bisa lebih kontekstual ketimbang RMBT.

Kekurangan

  • Tidak mengenal tata bahasa dengan baik.
  • Membutuhkan banyak data untuk pemodelan
  • Kesalahan-kesalahan spesifik akan sulit diperbaiki

Neural Machine Translation

Neural Machine Translation (NMT) merupakan pendekatan termutakhir Machine Translation yang tersusun atas jejaring “saraf” tiruan guna. NMT merupakan terobosan karena membuat sistem tunggal yang mampu menerjemahkan pelbagai bahasa tanpa harus mengakomodasi aturan-aturan tertentu sebagaimana ditemukan di Statistical MT maupun RB MT. Oleh karena itu, NMT digadang-gadang mampu melampaui batasan sistem terjemahan berbasis frasa dan kata dan mampu memproduksi kualitas terjemahan lebih baik dibandingkan keduanya. 

Kelebihan

  • Akurasi lebih tinggi daripada dua model lainnya.
  • NMT dapat dilatih dengan cepat lewat proses automasi untuk mengenali pola di dalam data yang digunakan.
  • Memungkinkan sistem tunggal yang mampu menerjemahkan banyak pasangan bahasa.

Kekurangan

Kesimpulan

Jenis-jenis Machine Translation yang ada saat ini menawarkan pelbagai kemungkinan dengan masing-masing kelebihan dan kekurangannya dalam menerjemahkan teks dalam jumlah besar dan cepat. Semua pasangan bahasa memiliki tantangannya sendiri dan setiap bisnis memiliki kebutuhan dan prioritasnya masing-masing. Masa depan teknologi ini terlihat menjanjikan dan angan-angan akan kualitas terjemahan otomatis yang mendekati hasil terjemahan manusia mungkin tidak lama lagi akan dicapai.

Penulis: Averio Nadhirianto

Editor: M. Wahyu Hidayat

Cara Kerja Machine Learning

No comments yet

Sebelum membahas lebih jauh mengenai Machine Learning dan bagaimana cara kerjanya, kita harus lebih dahulu mengetahui juga belajar bahwa Machine Learning merupakan salah satu subbidang dari Artificial Intelligence. Elliot, dkk dalam analisisnya di A Framework for Applying AI in the Enterprise menyederhanakan bahwa Machine Learning merupakan sebuah disiplin teknikal yang mempelajari sesuatu melalui tahap observasi dan melihat pola-pola tertentu di dalam suatu input data.

Kemudian Ed Burns dalam artikelnya, menjelaskan bahwa Machine Learning adalah sebuah mesin yang dalam praktiknya mampu memprediksi kejadian dengan cara mempelajari atau menganalisis data untuk kemudian menghasilkan wawasan (insight) yang memiliki nilai-nilai tertentu. 

Machine Learning berperan penting di era teknologi yang diakibatkan oleh permintaan pasar. Kita bisa membayangkan saat seluruh aspek kehidupan manusia sekarang ini didasari oleh tindakan-tindakan hingga standar-standar tertentu. Hal seperti ini memungkinkan program komputer untuk memprediksi produk yang akan menjadi tren dan lain sebagainya. Tentunya, dengan didasari oleh kejadian sebelumnya yang telah dilakukan oleh manusia itu sendiri.

Tentang bagaimana cara kerja Machine Learning sudah sangat sering dijabarkan, entah itu di aspek proses pengolahan data, input data, hingga hasil dari Machine Learning itu sendiri. Namun secara umum, cara kerja Machine Learning ini dapat dibagi menjadi dua pendekatan, yaitu Unsupervised Learning dan Supervised Learning. Lebih jauh, kita juga akan membahas mengenai apa itu Unsupervised Learning dan Supervised Learning.

Apa itu Unsupervised Learning?

Unsupervised Learning ini merupakan salah satu pendekatan di mana mesin melakukan pengelompokan (clustering) atas input data yang tersedia. Data tersebut akan diolah dengan cara pengelompokan sesuai dengan kriteria tertentu. Sebagai contoh, sebuah perusahaan ekspedisi ingin memaksimalkan penghematan ongkos kirim. Perusahaan itu akan menyesuaikan letak gudang penyimpanannya dengan data-data di mana mereka paling banyak melakukan pengiriman barang. Langkah ini memungkinkan sebuah perusahaan memetakan daerah ramai permintaan dan daerah sepi permintaan. Dengan demikian, biaya pengiriman dapat ditekan. Pada akhirnya, biaya pengiriman masing-masing barang dapat disesuaikan dengan letak dan jarak tempuh secara lebih efektif.

Apa itu Supervised Learning?

Pendekatan cara kerja Machine Learning yang kedua adalah Supervised Learning. Dari sisi input data, mesin dilatih untuk untuk melakukan prediksi berdasarkan pola tertentu yang ditemukan dan dipelajari di input data latih. Cara kerja Machine Learning yang satu ini, menurut Intelegain Team, menekankan pada prediksi berdasarkan pada bukti-bukti nyata yang telah terjadi sebelumnya. Maka dari itu, pendekatan Supervised Learning menuntut sang pengguna lebih dahulu mengetahui ekspektasinya atas output hasil prediksi mesin. 

Contoh, Direktorat Lalu Lintas Kepolisian ingin memprediksi di mana saja kemungkinan kecelakaan kendaraan bermotor terjadi di wilayah kerja mereka. Mereka perlu mengumpulkan dan memproses data-data terkait dengan kecelakaan kendaraan bermotor di area tersebut sebagai syarat untuk untuk melatih kemampuan mesin melakukan prediksi.

Penutup

Semua perusahaan bisa saja menggunakan Machine Learning dengan cukup mudah. Tidak ada lagi dikotomi antara perusahaan konvensional dan perusahaan teknologi karena semua perusahaan memanfaatkan Machine Learning dalam proses bisnisnya masing-masing. Secara singkat kita dapat memahami bahwa cara kerja Machine Learning ini secara garis besar didasari oleh dua pendekatan, yaitu Supervised Learning dan Unsupervised Learning. Dari penjelasan yang ada juga dapat disimpulkan bahwa cara kerja Machine Learning dan cara kerja manusia pada akhirnya sangatlah berbeda. Karena itu, masih dibutuhkan intervensi secara moral dan manusiawi dari manusia itu sendiri kepada sistem Machine Learning.

 

Penulis: Marvine Viano

Editor: M. Wahyu Hidayat, Ghifari Adam

Sekelumit tentang Data Mining

No comments yet

Informasi dan data yang disimpan secara digital telah mengalami peningkatan signifikan selama dua dekade terakhir. Hal itu dimungkinkan berkat teknologi pangkalan data yang dapat melakukan penyimpanan data bervolume besar dan dapat diakumulasi.

Dimulai sejak 1980-an ketika kapasitas penyimpanan komputer meningkat, perusahaan-perusahaan mulai menyimpan data transaksional lebih banyak. Namun, koleksi dari data yang sering disebut dengan data warehouse ini kian lama kian sulit untuk dianalisis menggunakan pendekatan statistika secara konvensional.

Dalam beberapa tahun, konferensi-konferensi dan pertemuan-pertemuan digelar untuk membahas perkembangan artificial intelligence, machine learning, neural networks, dan expert systems. Para ilmuwan mulai membuka kemungkinan bahwa semua perkembangan itu dapat diimplementasikan ke dalam apa yang disebut dengan knowledge discovery.

Barulah pada 1995 digelar pertemuan bertajuk First International Conference on Knowledge Discovery and Data Mining di Montreal, Kanada untuk membahas topik ini secara serius. Di tahun-tahun ini jugalah perusahaan data mining awal diperkenalkan dan diluncurkan.

Definisi dan Tahapan di Data Mining

Dalam disiplin ilmu komputer, data mining termasuk cabang disiplin ilmu yang relatif masih muda. Kemunculannya berbarengan dengan perkembangan artificial intelligence dan machine learning

Terdapat beberapa definisi tentang data mining dan salah satunya adalah proses penemuan pola yang menarik dari data berjumlah besar. Ada juga pendapat yang mengatakan bahwa data mining adalah eksplorasi secara otomatis dan semi-otomatis terhadap data dalam jumlah yang besar untuk mencari pola spesifik.

Ensiklopedia Britannica sendiri mendefinisikan data mining atau juga dikenal dengan knowledge discovery in database sebagai proses penemuan pola dan relasi yang berguna dalam volume data yang besar.

Dari beberapa definisi di atas, secara ringkas dapat disimpulkan bahwa data mining merupakan proses ekstraksi dan penemuan suatu pola atau knowledge tertentu yang berguna dari himpunan data berjumlah besar.

Meskipun sama-sama didasarkan pada proses analitis, data mining berbeda secara fundamental dengan machine learning. Salah satu perbedaannya adalah data mining bertujuan menemukan pola tertentu, sementara machine learning telah terlebih dahulu “dilatih” dengan training dataset untuk kemudian membuat machine learning semakin pintar dan efisien dalam membaca dan mengolah pola yang telah ada.

Untuk mendapatkan pola atau knowledge berguna yang dibutuhkan, data mining harus melewati beberapa tahapan, yang terdiri dari sebagai berikut:

Selection

Seleksi data dilakukan sebelum dimulainya tahap penggalian. Data hasil seleksi kemudian akan disimpan ke dalam suatu berkas yang terpisah dari database.

Cleansing

Setelah dilakukan seleksi, perlu dilakukan proses cleansing terhadap data, yakni membuang data duplikat dan inkonsisten atau memperbaiki kesalahan-kesalahan minor di dalam data. 

Transformation

Pada proses transformation, dilakukan coding terhadap data yang telah diseleksi dan dibersihkan sebelumnya yang bertujuan menempatkan data-data relevan.

Data mining

inilah tahap terpenting, yakni proses pencarian pola atau informasi menarik dalam data terpilih yang dilakukan dengan teknik atau metode tertentu.

Interpretation

Setelah melewati empat tahap sebelumnya, di tahap interpretation ini dilakukan visualisasi dalam berbagai bentuk yang mudah dipahami untuk menyampaikan pola atau informasi berguna yang telah ada.

Dari sisi teknik, data mining terdiri dari tujuh macam, yakni classification, clustering, regression, association rules, outer detection, sequential patterns, dan prediction. Masing-masing teknik tersebut sama-sama berguna, tergantung pada tujuan suatu perusahaan atau individu yang menggunakannya. Misalnya pada teknik classification, informasi-informasi penting dan relevan yang telah diperoleh dapat dikategorikan ke dalam kelas-kelas berbeda.

Bagi suatu perusahaan, data mining sangat bermanfaat untuk setidaknya tiga hal, yakni memudahkan pengambilan keputusan, membantu membuat prediksi, dan menekan ongkos produksi.

Kesimpulan

Perusahaan dapat mengambil keuntungan dari penerapan data mining karena ia berfungsi layaknya detektif yang melakukan investigasi data di masa lalu dan saat ini untuk memprediksi hasil di masa depan beserta dampak-dampaknya. 

Analisis terhadap data yang sedemikian besar tersebut tentu dapat dilakukan secara manual seperti sebelum-sebelumnya, tetapi kecepatan pemrosesan dalam data mining akan sangat mengurangi waktu yang dibutuhkan oleh suatu perusahaan atau bisnis dalam melakukan analisis data.

 

Penulis: Arlandy Ghifari

Editor: M. Wahyu Hidayat

Sejarah Kecerdasan Buatan

No comments yet

Kecerdasan Buatan sebagai sebuah ide maupun bidang ilmu telah mengalami pertumbuhan pesat dalam beberapa waktu terakhir. Penerapannya yang begitu luas telah memengaruhi kehidupan kita sehari-hari dan membuatnya menjadi bagian tak terpisahkan dari peradaban manusia. Berbicara tentang sejarah Kecerdasan Buatan sebagai sebuah ide akan membawa kita ke cerita panjang tentang fantasi, pelbagai kemungkinan, hingga harapan-harapan manusia.

Pada awalnya manusia membayangkan adanya seperangkat instrumen canggih yang mampu melakukan tugas-tugas yang diasosiasikan dengan proses intelektual tingkat tinggi. Itu merupakan bagian dari karakteristik manusia semisal memaknai, menalar, menggeneralisasi, hingga belajar dari pengalaman-pengalaman masa lalu (Negroponte, 1998).

Sejarah Kecerdasan Buatan Modern

Sejarah Kecerdasan Buatan modern baru dapat dirunut pada awal masa Perang Dunia II ketika pada tahun 1940 Alan Turing menciptakan The Bombe, sebuah mesin pemecah telik sandi Enigma milik militer Jerman. Kala itu, The Bombe secara drastis mengubah peruntungan Sekutu sekaligus menjadi penanda kekalahan pasukan Hitler. Kesuksesan mesin tersebut mendorong Turing berpikir tentang sejauh mana “kecerdasan” mesin ini dapat diukur, jika dibandingkan dengan kecerdasan manusia. Dalam konteks inilah Turing menciptakan Turing Test yang membawa pertanyaan dasar, “Apakah mesin mampu ‘berpikir’ layaknya manusia?”.

Istilah Kecerdasan Buatan sendiri belum muncul saat Turing melontarkan gagasan tersebut. Istilah ini pertama kali digunakan Marvin Minsky dan John McCarthy. Dua ahli komputer dari MIT dan Dartmouth itu terlibat di konferensi riset di Dartmouth College pada tahun 1956. Di konferensi tersebut hadir figur-figur yang dianggap sebagai bapak Kecerdasan Buatan seperti Nathaniel Rochester─orang di balik IBM 701, komputer komersial pertama, dan Claude Shannon─penggagas teori informasi. 

Tak hanya itu, konferensi tersebut juga menjadi titik awal sejarah Kecerdasan Buatan sebagai disiplin ilmu baru. McCarthy mendefinisikannya sebagai “teknik membuat mesin-mesin cerdas” (Buchanan 2006). Sejak saat itulah riset-riset di bidang Kecerdasan Buatan mulai mengalami kemajuan, meskipun melalui fase naik-turun yang dalam kronologi sejarah Kecerdasan Buatan biasanya disebut fase “Summer” dan “Winter”.

Sejarah Kecerdasan Buatan Memasuki Millenium Baru

Menjelang abad ke-21, Kecerdasan Buatan memasuki babak baru dan menunjukkan capaian bersejarah sekaligus simbolik dalam hubungannya dengan kecerdasan manusia. Pada 11 Mei 1997, program Deep Blue hasil pengembangan IBM berhasil menjadi program komputer pertama yang mengalahkan Garry Kasparov. Adapun Garry, ia adalah pecatur legendaris pemegang gelar juara dunia ketika itu (Lewis 2014).

Kemajuan pesat pun terjadi dalam teknologi pembuatan mikrocip. Ini membuka jalan bagi munculnya komputer-komputer baru yang semakin canggih dan mampu memproses data dengan jumlah besar. Kurun terkini sejak 1997 dalam kronik sejarah Kecerdasan Buatan kemudian dapat disebut sebagai Abad Informasi dengan munculnya disiplin-disiplin dan konsep baru seperti Big Data, Deep Learning, Machine Learning. Konsep-konsep tersebut sekarang mendominasi riset-riset berkaitan dengan AI (Toosi, et al. 2021). 

Pada skala global, AI kini merupakan target menarik bagi investor dengan potensi keuntungan miliaran dolar AS per tahun. Dalam periode 2010-2020, jumlah investasi di startup berbasis AI terus tumbuh dari 1,3 miliar dolar AS hingga lebih dari 40 miliar dolar AS. Rata-rata pertumbuhan mereka sekitar 50% (Toosi, et al. 2021). Pada akhirnya, keberhasilan AI sebagai bidang ilmu dan lini bisnis di masa sekarang tidak terlepas dari sejarah Kecerdasan Buatan. Secara keseluruhan, masa depan Kecerdasan Buatan tampak begitu menjanjikan. 

Referensi

Buchanan, Bruce G. 2006. “A (Very) Brief History of Artificial Intelligence.” AI Magazine 53-60.

Lewis, Tanya. 2014. A Brief History of Artificial Intelligence. December 05. https://www.livescience.com/49007-history-of-artificial-intelligence.html.

Negroponte, Nicolas. 1998. Being Digital: Menyiasati Hidup dalam Cengkeraman Sistem Komputer. Jakarta: Mizan.

Toosi, Amirhosein, Andrea Bottino, Babak Saboury, Eliot Siegel, and Arman Rahmim. 2021. “A Brief History of AI: How to Prevent Another Winter (A Critical Review).” Artificial Intelligence and PET Imaging, Part I 449-469.

 

Penulis: Averio Nadhrianto

Editor: M. Wahyu Hidayat

Data Science Adalah Bidang Ilmu Populer, Mengapa?

No comments yet

Data Science adalah bidang ilmu yang tengah populer seiring dengan perkembangan teknologi dan peningkatan volume data secara masif. Riset menemukan bahwa 95% bisnis masih memiliki masalah terkait data. Oleh karena itu, Data Science adalah salah satu disiplin ilmu yang dapat diterapkan di berbagai industri dan memiliki tingkat kebutuhan tinggi.

Apabila kamu tertarik mempelajari apa itu Data Science, berikut ini serba-serbi Data Science yang perlu kamu ketahui lebih lanjut.

Apa itu data science?

Secara teoretis, disadur dari Data Robot, data science adalah bidang ilmu yang menggabungkan kecakapan di bidang ilmu tertentu, keahlian pemrograman, serta penguasaan matematika dan statistik untuk menarik wawasan (insight) dari data. 

Pada praktiknya, data science adalah ilmu yang memasukkan logika matematika dan metode statistika ke dalam bahasa pemrograman. Tujuan utama penerapan data science adalah menguak wawasan (insight), informasi, pengetahuan, dan lainnya.

Namun, seorang data scientist bernama Jonathan Ma yang dikenal dengan persona Joma Tech, menyebut bahwa data science adalah ilmu yang memanfaatkan data dengan tujuan menyelesaikan suatu masalah. Menurut pria yang pernah bekerja di sejumlah perusahaan teknologi di AS itu, ada kekeliruan bahwa data science hanya berfokus pada machine learning dan programming. Padahal, kata dia, titik berat Data Science justru terletak pada seberapa besar dampak yang dapat dihasilkan pada bidang atau bisnis tertentu. 

Kemunculan data science

Priestley & Mcgrath (2019) dalam makalahnya yang berjudul The Evolution of Data Science: A New Mode of Knowledge Production merangkum, data science adalah penyatuan ilmu statistika dan ilmu komputer. Kedua bidang ilmu ini berkembang dengan memanfaatkan perkembangan penggunaan internet yang menghasilkan Big Data. 

Seiring perkembangan internet pada tahun 90-an, pakar statistika dan ilmu komputer menyadari penggunaan internet telah melahirkan arus dan volume data yang begitu banyak, sehingga diberi nama Big Data. Pakar melihat bahwa data yang dihasilkan dari penggunaan internet dapat dimanfaatkan lebih jauh. Terlebih, volumenya terus bertambah, sehingga terdapat kemungkinan penemuan wawasan baru dari data ini.

Sayangnya, ilmu statistika tradisional tidak memiliki kemampuan untuk menyimpan dan memproses Big Data. Kemudian komputer dipandang menjadi solusi karena mempunyai kemampuan automatisasi dan penyimpanan lebih baik. Kemampuan ini membantu data scientist memproses data dengan lebih cepat dan tepat.

Seiring perkembangan abad 21, pertumbuhan pengguna internet menciptakan permintaan di berbagai lini atas pengelolaan data. Hingga tahun 2019, diperkirakan setidaknya terdapat 50 zettabyte data tersebar di internet. Dengan demikian, data science adalah bidang ilmu yang akan terus popular dan berkembang.

Komponen Esensial bagi Data Science

Terdapat tiga komponen esensial dari Data Science. Komponen esensial pertama dari data science adalah statistika. Untuk mentransformasi data, seorang Data Scientist membutuhkan ilmu statistika yang membantunya membedah data dan memetakan pola di dalamnya. Pengetahuan ini penting untuk memahami perspektif atau paradigma yang digunakan di data science.

Komponen kedua dari data science adalah pemrograman. Untuk mengolah data dalam volume sangat banyak, seorang Data Scientist membutuhkan program yang dapat membantu proses pengolahan data. Program tertentu dapat membantu Data Scientist mengekstraksi, memilah data, dan menganalisis data. Dengan pendekatan terprogram, penghitungan secara manual tidak lagi dibutuhkan, dan dari sini muncul istilah automasi. Automasi ini memudahkan Data Scientist melimpahkan pengerjaan proses repetitif yang mudah dilakukan kepada komputer.

Komponen ketiga dari data science adalah visualisasi. Visualisasi data di data science bertujuan untuk mengomunikasikan hasil analisis yang ditemukan. Visualisasi data juga bertujuan untuk menyajikan informasi sehingga informasi lebih mudah dipahami, tidak bias, dan ditransfer menjadi pengetahuan. Grafik akan memberikan gambaran visual secara singkat dan komunikatif.

Data science adalah, pada intinya, mengubah data menjadi informasi. Data, begitu saja, tidak cukup bermanfaat. Ia butuh ditransformasikan dari ketidakjelasan menjadi informasi yang berguna” – Max, Pengajar Data Science di codingwithmax

Tahapan apa yang dilakukan dalam Data Science?

Berkeley School of Information menjelaskan, terdapat lima tahapan yang perlu dilalui di Data Science, yaitu capture, maintain, process, analyze, dan communicate.

Capture

Ia merupakan tahapan yang berhubungan dengan pemerolehan data (data acquisition), data entry (entri data), signal reception (resepsi sinyal), dan data extraction (ekstraksi data). Pada tahapan ini Data Scientist berusaha menggali data lebih jauh dengan berbagai teknik yang mampu digunakan dari berbagai sumber.

Maintain

Di tahapan ini Data Scientist dituntut mengelola dan mengorganisasikan data, yang meliputi data warehousing, data cleansing, data staging, data processing, dan data architecture.

Process

Data Scientist memproses data sesuai kebutuhan hingga mencapai gambaran umum yang diharapkan. Proses ini mencakup data mining, clustering/classification, data modeling, dan data summarization.

Analyze

Tahap ini mencakup exploratory/confirmatory, predictive analysis, regression, text mining, dan qualitative analysis. Pada tahap ini data dianalisis untuk menunjukkan hubungan yang mungkin terjadi antar komponen data. Hasil analisis juga menunjukkan dinamika data sesuai dengan kebutuhan dan fokus masalah.

Communication

Sebagai tahap terakhir, communication mencakup data reporting, data visualization, business intelligence, dan decision making. Tahap ini menyajikan hasil analisis data kepada user untuk penentuan keputusan.

Kesimpulan

Data Science adalah bidang ilmu yang lahir dari perkembangan teknologi dan merupakan sebuah respons dari kehadiran Big Data yang menarik untuk ditelaah. Lahirnya Data Science merupakan medium bagi pakar untuk menemukan wawasan baru dari big data.Dengan teknik apa pun yang digunakan, Data Science adalah bidang ilmu yang fleksibel dengan tools yang digunakan. Pada akhirnya Data Science bermuara pada satu tujuan, yaitu menyelesaikan masalah dengan data.

 

Penulis: Muhammad Ihsan

Editor: M. Wahyu Hidayat, Cahya Amalinadhi