
Tulisan Tangan Sebelum Dikenai Thinning

Tulisan Tangan Setelah Dikenai Thinning
Kemarin sempat ngerjain topik tesis mengenai handwriting recognition sebelum ganti topik tesis yang sekarang. Ternyata topik mengenai pemrosesan citra bukanlah hal yang mudah. Dan semua proses sangat tergantung sama apa yang namanya preprocessing. Jadi intinya, kalau tidak bisa membuat sebuah preprocessing yang baik, sangat sulit sekali untuk menghasilkan hasil yang baik. Kalau mau cari paper banyak sekali yang membahas hal ini di citeseer dengan berbagai metode. Dari pengalaman yang kulakukan biasanya preprocessing terdiri dari hal-hal berikut:
- grey scaling dan thresholding, disini biasanya belum ada masalah karena intinya cuman mengubah gambar menjadi hitam putih, lalu dijadikan gambar biner dengan mematok nilai tertentu (threshold) jadi misal titik citra memiliki warna 0-255 maka ditentukan sebuah nilai misal 60 maka yang dibawah 60 akan menjadi angka 1 (warna hitam) dan yang diatas 60 akan menjadi angka 0 (warna putih),
- smoothing, intinya menghilangkan piksel-piksel atau titik-titik pada citra yang tidak diperlukan (noise) misal ada sebuah titik yang berdiri sendirian tergambar karena kertas gambar yang di-scan kotor, disini juga ada beberapa metode untuk menghilangkan noise ini, waktu itu aku pakai metode stentiford boundary untuk menghilangkan detail dan noise dengan mengecek konektivitas dengan piksel yang bernilai 1 dan menghitung tetangga piksel yang bernilai 0 jika piksel yang sedang dicek memenuhi syarat tidak boleh dihapus maka piksel akan ditandai sebagai piksel yang tidak boleh dihapus, bisa dibaca di bukunya Parker,
- stroke thinning dan scaling, dua proses ini bisa dibalik-balik urutannya, cuman biasanya disini mulai timbul masalah, proses thinning biasanya akan sangat lambat jika piksel warna hitamnya banyak, jadi akan lebih cepat kalau gambarnya dikecilin, tapi masalahnya jika gambar dikecilin dulu dengan pengecilan yang tidak pas, maka bentuk asli gambar akan rusak, yang otomatis ketika dikenai thinning hasilnya juga akan jadi rusak, repot kan, kemarin saya pakai metode hybrid dimana menggunakan campuran tiga buah metode yang saling mendukung untuk proses thinning yaitu algoritma thinning Zhang-Suen yang mengecek ketetanggaan dan konektivitas 8-arah piksel, Stentiford Acute Angle Emphasis untuk menandai piksel pada bagian luar yang tidak boleh dihapus, dan algoritma holt untuk menghapus hasil thinning yang tidak diperlukan (percabangan yang tidak perlu) dab piksel prunning yang kubuat sendiri aturannya untuk menghapus piksel-piksel yang kemungkinan akan merusak bentuk hasil thinning, bisa dibaca dibukunya Parker juga untuk algoritma thinning-nya,
- setelah ini biasanya ada segmentasi untuk memisahkan setiap karakter pada tulisan, sampai sekarang juga masih banyak masalah disini dilihat dari banyak penelitian yang sudah dilakukan, permasalahan yang timbul seringnya hasil pemisahan karakternya tidak bisa akurat benar-benar memisahkan karakter, misal pada huruf m bisa jadi dipisah menjadi 3 buah huruf i pada tulisan bersambung, belum lagi tulisan manusia tidak mempunyai standar baku.
berikut identitas buku-nya Parker: Parker, J.R. (1997). Algorithms for Image Processing and Computer Vision. Wiley Computer Publishing : Canada.
Hasil pekerjaanku juga bisa di-download di gangsir.com. Semoga bermanfaat.
minta scipt delphi untuk proses thinning, untuk pembelajaran saya, terima kasih sebelumnya
ada di komputer.gangsir.com
mbak ada coding dengan vb 6.0 ndak?
Tidak ada, waktu itu saya pakai delphi. Silakan dikonversi saja ke vb.
mbak saya baru liat blognya mbak, apa webnya masih bisa dibuka? saya sudah coba tapi tampilannya kosong.
Wah ini tulisan sudah lama 😀 … iya web nya sudah tidak diperpanjang… maaf.