![](https://crypto4nerd.com/wp-content/uploads/2023/11/1785Gl3B2icy-4RU9UVuERA.png)
Haloππ. Siapa yang gatau SVM adik-adik? maka bacaan ini cocok untuk kamuππ
Sebenarnya sih alasan mengambil ini `karena sudah dipilihin` π«±πΏβπ«²πΏ
Mengambil studi kasus tersebut karena dataset iris termasuk dataset simpel dan banyak contohnya, karena gweh juga mau memahami jadi gweh memutuskan untuk mengambil studikasus yang sederhana iniππ
Menurut wikipedia, SVM termasuk supervised learning yang biasanya digunakan untuk klasifikasi ataupun regresi. Dalam pemodelan klasifikasi, support vector machine memiliki konsep yang lebih matang serta jelas secara matematis dibandingkan dengan teknik klasifikasi lainnya. Support vector machine juga dapat mengatasi masalah klasifikasi dan regresi dengan metode linear maupun non linear.
Algoritma Support Vector Machine (SVM) ini digunakan untuk mencari hyperplane terbaik dalam ruang N-dimensi yang secara jelas mengklasifikasikan titik data. Hyperplane adalah sebuah fungsi yang digunakan sebagai pemisah antar kelas yang satu dengan yang lain. Fungsi ini digunakan untuk mengklasifikasikan di dalam ruang kelas dimensi yang lebih tinggi.
Linear SVM merupakan salah satu prinsip kerja SVM linear digunakan untuk data yang dapat dipisahkan secara linear, yang berarti jika sebuah dataset dapat diklasifikasi menjadi dua kelas dengan menggunakan sebuah garis lurus tunggal, maka data tersebut disebut sebagai data yang dapat dipisahkan secara linear, dan classifier yang digunakan disebut sebagai Linear SVM classifier.
Visualisasi Linier SVM
Data yang tersedia pada SVM disimbolkan dengan notasi (xi) β R^d dan label masing-masing kelas yaitu kelas +1 dan kelas -1 yang diasumsikan terpisah sempurna oleh hyperplane berdimensi d diberi notasi yi β {-1, + 1} , dimana i = 1,2,β¦, l ; dimana l adalah banyak data.
Sehingga diperoleh definisi persamaan hyperplane sebagai berikut:
Sehingga menurut persamaan hyperplane diperoleh SVM linier untuk kelas positif:
Sedangkan untuk persamaan hyperplane kelas negatif pada SVM linier adalah:
dengan keterangan
w = bobot (vektor bobot)
x = nilai masukan matriks (fitur)
b = bias
Untuk menghitung nilai margin terbesar dilakukan dengan melakukan optimasi nilai jarak antara hyperplane dengan titik terdekat pada setiap kelas. Quadratic Programming (QP) digunakan sebagai rumus untuk mencari titik minimal suatu persamaan dengan batasan persamaan:
Permasalahan di atas dapat diselesaikan dengan berbagai teknik komputasi, salah satunya adalah dengan menggunakan persamaan Langrange Multiplier sebagai berikut:
Sebagian besar perhitungan di atas memperoleh Ξ±i positif, dimana data yang berkorelasi dengan Ξ±i positif disebut vektor pendukung. Sehingga digunakan persamaan berikut untuk menentukan hasil klasifikasi data baru:
class = f(x)
dengan f(x) sebagai sign atau label