Test do rozdziału

Q-31: Maszyna wektorów podpierających SVM w swojej podstawowej postaci jest




Q-32: Marginesem hiperpłaszczyzny rozdzielającej próbki z dwóch klas nazywamy




Q-33: Jeśli \(w\) oraz \(b\) są odpowiednio wektorem wag oraz przesunięciem dla hiperpłaszczyzny rozdzielającej oraz \(g(x)=w^Tx+w_0\) to odległość wektora cech \(x\) od tej hiperpłaszczyzny wyraża się wzorem




Q-34: Celem uczenia liniowego klasyfikatora SVM jest




Q-35: Niech \(x_i\) będzie wektorem cech obiektu uczącego a \(y_i \in \{-1,1\}\) jego etykietą klasową. Dla kanonicznej optymalnej hiperpłaszczyzny rozdzielającej \(w^Tx+w_0=0\) klasyfikatora SVM zachodzi




Q-36: Wektorem podpierającym nazywamy




Q-37: W przypadku liniowo nieseparowalanym linowy klasyfikator SVM poszukuje minimum następującej funkcji kryterialnej




Q-38: Zestaw optymalnych współczynników Lagrange’a uzyskanych w toku maksymalizacji funkcji \(Q(\alpha)=\sum_{i=1}^{N}\alpha_i-\frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^{N}\alpha_i\alpha_j y_iy_jx_i^Tx_j\) pozwala na wyznaczenie parametrów \(w\) opisujących OSH zgodnie ze wzorami:




Q-39: Idea nieliniowego klasyfikatora SVM polega na




Q-40: Przykłądem funkcji jądra jest funkcja postaci




Następna część - Zadania kontrolne