Test do rozdziału¶
Q-31: Maszyna wektorów podpierających SVM w swojej podstawowej postaci jest
Q-32: Marginesem hiperpłaszczyzny rozdzielającej próbki z dwóch klas nazywamy
Q-33: Jeśli \(w\) oraz \(b\) są odpowiednio wektorem wag oraz przesunięciem dla hiperpłaszczyzny rozdzielającej oraz \(g(x)=w^Tx+w_0\) to odległość wektora cech \(x\) od tej hiperpłaszczyzny wyraża się wzorem
Q-34: Celem uczenia liniowego klasyfikatora SVM jest
Q-35: Niech \(x_i\) będzie wektorem cech obiektu uczącego a \(y_i \in \{-1,1\}\) jego etykietą klasową. Dla kanonicznej optymalnej hiperpłaszczyzny rozdzielającej \(w^Tx+w_0=0\) klasyfikatora SVM zachodzi
Q-36: Wektorem podpierającym nazywamy
Q-37: W przypadku liniowo nieseparowalanym linowy klasyfikator SVM poszukuje minimum następującej funkcji kryterialnej
Q-38: Zestaw optymalnych współczynników Lagrange’a uzyskanych w toku maksymalizacji funkcji \(Q(\alpha)=\sum_{i=1}^{N}\alpha_i-\frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^{N}\alpha_i\alpha_j y_iy_jx_i^Tx_j\) pozwala na wyznaczenie parametrów \(w\) opisujących OSH zgodnie ze wzorami:
Q-39: Idea nieliniowego klasyfikatora SVM polega na
Q-40: Przykłądem funkcji jądra jest funkcja postaci