Processing math: 100%

Test do rozdziału

Q-31: Maszyna wektorów podpierających SVM w swojej podstawowej postaci jest




Q-32: Marginesem hiperpłaszczyzny rozdzielającej próbki z dwóch klas nazywamy




Q-33: Jeśli w oraz b są odpowiednio wektorem wag oraz przesunięciem dla hiperpłaszczyzny rozdzielającej oraz g(x)=wTx+w0 to odległość wektora cech x od tej hiperpłaszczyzny wyraża się wzorem




Q-34: Celem uczenia liniowego klasyfikatora SVM jest




Q-35: Niech xi będzie wektorem cech obiektu uczącego a yi{1,1} jego etykietą klasową. Dla kanonicznej optymalnej hiperpłaszczyzny rozdzielającej wTx+w0=0 klasyfikatora SVM zachodzi




Q-36: Wektorem podpierającym nazywamy




Q-37: W przypadku liniowo nieseparowalanym linowy klasyfikator SVM poszukuje minimum następującej funkcji kryterialnej




Q-38: Zestaw optymalnych współczynników Lagrange’a uzyskanych w toku maksymalizacji funkcji Q(α)=Ni=1αi12Ni=1Nj=1αiαjyiyjxTixj pozwala na wyznaczenie parametrów w opisujących OSH zgodnie ze wzorami:




Q-39: Idea nieliniowego klasyfikatora SVM polega na




Q-40: Przykłądem funkcji jądra jest funkcja postaci




Następna część - Zadania kontrolne