Kernel-Methode

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Kernel-Trick)
Zur Navigation springen Zur Suche springen

Im maschinellen Lernen bezeichnen Kernel-Methoden eine Klasse an Algorithmen, die zur Mustererkennung verwendet werden. Kernel-Methoden verwenden sogenannte Kernelfunktionen. Eine Kernelfunktion transformiert eine Menge von bekannten Datenpunkten in eine Menge von höherdimensionalen Datenpunkten. Danach sucht eine Kernel-Methode in dem neuen, höherdimensionalen Raum nach einer Hyperebene, die die Datenpunkte korrekt klassifiziert. Die Abbildung zum Kernel-Trick zeigt ein einfaches Beispiel. Die Transformation durch eine Kernelfunktion erlaubt außerdem eine implizite Berechnung im höherdimensionalen Raum. Dadurch können Kernel-Methoden auf der Suche nach einer geeigneten Hyperebene hochdimensionale Räume benutzen, ohne die dafür benötigte Rechenzeit erheblich zu erhöhen.[1] Bekannte Kernel-Methoden sind Support Vector Machines, Gaußprozesse und die Kernel-PCA.

Formale Definition Kernel[Bearbeiten | Quelltext bearbeiten]

Sei ein Eingaberaum. Eine Abbildung heißt Kernel, wenn es einen Skalarproduktraum und eine Abbildung in diesen Raum gibt mit: .

heißt Featurespace oder Merkmalsraum, Featuremapping oder Merkmalsabbildung. Ein Kernel ist also eine Möglichkeit, das Skalarprodukt zweier Punkte im Merkmalsraum zu berechnen, ohne die potentiell sehr hochdimensionale Repräsentation explizit ausrechnen zu müssen. Dieses Skalarprodukt im Merkmalsraum kann dann für Klassifizierungsalgorithmen wie Support Vector Machines verwendet werden.

In der Praxis muss der Featurespace nicht explizit bekannt sein, da Kernel durch den Satz von Mercer eine einfache Charakterisierung besitzen.

Verschiedene Klassen von Kernel-Funktionen[Bearbeiten | Quelltext bearbeiten]

Es gibt verschiedene Arten von Kerneln, die sich zum Teil über Parameter an die gegebene Problemstellung anpassen lassen:

Kernel-Trick[Bearbeiten | Quelltext bearbeiten]

Bei Kernel-Methoden gibt es den Kernel-Trick, mit dem z. B. ein linearer Klassifikator erfolgreich auf nicht linear klassifizierbare Daten angewendet werden kann. Dies wird erreicht, indem man die Daten in einen höherdimensionalen Raum transformiert, in welchem man sich eine bessere lineare Separierbarkeit erhofft (siehe Bild). Dieser Vorgang kann als eine Art Feature-Engineering aufgefasst werden.

Gegeben sei die Abbildung und ein Kernel Dann kann eine SVM mit diesem Kernel K(x , y) die roten und lila Datenpunkte durch eine Hyperebene trennen. Die 2d Trainingspunkte werden durch in den 3d-Raum abgebildet , wo eine trennende Hyperebene leicht gefunden werden kann.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Christopher M. Bishop: Pattern Recognition and Machine Learning. Information Science and Statistics, Springer-Verlag, 2008, ISBN 978-0387310732
  • Nello Cristianini, John Shawe-Taylor: Kernel Methods for Pattern Classification. Cambridge, 2004.
  • Bernhard Schölkopf, Alex Smola: Learning with Kernels. MIT Press, Cambridge, MA, 2002.
  • Thomas Hofmann, Bernhard Schölkopf, Alexander J Smola: Kernel methods in machine learning. In: Annals Statistics 36 (3) 2008: 1171–1220. PDF.

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Paul Wilmott: Grundkurs Machine Learning. 1. Auflage. Rheinwerk Verlag GmbH, Bonn 2020, ISBN 978-3-8362-7598-9, S. 133.