Machine Learning – kurz & gut. Oliver Zeigermann. Читать онлайн. Newlib. NEWLIB.NET

Автор: Oliver Zeigermann
Издательство: Bookwire
Серия: kurz & gut
Жанр произведения: Математика
Год издания: 0
isbn: 9783960105121
Скачать книгу
du den Schnelldurchlauf in Kapitel 2, Quick-Start, und das Kapitel 4, Supervised Learning, komplett lesen. Diese Kapitel enthalten die Kernthemen dieses Buchs.

      In Kapitel 4 werden wir uns durch die einzelnen klassischen Strategien des Supervised Learning hindurcharbeiten und dabei deren Unterschiede, Stärken und Schwächen kennenlernen. In Kapitel 2 findest du einen Schnelldurchlauf durch alle Stationen dieses Buchs.

      Die beiden Kapitel 5, Feature-Auswahl, und 6, Modellvalidierung, gehen etwas mehr in die Tiefe und beantworten Fragen, die eventuell in Kapitel 4 offengeblieben sind. Sie enthalten Formeln und erfordern ein wenig mathematisches Interesse und Verständnis.

      Kapitel 3, Datenimport und -vorbereitung, liegt uns persönlich besonders am Herzen. Oft fehlt dieser Teil in einführenden Büchern, da er als etwas mühsam und spaßfrei angesehen wird. Wir glauben, dass sogar die Vorbereitung der Daten spannend sein kann. Zudem sind gute Daten in der Regel die Voraussetzung für einen erfolgreichen Machine-Learning-Prozess. In diesem Kapitel schaffen wir zudem die technischen Grundlagen für den Umgang mit Python und seinen Bibliotheken.

      Kapitel 7, Neuronale Netze und Deep Learning, handelt vom Deep Learning mit neuronalen Netzen, dem zurzeit heißesten Thema im Bereich Machine Learning. Dies ist ebenso eine Strategie des Supervised Learning, ist aber in vielen Punkten anders als die zuvor in Kapitel 4 behandelten Strategien. Daher haben wir diesem Thema ein eigenes Kapitel spendiert. Hier wenden wir auch alles bisher Gelernte in einer praktischen Anwendung an, indem wir versuchen, Geschwindigkeitsbeschränkungen auf Verkehrsschildern zu erkennen.

      In Kapitel 8, Unsupervised Learning mit Autoencodern und Kapitel 9, Deep Reinforcement Learning gehen wir weiter auf dem Pfad der neuronalen Netze, und du erfährst, wie man diese für unüberwachtes und verstärkendes Lernen einsetzen kann.

       Arten von Machine Learning – ein Überblick

      Stell dir ein System vor, das sagen soll, ob auf einem Bild ein Hund zu sehen ist oder nicht. So etwas könntest du programmatisch mit Methoden der Bildverarbeitung umsetzen. Dazu könntest du einen Satz von Regeln anlegen, anhand derer das System entscheidet, ob es einen Hund gibt oder eben nicht. Solche Systeme sind nicht nur schwer zu entwickeln, es wird wahrscheinlich viele Hunde auch gar nicht erkennen oder in manchen Bildern fälschlicherweise Hunde vermuten. Was macht man da? Man fügt neue Regeln hinzu, und andere verfeinert man manuell.

      Mit einem Machine-Learning-Ansatz würde das ganz anders laufen. Du müsstest ein System konfigurieren und mit entsprechenden Hundebildern (und Bildern ohne Hund) in einer Lernphase trainieren. Das System lernt dann im Idealfall selbst die Regeln, die du sonst als Programmierer hättest explizit aufzählen müssen.

      Von Machine Learning spricht man, wenn man einen Computer nicht direkt programmiert, sondern wenn diese Maschine bestimmte Fähigkeiten erlernt. In der klassischen Programmierung bringen wir ein Modell in ein Stück Code, mit dem wir eine Eingabe in eine Ausgabe wandeln. Im Machine Learning drehen wir das um und lassen die Maschine das Modell aus passenden Sätzen von Ein- und Ausgaben erlernen. Dies illustriert Abbildung 1-1. Ein solches Vorgehen nennt man auch Supervised Learning (überwachtes Lernen), da wir unser System aktiv durch zueinander passende Datensätze trainieren.

       Abbildung 1-1: Maschinelles Lernen vs. klassische Programmierung

       Supervised Learning

      Man kann den Bereich Machine Learning anhand unterschiedlicher Ansätze unterteilen. Beim Supervised Learning (dem überwachten Lernen) trainierst du ein System mit Datensätzen aus Eingabe und erwarteter Ausgabe.

      Für das Beispiel mit den Hundebildern musst du einen Satz von Bildern mit Hunden und ohne Hunde heraussuchen. Um den Trainingserfolg zu überprüfen, nimmst du einen anderen, bisher dem System nicht bekannten Teil der Bilder und lässt das System entscheiden, ob das Bild einen Hund enthält oder nicht. Da du für diese Bilder ja schon das richtige Ergebnis kennst, kannst du sehen, wie gut das System gelernt hat. Im Idealfall kann das System in dieser Testphase alle Bilder richtig zuordnen. Wo die Grenzen solcher Systeme gerade im Bereich Bilderkennung sind und was du machen kannst, falls das System nicht richtig lernt, thematisieren wir in einem praktischen Beispiel in Kapitel 7, Neuronale Netze und Deep Learning.

       Klassifikation und Regression

      So ein Beispiel nennt man auch eine Klassifikation. Das System lernt, Bilder in die beiden Klassen »Bild mit Hund« und »Bild ohne Hund« einzusortieren. Oft gibt es bei einer Klassifikation nur zwei Klassen, z.B. ob ein selbstfahrendes Auto in einer bestimmten Situation bremsen sollte oder nicht oder ob auf einem Ultraschallbild Krebs vermutet wird oder nicht. Häufig wird sich in einem solchen Fall nicht strikt für Ja oder Nein entschieden, stattdessen wird die Vorhersage mit einer Gewissheit versehen, meist einer Zahl zwischen 0 und 1.

      Es gibt auch Klassifikationen, die zwischen einer ganzen Reihe von Klassen entscheiden, z.B. bei einer Handschriftenerkennung der Ziffern 0 bis 9, die bei Postsendungen zum Einsatz kommt. Hier haben wir zehn Klassen, nämlich für jede Ziffer von 0 bis 9 eine. Auch hier bekommen wir Wahrscheinlichkeiten pro Ziffer.

      Der zweite Problembereich des Supervised Learning ist die Regression – also das Erlernen einer kontinuierlichen Funktion – anhand von Werten, die auf dieser Funktion liegen. Das wäre z.B. der Fall, wenn wir das Gewicht eines Hundes anhand bestimmter Parameter oder sogar eines Bilds des Tieres vorhersagen wollen.

      Manchmal ist es gar nicht so einfach, den richtigen Ansatz für ein bestehendes Problem zu finden. Wenn die Ausgabe diskrete Werte sind (z.B. die Ziffern 0 bis 9), ist es wahrscheinlich ein Klassifikationsproblem. Hat man kontinuierliche Werte, wie bei dem Gewicht eines Hundes, ist es ein Regressionsproblem.

       Unsupervised Learning

      Beim Ansatz des Unsupervised Learning (des unüberwachten Lernens) sind keine Labels, also keine Vorgaben der richtigen Lösungen notwendig.

       Clustering

      Ein Beispiel sind sogenannte Clustering-Verfahren: Sie nehmen