Attention Is All You Need: Die Transformer-Architektur
Aktuelle Entwicklungen bei Sprachmodellen
17Representation Learning und Generative Learning mit Autoencodern und GANs
Effiziente Repräsentation von Daten
Hauptkomponentenzerlegung mit einem untervollständigen linearen Autoencoder
Einen Stacked Autoencoder mit Keras implementieren
Visualisieren der Rekonstruktionen
Den Fashion-MNIST-Datensatz visualisieren
Unüberwachtes Vortrainieren mit Stacked Autoencoder
Trainieren mehrerer Autoencoder nacheinander
Generative Adversarial Networks
Schwierigkeiten beim Trainieren von GANs
Lernen zum Optimieren von Belohnungen
Auswerten von Aktionen: Das Credit-Assignment-Problem
Approximatives Q-Learning und Deep-Q-Learning
Deep-Q-Learning implementieren
Priorisiertes Experience Replay
Umgebungswrapper und Atari-Vorverarbeitung