Voraussetzungen
Obwohl es keine formellen Voraussetzungen gibt, sollten die Studierenden über grundlegende Kenntnisse in Python (Grundlagen der objektorientierten Programmierung), der PyData-Stack (Numpy, Pandas, Matplotlib, Scikit-Learn) und Konzepten des maschinellen Lernens (überwachtes Lernen, Verlustfunktionen, Aufteilung in Trainings-, Validierungs- und Testdaten, Evaluationsmetriken) verfügen.
Inhalt
Introduction
- Who You Are
 - Who we are
 - Copyright and No Confidential Information
 - Training
 - Certification Programs and Digital Badging
 
PyTorch, Datasets, and Models
- What is PyTorch
 - The PyTorch Ecosystem
 - Supervised vs Unsupervised Learning
 - Software Development vs Machine and Deep Learning
 - 'Hello Model'
 - Naming Is Hard
 - Setup and Environment
 
Building Your First Dataset
- Tensors, Devices, and CUDA
 - Datasets
 - Dataloaders
 - Datapipes
 - Lab 1A: Non-Linear Regression
 
- Rekapitulation
 - Modelle
 - Verlustfunktionen
 - Gradienten und Autograd
 - Optimierer
 - Der Roh-Trainingszyklus
 - Evaluation
 - Speichern und Laden von Modellen
 - Nichtlinearitäten
 - Lab 1B: Nichtlineare Regression
 
Building Your First Datapipe
- Ein neuer Datensatz
 - Lab 2: Preisvorhersage
 - Rundgang durch High-Level-Bibliotheken
 
Transfer Learning and Pretrained Models
- Was ist Transfer Learning?
 - Torch Hub
 - Computer Vision
 - Dropout
 - ImageFolder Dataset
 - Lab 3: Klassifizierung von Bildern
 
Pretrained Models for Computer Vision
- PyTorch Image Models
 - HuggingFace
 
Natural Language Processing
- Natural Language Processing
 - Ein Logit oder zwei Logits?
 - Cross-Entropy Loss
 - TensorBoard
 - Lab 4: Sentiment Analysis
 - Hugging Face Pipelines
 - Generative Models
 
Fine-Tuning Pretrained Models for Computer Vision
- Fine Tuning vortrainierter Modelle
 - Zero-shot Image Classification
 
Serving Models with TorchServe
- Archivierung und Bereitstellung von Modellen
 - TorchServe
 
Datasets and Transformations for Object Detection and Image Segmentation
- Objekterkennung, Bildsegmentierung und Keypoint-Erkennung
 - Bounding Boxes
 - Torchvision Operatoren
 - Transforms (V2)
 - Benutzerdefinierter Datensatz für Objekterkennung
 - Lab 5A: Feinabstimmung von Objekterkennungsmodellen
 
Modelle für Objekterkennung und Bildsegmentierung
- Modelle
 - Labor 5B: Feinabstimmung von Objekterkennungsmodellen
 
Modelle für die Bewertung der Objekterkennung
- Rückblick
 - Prognosen erstellen
 - Bewertung
 - YOLO
 - HuggingFace Pipelines für die Objekterkennung
 - Objekterkennung ohne vorheriges Training
 
Wort-Einbettungen und Textklassifikation
- Torchtext
 - AG News Datensatz
 - Tokenisierung
 - Einbettungen
 - Vektor-Datenbanken
 - Textklassifikation ohne vorheriges Training
 - Chunking-Strategien
 - Labor 6: Textklassifikation unter Verwendung von Einbettungen
 
Kontextuelle Wort-Einbettungen mit Transformers
- Attention is All You Need
 - Transformer
 - Ein auf Encoder basierendes Modell für die Klassifikation
 - Kontextuelle Einbettungen
 
Huggingface Pipelines für NLP-Aufgaben
- HuggingFace Pipelines
 - Labor 7: Dokumenten-Fragen und Antworten
 
Fragen und Antworten, Zusammenfassung und LLMs
- EDGAR-Datensatz
 - Halluzinationen
 - Asymmetrische semantische Suche
 - ROUGE Score
 - Decoder-basierte Modelle
 - Große Sprachmodelle (LLMs)
 
Abschluss und Evaluierungsumfrage
- Evaluierungsumfrage
 
Kurszeiten
Wer möchte, reist bis 22 Uhr am Vortag an und nutzt den Abend bereits zum Fachsimpeln am Kamin oder im Park.
An Kurstagen gibt es bei uns ab 8 Uhr Frühstück.
Unsere Kurse beginnen um 9 Uhr und enden um 18 Uhr.
Neben den kleinen Pausen gibt es eine Stunde Mittagspause mit leckerem, frisch in unserer Küche zubereitetem Essen.
Nach der Schulung anschließend Abendessen und Angebote für Fachsimpeln, Ausflüge uvm. Wir schaffen eine Atmosphäre, in der Fachleute sich ungezwungen austauschen. Wer das nicht will, wird zu nichts gezwungen und findet auch jederzeit Ruhe.