Voraussetzungen
Obwohl es keine formellen Voraussetzungen gibt, sollten die Studierenden über grundlegende Kenntnisse in Python (Grundlagen der objektorientierten Programmierung), der PyData-Stack (Numpy, Pandas, Matplotlib, Scikit-Learn) und Konzepten des maschinellen Lernens (überwachtes Lernen, Verlustfunktionen, Aufteilung in Trainings-, Validierungs- und Testdaten, Evaluationsmetriken) verfügen.
Inhalt
Introduction
- Who You Are
- Who we are
- Copyright and No Confidential Information
- Training
- Certification Programs and Digital Badging
PyTorch, Datasets, and Models
- What is PyTorch
- The PyTorch Ecosystem
- Supervised vs Unsupervised Learning
- Software Development vs Machine and Deep Learning
- 'Hello Model'
- Naming Is Hard
- Setup and Environment
Building Your First Dataset
- Tensors, Devices, and CUDA
- Datasets
- Dataloaders
- Datapipes
- Lab 1A: Non-Linear Regression
- Rekapitulation
- Modelle
- Verlustfunktionen
- Gradienten und Autograd
- Optimierer
- Der Roh-Trainingszyklus
- Evaluation
- Speichern und Laden von Modellen
- Nichtlinearitäten
- Lab 1B: Nichtlineare Regression
Building Your First Datapipe
- Ein neuer Datensatz
- Lab 2: Preisvorhersage
- Rundgang durch High-Level-Bibliotheken
Transfer Learning and Pretrained Models
- Was ist Transfer Learning?
- Torch Hub
- Computer Vision
- Dropout
- ImageFolder Dataset
- Lab 3: Klassifizierung von Bildern
Pretrained Models for Computer Vision
- PyTorch Image Models
- HuggingFace
Natural Language Processing
- Natural Language Processing
- Ein Logit oder zwei Logits?
- Cross-Entropy Loss
- TensorBoard
- Lab 4: Sentiment Analysis
- Hugging Face Pipelines
- Generative Models
Fine-Tuning Pretrained Models for Computer Vision
- Fine Tuning vortrainierter Modelle
- Zero-shot Image Classification
Serving Models with TorchServe
- Archivierung und Bereitstellung von Modellen
- TorchServe
Datasets and Transformations for Object Detection and Image Segmentation
- Objekterkennung, Bildsegmentierung und Keypoint-Erkennung
- Bounding Boxes
- Torchvision Operatoren
- Transforms (V2)
- Benutzerdefinierter Datensatz für Objekterkennung
- Lab 5A: Feinabstimmung von Objekterkennungsmodellen
Modelle für Objekterkennung und Bildsegmentierung
- Modelle
- Labor 5B: Feinabstimmung von Objekterkennungsmodellen
Modelle für die Bewertung der Objekterkennung
- Rückblick
- Prognosen erstellen
- Bewertung
- YOLO
- HuggingFace Pipelines für die Objekterkennung
- Objekterkennung ohne vorheriges Training
Wort-Einbettungen und Textklassifikation
- Torchtext
- AG News Datensatz
- Tokenisierung
- Einbettungen
- Vektor-Datenbanken
- Textklassifikation ohne vorheriges Training
- Chunking-Strategien
- Labor 6: Textklassifikation unter Verwendung von Einbettungen
Kontextuelle Wort-Einbettungen mit Transformers
- Attention is All You Need
- Transformer
- Ein auf Encoder basierendes Modell für die Klassifikation
- Kontextuelle Einbettungen
Huggingface Pipelines für NLP-Aufgaben
- HuggingFace Pipelines
- Labor 7: Dokumenten-Fragen und Antworten
Fragen und Antworten, Zusammenfassung und LLMs
- EDGAR-Datensatz
- Halluzinationen
- Asymmetrische semantische Suche
- ROUGE Score
- Decoder-basierte Modelle
- Große Sprachmodelle (LLMs)
Abschluss und Evaluierungsumfrage
- Evaluierungsumfrage
Kurszeiten
Wer möchte, reist bis 22 Uhr am Vortag an und nutzt den Abend bereits zum Fachsimpeln am Kamin oder im Park.
An Kurstagen gibt es bei uns ab 8 Uhr Frühstück.
Unsere Kurse beginnen um 9 Uhr und enden um 18 Uhr.
Neben den kleinen Pausen gibt es eine Stunde Mittagspause mit leckerem, frisch in unserer Küche zubereitetem Essen.
Nach der Schulung anschließend Abendessen und Angebote für Fachsimpeln, Ausflüge uvm. Wir schaffen eine Atmosphäre, in der Fachleute sich ungezwungen austauschen. Wer das nicht will, wird zu nichts gezwungen und findet auch jederzeit Ruhe.