Deep Learning Programmierung – Vom Grundkonzept bis zur Anwendung
Strukturiertes Programm mit praktischem Fokus auf neuronale Netze, Datenverarbeitung und Modelltraining. Für alle, die verstehen wollen, wie moderne KI-Systeme funktionieren.
Grundlagen neuronaler Netze
Verstehen Sie die Mechanik hinter Perceptrons, Aktivierungsfunktionen und Backpropagation. Mathematische Konzepte werden praktisch umgesetzt und getestet.
Convolutional Networks
Bildverarbeitung mit CNNs: von einfachen Klassifikatoren bis zu komplexen Architekturen. Sie lernen Filter, Pooling-Schichten und Transfer Learning praktisch anzuwenden.
Recurrent Networks & NLP
Sequenzverarbeitung mit RNNs und LSTMs. Von Textklassifikation bis Sprachmodelle – praktische Implementierung mit echten Datensätzen und modernen Frameworks.
Wie das Programm aufgebaut ist
Drei aufeinander aufbauende Phasen führen Sie von theoretischen Grundlagen zur praktischen Anwendung. Jede Phase schließt mit einem eigenen Projekt ab.
Mathematische Grundlagen
Lineare Algebra, Differentialrechnung und Wahrscheinlichkeitstheorie – alles mit direktem Bezug zu neuronalen Netzen. Sie arbeiten mit NumPy und verstehen, was im Code passiert.
Framework-Training
PyTorch und TensorFlow richtig einsetzen: Datenpipelines bauen, Modelle trainieren, Hyperparameter optimieren. Sie lernen die Werkzeuge kennen, mit denen echte Projekte umgesetzt werden.
Anwendungsprojekt
Eigenes Modell von Grund auf entwickeln: Problemdefinition, Datenaufbereitung, Architekturwahl, Training und Evaluation. Am Ende haben Sie ein funktionierendes System.
Detaillierter Lehrplan
- Perceptrons und Multi-Layer-Architekturen
- Aktivierungsfunktionen: ReLU, Sigmoid, Tanh im Vergleich
- Backpropagation: Mathematik und Implementierung
- Gradient Descent und Optimierungsalgorithmen
- Loss-Funktionen für verschiedene Aufgaben
- Overfitting vermeiden: Regularisierung und Dropout
- Convolutional Layer: Filter und Feature Maps
- Pooling-Strategien und ihre Auswirkungen
- Klassische Architekturen: LeNet, AlexNet, VGG
- ResNet und Skip Connections
- Transfer Learning für praktische Anwendungen
- Data Augmentation zur Verbesserung der Generalisierung
- Recurrent Neural Networks: Grundkonzept und Probleme
- LSTM und GRU: Lösung des Vanishing Gradient Problems
- Word Embeddings: Word2Vec und GloVe
- Attention Mechanism und Transformer
- Textklassifikation und Sentiment-Analyse
- Sequence-to-Sequence Modelle
- Generative Adversarial Networks (GANs)
- Variational Autoencoders für Representation Learning
- Reinforcement Learning Grundlagen
- Model Compression und Deployment
- Hyperparameter Tuning systematisch angehen
- Debugging und Performance-Optimierung
Dr. Marlene Aigner
Leitende Dozentin für Deep Learning
Mit sieben Jahren Erfahrung in angewandter KI-Forschung bringe ich praktisches Wissen aus echten Projekten mit. Nach meiner Promotion in Computer Vision habe ich bei einem Münchner Forschungsinstitut an Objekterkennung und medizinischer Bildverarbeitung gearbeitet.
Mein Fokus liegt darauf, komplexe Konzepte verständlich zu machen. Ich zeige nicht nur, wie Algorithmen funktionieren, sondern auch, wie man typische Probleme löst und wo Fallstricke lauern. Die Teilnehmer arbeiten mit realen Daten und lernen, Entscheidungen bei der Modellentwicklung zu treffen.
Dipl.-Inf. Katrin Vollmer
Technische Tutorin & Projektbetreuung
Als Software-Ingenieurin mit Fokus auf Machine Learning Pipeline Development unterstütze ich bei der praktischen Umsetzung. Ich helfe bei technischen Fragen zu PyTorch, TensorFlow und bei der Einrichtung von Trainingsumgebungen.
Meine Stärke ist es, Teilnehmer bei der Fehlersuche zu unterstützen und praktische Tipps für effizientes Arbeiten zu geben. Ich führe wöchentliche Code-Reviews durch und beantworte Fragen zu Best Practices.
Bereit, Deep Learning praktisch zu lernen?
Der nächste Durchgang startet in Kürze. Plätze sind begrenzt, damit wir individuelle Betreuung gewährleisten können.