Nexuformis

Wie wir Deep Learning unterrichten

Seit 2022 entwickeln wir Kurse, die tatsächlich funktionieren. Keine abstrakten Theorien ohne Kontext. Stattdessen zeigen wir, wie man neuronale Netze baut, trainiert und in echten Projekten einsetzt.

Unsere Methode basiert auf praktischer Implementierung. Studierende schreiben Code von der ersten Woche an und arbeiten sich durch reale Probleme, die in der Industrie vorkommen.

Praktische Deep Learning Entwicklungsumgebung mit Code-Editor und Netzwerkvisualisierung

Warum wir das machen

Deep Learning ist nicht kompliziert, weil es schwer ist. Es ist kompliziert, weil die meisten Kurse bei Mathematik anfangen und dann erwarten, dass man den Sprung zur Implementierung selbst macht.

Wir haben beide jahrelang in Forschung und Industrie gearbeitet. Annika hat Produktionsnetze für Bilderkennung gebaut, Livia hat adaptive Lernsysteme entwickelt. Dabei haben wir gesehen, was funktioniert und was nicht.

2022 haben wir Nexuformis gegründet, um einen anderen Ansatz zu zeigen. Man lernt am besten, indem man Dinge baut und dabei versteht, warum sie funktionieren oder nicht funktionieren.

Unsere Studierenden verbringen 70% der Zeit mit Code schreiben und debuggen. Das ist anstrengend, aber es ist auch der einzige Weg, um wirklich zu verstehen, was in einem neuronalen Netz passiert.

2022

Gründung und erste Kurse

Wir haben mit 15 Studierenden angefangen. Der Kurs dauerte 8 Wochen und konzentrierte sich auf Convolutional Networks für Bildverarbeitung. Die meisten hatten vorher nur mit scikit-learn gearbeitet.

2023

Erweiterung auf Sequenzmodelle

Wir haben Kurse für Recurrent Networks und Transformer hinzugefügt. Das war technisch herausfordernd, weil diese Architekturen mehr Vorwissen über Optimierung erfordern.

2024

Spezialisierte Tracks

Wir bieten jetzt getrennte Pfade für Computer Vision und Natural Language Processing an. Jeder Track hat eigene Projekte und technische Schwerpunkte.

Aktuell

Fortgeschrittene Themen

Neue Module zu Reinforcement Learning und Generative Models sind verfügbar. Diese bauen auf den Grundkursen auf und erfordern solides Verständnis von Gradientenoptimierung.

Wer hinter Nexuformis steht

Wir haben beide unterschiedliche Hintergründe, aber ähnliche Erfahrungen mit frustrierenden Lernressourcen in Deep Learning. Deshalb machen wir es anders.

Annika Bergström, Gründerin und technische Leiterin bei Nexuformis

Annika Bergström

Gründerin & technische Leiterin

Ich habe 8 Jahre in industrieller KI gearbeitet, hauptsächlich Computer Vision für Produktionslinien. Die meiste Zeit ging dafür drauf, Netze zu debuggen, die nicht konvergieren wollten.

Bei Nexuformis konzentriere ich mich auf die technischen Kursinhalte. Ich zeige Studierenden, wie man systematisch Probleme mit Training und Architektur angeht, weil das in echten Projekten den Unterschied macht.

Netzarchitekturen PyTorch Production Deployment
Livia Kowalczyk, Mitgründerin und Bildungsdirektorin bei Nexuformis

Livia Kowalczyk

Mitgründerin & Bildungsdirektorin

Mein Hintergrund ist Forschung in computergestütztem Lernen. Ich habe adaptive Systeme entwickelt, die sich an individuelle Lerngeschwindigkeiten anpassen.

Bei Nexuformis strukturiere ich, wie wir Konzepte vermitteln. Ich achte darauf, dass die Reihenfolge der Themen Sinn ergibt und dass Studierende genug Zeit für praktische Übungen haben, bevor wir zum nächsten Thema gehen.

Curriculum Design Adaptive Learning Assessment Systems
01

Code vor Theorie

Wir fangen mit funktionierendem Code an. Dann erklären wir, warum er funktioniert und was passiert, wenn man Dinge ändert. Das ist effektiver als mathematische Ableitungen ohne Kontext.

Jupyter Notebook mit Deep Learning Code und Trainingsgrafiken
Visualisierung von Netzwerkarchitekturen und Datenfluss
02

Echte Probleme lösen

Jedes Projekt basiert auf realen Aufgaben. Bildklassifikation mit unbalancierten Klassen, Textgenerierung mit begrenzten Daten, Objekterkennung in schwierigen Lichtverhältnissen. Das sind die Probleme, die tatsächlich auftauchen.

03

Fehler sind Teil des Prozesses

Netze, die nicht trainieren. Loss-Funktionen, die explodieren. Overfitting trotz Regularisierung. Wir zeigen, wie man diese Probleme identifiziert und systematisch behebt, weil das 80% der praktischen Arbeit ausmacht.

Terminal mit Training-Logs und Debugging-Output