Vorlesung 13 - Künstliche Intelligenz in der Medienverarbeitung¶
Datum: 12.01.2026
Ziele¶
- Künstliche Intelligenz in der Medienverarbeitung, insbesondere generative KI verstehen
Drehbuch¶
| Was | Dauer | Material |
|---|---|---|
| State of the art in video generation | 10 min | Synthesia example |
| Generative KI, Grundlagen und Beispiele | 45 min | DAVT-12-GenAI.pdf |
Weitere Materialien und Quellen¶
- Unofficial Parallel WaveGAN implementation demo
- Autoencoders | Deep Learning Animated by Deepia (Thibaut Modrzyk)
- The Illustrated Stable Diffusion by Jay Alammar
Empfohlene YouTube-Playlists¶
- MIT 6.S087: Foundation Models & Generative AI (2024) - Rickard Brüel Gabrielsson
- Deep Learning Animated - Deepia
Ergebnisse¶
Tafelbilder¶
- Fehlanzeige
Was man verstanden haben sollte¶
- Ich habe eine grobe Vorstellung was ein GAN ist und weiß, welche Daten man benötigt um es zu trainieren.
- Ich weiß was ein Autoencoder ist und wie er funktioniert.
- Ich habe grob verstanden, wie Stable Diffusion funktioniert und weiß dass es neuere Methoden wie Flow Matching gibt.
- Ich weiß, dass die Idee der Autoencoder in vielen generativen KI Modellen steckt.
- Ich habe gehört und gesehen, dass man inzwischen mit KI Methoden Audio- und Videodaten erzeugen kann, die von "echten" Aufnahmen nicht ohne Weiteres zu unterscheiden sind.