Jungwissenschaftler/innen 2019

Am 13. Dezember 2019 wurden neun neue Jungwissenschaftler/innen ausgezeichnet:

  • Dr. Zeynep Akata, Universität Tübingen
  • Andreas Dörr, Robert Bosch GmbH
  • Stefan Gavranovic, Siemens AG
  • Christoph Kolbitsch, Physikalisch-Technische Bundesanstalt
  • Gerhard Kurz, Robert Bosch GmbH
  • Stefan Notter, Universität Stuttgart
  • Oliver Ruf, Julius-Maximilians-Universität Würzburg
  • Frank Schlawin, Universität Oxford
  • Arne Speerforck, Vaillant GmbH

In der neuen Buchpublikation „Ausgezeichnete Forschungsbeiträge 2019“ (ISBN 978-3-8007-5126-6) werden die einzelnen Arbeiten auf 132 Seiten ausführlich dargestellt.

Zu den Fotos der Preisverleihung in der BMW Welt München am 13. Dezember 2019.

Die Jungwissenschaftler/innen 2019
und ihre Forschungsthemen im Kurzportrait

Prof. Dr. Zeynep Akata, Universität Tübingen
// Erklärbares Maschinelles Lernen //

Maschinelles Lernen im Allgemeinen und Computer Vision im Besonderen revolutionieren das, was wir mit Künstlicher Intelligenz (KI) erreichen können – von der Bild- und Videosuche über Empfehlungssysteme bis hin zum autonomen Fahren. Jüngste Fortschritte in diesem Bereich werden durch die Verfügbarkeit umfangreicher, vollständiger Datensätze und den Einsatz von Deep-Learning-Techniken beflügelt.

Zwei wichtige Herausforderungen stehen im Zentrum der Forschung von Zeynep Akata. Erstens, wie können wir Deep-Learning-Methoden effektiv trainieren, wenn keine, oder nur begrenzte Mengen an Daten verfügbar sind. Und zweitens, wie können wir Entscheidungen von KI-Systemen erklären, so dass sie auch Nutzerinnen und Nutzern ohne tieferes Fachwissen verständlich werden. Letzteres wird oft als Erklärbare Künstliche Intelligenz bezeichnet.

Für beide Herausforderungen hat sich die natürliche Sprache als äußerst wertvoll erwiesen. Im Zusammenhang mit Erklärbarer Künstlicher Intelligenz hat Zeynep Akata neue, sprachbasierte Erklärungsmodelle erarbeitet, um das Vertrauen der Nutzer/innen in KI zu stärken. Und auch im Kontext von Deep-Learning-Modellen mit begrenzten Datenmengen hat sich die Klassifizierung mittels natürlicher Sprache als sehr effektiv erwiesen.

Zeynep Akata ist eine junge und brillante Forscherin, die in der Forschungscommunity für Maschinelles Lernen hoch angesehen ist. Sie ist eine aufstrebende Führungspersönlichkeit auf diesem Gebiet, und ihre Beiträge werden in Zukunft sowohl für die Forschung als auch für die Gesellschaft von großer Relevanz sein. In einer beginnenden Ära der künstlichen Intelligenz legt die Forschung von Zeynep Akata den Grundstein, um die Black Box des Deep Learning zu öffnen und Vertrauen in KI-Systeme zu schaffen.

Seit Oktober 2019 ist Zeynep Akata Professorin für „Erklärbares Maschinelles Lernen“ an der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Tübingen und Teil des Exzellenzclusters „Maschinelles Lernen: Neue Perspektiven für die Wissenschaften“.

Nach ihrer Promotion im Jahr 2014 am Forschungsinstitut INRIA Rhone Alpes arbeitete Zeynep Akata von 2014 bis 2017 als Postdoktorandin am Max-Planck-Institut für Informatik und während dieser Zeit auch als Gastwissenschaftlerin an der University of California, Berkeley, mit Prof. Trevor Darrell. Bis vor Kurzem war sie Juniorprofessorin an der Universität von Amsterdam und wissenschaftliche Leiterin des dort ansässigen Delta Lab.

Andreas Dörr, Robert Bosch GmbH
// Reinforcement Learning für Künstliche Intelligenz //

Künstliche Intelligenz (KI) gehört wohl zu den aussichtreichsten Forschungsthemen unserer heutigen Zeit. Die Hoffnungen in Bezug auf KI reichen von verbesserter Effizienz und Automatisierung über die Schaffung völlig neuer Geschäftsmodelle bis hin zum Versprechen, die menschliche Intelligenz zu verstehen und zu replizieren. Das Feld steckt jedoch noch in den Kinderschuhen. Und so wird oft eine Debatte über den alchemistischen Charakter von KI-Methoden geführt, die aus theoretischer Sicht noch nicht vollständig verstanden sind. Die allgegenwärtigen Versprechen der KI werden jedoch durch eindrucksvolle Ergebnisse in bestimmten Bereichen wie Bild-, Video- und Text- oder Sprachverständnis untermauert und beflügelt. Ebenso wurden bei Entscheidungsproblemen wie Schach oder Go übermenschliche Leistungen erzielt.

KI-Forschung kann uns helfen, mit immer komplexer werdenden Prozessen oder Produkten und der uns umgebenden Welt umzugehen. Insbesondere Reinforcement-Learning-Methoden haben für KI das Potential, um automatisch, effizient und ohne Vorgaben optimale Kontrollstrategien für komplexe Systeme abzuleiten. Drei gemeinsame Faktoren können bei den meisten erfolgreichen KI-Anwendungen gefunden werden. Erstens: Die Entdeckung einer cleveren Problemstruktur. Zweitens: Die Verfügbarkeit von massiven Mengen an Computerhardware, Infrastruktur und skalierbaren Algorithmen. Und Drittens: Riesige Datenmengen.

Seit 2015 promoviert Andreas Dörr am Max-Planck-Institut für Intelligente Systeme und dem Bosch Center for Artificial Intelligence. Er forscht dort an neuartigen Reinforcement-Learning-Methoden, die ein schnelles Lernen auf realen Systemen ermöglichen, auch wenn die Menge der verfügbaren Daten sehr begrenzt ist. So werden neue, automatisierte Regelungen von komplexen Systemen möglich, wie z. B. der Regelung von Fahrzeugverhalten in Extremsituationen.

Die Ideen, Algorithmen und Systeme, die aus seiner Arbeit am Bosch Center for Artificial Intelligence hervorgegangen sind, haben zu verschiedenen Erfindungen und Patenten geführt. In Zusammenarbeit mit Forscherinnen und Forschern des Max-Planck-Instituts für Intelligente Systeme und des Labors für maschinelles Lernen und Robotik der Universität Stuttgart wurden Forschungsergebnisse auf den führenden internationalen Konferenzen für Robotik und maschinelles Lernen veröffentlicht.

Die Forschungsergebnisse von Andreas Dörr erweitern unser Wissen darüber, wie man automatisch und robust lernt, komplexe und schwer modellierbare Systeme zu steuern – wie beispielsweise das autonome Fahren in hochdynamischen Situationen.

Stefan Gavranovic Siemens AG
// 3D-Simulation und Topologieoptimierung //

Was wäre, wenn 3D-Simulationen um mehrere Größenordnungen schneller werden könnten? Und was wäre, wenn diese Methoden auch von Nicht-Experten angewendet werden könnte? Dieser Vision geht Stefan Gavranovic seit 2015 bei der Siemens AG nach. Bereits in seiner Masterarbeit im Jahr 2015 hat er mit einem ersten Prototyp gezeigt, dass dies keine Zukunftsvision ist, sondern durch Verwendung von neusten mathematischen Algorithmen und massiv parallelen Prozessoren auf Grafikkarten ein realistisches Ziel ist.

Stefan Gavranovic hat Algorithmen so spezifisch für die Grafikprozessoren angepasst, dass eine Beschleunigung von über einen Faktor 1.000 im Vergleich zu heutigen Simulationstools erreicht werden konnte. Dabei fokussierte er sich auf die Strukturoptimierung im Bereich der additiven Fertigung und des 3D-Drucks.

Seit 2016 promoviert Stefan Gavranovic bei Siemens AG und an der TU München zu neuartigen Methoden der physikalischen 3D-Simulationen im industriellen Umfeld (Thermo-Mechanik und Strömungsmechanik). Um einen optimalen Ansatz zu finden, erforscht er hierbei eine Vielzahl von alternativen Konzepten wie z.B. die Kombination von neuronalen Netzwerken, physikalischen Simulationen und Topologieoptimierung.

Kombiniert mit mathematischen Optimierungsmethoden wie der Topologieoptimierung zeigten die Methoden das Potential, neuartige Design-Assistenten für strukturmechanische, thermische und strömungstechnische Komponenten zu entwerfen – und damit letztendlich die Anzahl von potentiellen Nutzerinnen und Nutzern entsprechender Simulationstools von heute ca. 3 bis 5 Millionen Simulationsexperten auf zukünftig weltweit 30 bis 50 Millionen Designer/innen zu erweitern.

Parallel zu seiner laufenden Promotion verantwortet Stefan Gavranovic bei der Siemens AG bereits heute den Prozess der Softwareentwicklung mit dem Ziel, die Ergebnisse seiner Promotion in einen Prototyp zu überführen – eine außergewöhnliche Verantwortung für einen Doktorrandenden. Von einer Promotion zum Produkt in einer solch kurzen Zeitspanne, ist eine außergewöhnliche Leistung, wie wir sie nicht oft erleben.

Dr. Christoph Kolbitsch, Physikalisch-Technische Bundesanstalt
// Verbesserte Bildgebung für MRT //

Die medizinische Bildgebung ist ein unverzichtbares Werkzeug in der modernen klinischen Diagnose. Trotz aller technischen Innovationen in den letzten Jahrzehnten ist die Bewegung von Organen während der Bildaufnahme immer noch eine der größten Herausforderungen und wirkt sich massiv auf Messgenauigkeit und Bildqualität aus. Eine kürzlich publizierte US-amerikanische Studie zeigt, dass ca. 20% aller klinischen Magnetresonanz-Aufnahmen aufgrund von Bewegungsartefakten wiederholt werden müssen. Neben der zusätzlichen zeitlichen Belastung für den Patienten führt dies auch zu erheblichen Mehrkosten.

Christoph Kolbitsch beschäftigt sich seit 10 Jahren mit dem Problem der physiologischen Bewegung in der quantitativen Magnetresonanztomographie (MRT). Er hat hierbei einen neuen Ansatz erforscht, der es erlaubt, die physiologische Bewegung von Organen direkt aus den aufgenommenen MR-Daten zu bestimmen und zu korrigieren. Dazu wurden eine Reihe von innovativen technischen Lösungen entwickelt, welche sowohl die Bildqualität als auch insbesondere die Messgenauigkeit der quantitativen Bildgebung verbessern. So werden unter anderem neuronale Netzwerke verwendet, um eine hohe Bildqualität von funktionalen Aufnahmen zu gewährleisten und gleichzeitig die Zeitdauer der Messung so kurz wie möglich zu halten.

Der Erfolg von Christoph Kolbitsch liegt nicht nur in seiner Fachkompetenz, sondern auch in seiner Zusammenarbeit mit klinischen (Charité Berlin, National Institutes of Health (USA)), universitären (TU-Berlin, University College London) und industriellen (Philips, Siemens Healthineers) Partnern. Diese interdisziplinären Kooperationen stellen sicher, dass die erarbeiteten Lösungen immer auch schnellen Eingang in die klinische Praxis finden.

Dr. Gerhard Kurz, Robert Bosch GmbH
// Lokalisierung und Navigation //

Bereits vor Jahrzehnten fanden die ersten Roboter ihren Einzug in die industrielle Fertigung. Diese Roboter arbeiten in einer bekannten, genau kontrollierten Umgebung und führen fest vorgegebene Arbeitsschritte aus. Doch Roboter finden inzwischen Einzug in den Alltag, erleichtern uns das Leben und nehmen Menschen lästige, gefährliche oder gesundheitsschädliche Arbeiten ab. Daher sind die Anforderungen an Roboter mittlerweile gewachsen. Roboter sollen sich in unbekannten Umgebungen zurechtfinden, sicher und zuverlässig mit Menschen interagieren und ihr Verhalten an die aktuelle Situation anpassen.

Um diese Herausforderungen zu meistern, befasst sich Gerhard Kurz in seiner Forschung mit der Fragestellung, wie sich Roboter in einer komplexen und dynamischen Welt zurechtfinden können. Dafür arbeitet er an der sogenannten simultanen Lokalisierung und Kartographierung. Dabei bewegt sich ein Roboter durch seine Umwelt und erstellt dabei eine Karte dieser Umgebung. Gleichzeitig bestimmt der Roboter fortlaufend seine Position innerhalb dieser Karte.

Stellen Sie sich beispielsweise einen Staubsaugroboter vor. Wird der Roboter zum ersten Mal eingeschaltet, so hat er noch keinerlei Kenntnis über seine Umgebung. Fährt er nun durch die Wohnung, so kann er eine Karte erstellen und basierend auf dieser Karte eine optimale Route planen, um die gesamte Wohnung zu reinigen. Ähnliche Verfahren lassen sich für viele andere Roboter einsetzen, die sich in unbekannten Umgebungen bewegen, beispielsweise Logistikroboter in Lagerhäusern, Rettungsroboter für den Katastrophenfall, autonome Fahrzeuge oder Flugroboter.

Auch wenn im Bereich der simultanen Lokalisierung und Kartographierung bereits große Erfolge erzielt wurden, gibt es viele offene Fragen. Wie kann ein Roboter entscheiden, welche Objekte statisch sind und in der Karte verzeichnet werden sollen und welche Objekte sich jederzeit bewegen können? Wie kann ein Roboter reagieren, wenn sich seine Umgebung verändert und nicht mehr zur Karte passt? Wie kann ein Roboter den Ausfall von Sensoren erkennen und ggf. kompensieren? Wie kann eine hohe Lokalisierungsgenauigkeit auch mit günstigen Sensoren und begrenzter Rechenleistung erreicht werden?

Um diese und viele weitere Probleme zu lösen, befasst sich Gerhard Kurz mit der Entwicklung besserer Verfahren, die robuster, zuverlässiger und genauer sind als bisherige Ansätze. Diese Forschungsarbeiten werden dazu beitragen, dass Roboter in unserer Umgebung effizienter, sicherer und kostengünstiger werden.

Stefan Notter, Universität Stuttgart
// Künstliche Intelligenz für Flugregelung //

Maschinelles Lernen verspricht das Potenzial komplexer Problemstellungen in der Robotik zu lösen. In der Flugregelung, die bisher auf systemtheoretisch motivierten Verfahren beruht, ist eine Herangehensweise mithilfe Künstlicher Intelligenz bisher nicht etabliert.

Stefan Notter arbeitet daran, den Weg für die Anwendung und Akzeptanz dieser für die Flugregelung neuartigen Ansätze zu bereiten. Sein Ziel ist dabei ausdrücklich nicht, konventionelle Verfahren abzulösen. Vielmehr untersucht er Aufgabenstellungen, bei denen sich Systemtheorie und Maschinelles Lernen ergänzen. Ihm gelingt dabei eine konstruktive Betrachtung der Verfahren künstlicher Intelligenz und deren Einordnung in einen systemtheoretischen Kontext, so dass seine Arbeiten auch Relevanz über den Bereich der Flugsteuerung und Regelung hinaus haben.

Bereits in seiner Masterarbeit mit dem Titel „Modelling, Simulation and Flight Test of a Model Predictive Controlled Multirotor with Heavy Slung Load“, die er am Australian Research Centre for Aerospace Automation der Queensland University of Technology anfertigte, gelang es ihm, ein fortschrittliches Konzept in der Drohnenregelung einzusetzen. Neben der theoretischen Auslegung hat er eine Testumgebung auf- und umgesetzt, sodass die Funktionsfähigkeit des entworfenen Reglers erfolgreich im Flugversuch demonstriert werden konnte.

In seinem aktuellen Forschungsprojekt „TakEOF“ arbeitet Stefan Notter daran, mit regelungstechnischen Maßnahmen die Ökoeffizienz von Flächenflugzeugen durch Ausnutzen meteorologisch begünstigter Aufwinde zu steigern. Dabei entwickelt er Verfahren, die es erlauben, den Treibstoff- beziehungsweise den Energiebedarf eines (meist unbemannten) Flächenflugzeugs zu senken.

Oliver Ruf, Julius-Maximilians-Universität Würzburg
// Kooperationen von Kleinstsatelliten //

Der Trend von großen, multifunktionalen Einzelsatelliten hin zu Missionen, welche aus vielen kleinen, kooperierenden Satelliten in Konstellationen oder Formationen bestehen, ermöglicht neue Anwendungen im Erdbeobachtungs- und Kommunikationsbereich. Beispiele sind die Verbesserungen bei mittelfristigen Klimavorhersagen und die frühzeitige Detektion gefährlicher Aschewolken von Vulkanausbrüchen für den Flugverkehr.

Die zunehmende Anzahl der Satelliten in einer Mission führt zu Problemen bei der Entwicklung, Integration, Verifikation und im Betrieb. Während für die anderen Bereiche bereits verschiedene Lösungsansätze existieren, unterscheiden sich die Herangehensweisen bei der Verifikation bisher kaum von den klassischen Lösungen. Daher ist der Verifikationsprozess besonders von diesem Trend betroffen und steht speziellen Herausforderungen gegenüber.

Mit dem Ziel diese Herausforderungen zu bewältigen, wurde am Zentrum für Telematik eine Testanlage für Multi-Satellitensysteme konzipiert und implementiert. Diese Testanlage ermöglicht automatisierte Lageregelungstests von kooperierenden Satelliten in Formationen auf Systemebene mit Fokus auf relativer Navigation, zum Beispiel für Intersatelliten-Kommunikation oder kooperative Erdbeobachtung.

Seit Dezember 2015 promoviert Oliver Ruf am Zentrum für Telematik in Würzburg im Bereich miniaturisierter Satellitensysteme, wo er an innovativen Methoden für das Testen von Satelliten-Formationen und -Konstellationen arbeitet. Im Rahmen seiner Promotion fokussiert er seine Forschung dabei auf neuartige Ansätze zur Verifikation der relativen Lageregelung kooperierender Satelliten mithilfe von zwei hochpräzisen 3-Achs-Robotern zur Bewegungssimulation.

Die von Oliver Ruf erarbeiteten Algorithmen stellen wichtige Verbesserungen beim Testen in dem gerade enorm an Bedeutung gewinnenden Gebiet der Mehr-Satelliten-Systeme dar.

Parallel zu seiner Promotion trägt Oliver Ruf auch Verantwortung für die Fertigungstechnik für Satellitenkonstellationen in dem Projekt „Space Factory 4.0“ und transferiert auch bereits Ergebnisse seiner laufenden Forschungsarbeiten in ein Start-up.

Oliver Ruf studierte Luft- und Raumfahrtinformatik an der Universität Würzburg, wo er sich schon früh mit Testumgebungen für Lageregelungssensorik beschäftigte. Anschließend spezialisierte er sich im Erasmus Mundus Master Programm Space Science and Technology an der Aalto Universität in Finnland und der Luleå Universität in Schweden auf Raumfahrtrobotik. Nach Abschluss seines Studiums arbeitete er im METERON-Team der europäischen Weltraumorganisation ESA in Darmstadt an neuen Technologien zur Zusammenarbeit von Astronauten und Robotern. Hier unterstützte er unter anderem Astronaut Andreas Mogensen, der von der internationalen Raumstation ISS aus einen Roboter auf der Erde fernsteuerte.

Dr. Frank Schlawin, Universität Oxford
// Wechselwirkung von Licht und Materie //

Quantenlicht spielt eine zentrale Rolle in der Entwicklung neuer Quantentechnologien wie etwa der Quantenkryptographie. Insbesondere verschränkte Photonenquellen werden seit vielen Jahren für derartige Anwendungen entwickelt. Deren exotische Eigenschaften könnten allerdings auch völlig neue Methoden in der ultraschnellen Spektroskopie ermöglichen. Dieser Artikel gibt einen Überblick, wie die sogenannte Zeit-Energie-Verschränkung ermöglichen könnte, klassische Auflösungsgrenzen zu überwinden und wie mit nicht-klassischen Anregungen neue Informationen aus komplexen Quantensystemen gewonnen werden könnten.

Frank Schlawin studierte Physik an der Albrecht- Ludwigs-Universität Freiburg. Im Jahr 2011 schloss er dieses mit einer Diplomarbeit über die Propagation ununterscheidbarer Teilchen in ungeordneten Medien ab. Nach einem längeren Aufenthalt an der University of California, Irvine, verteidigte er seine Doktorarbeit zum Thema Quantenspektroskopie in Freiburg 2015 mit summa cum laude. Seither arbeitet er als wissenschaftlicher Mitarbeiter an der University of Oxford.

In seiner Forschung beschäftigt er sich mit der theoretischen Beschreibung der Wechselwirkung von Quantenlicht mit komplexen Materialien. Dabei besteht das Ziel einerseits darin, ein besseres Verständnis dessen zu gewinnen, wie neue Quantenlichtquellen (beispielsweise verschränkte Photonen) genutzt werden können, um neue Informationen in der Spektroskopie zu gewinnen. Andererseits widmet er sich der Frage, ob Quantenlicht gar verwendet werden kann, Materialeigenschaften zu verändern. Dies ist insbesondere interessant für neue zweidimensionale Materialien wie Graphen, die aus nur einer einzigen atomaren Schicht bestehen.

Seine Beiträge zur Grundlagenforschung tragen somit wesentlich zu einem vertieften Verständnis der Funktionalität sowohl komplexer biologischer wie auch neuartiger synthetischer Strukturen bei.

Dr. Arne Speerforck, Vaillant GmbH
// Klimafreundlichere Gebäudeklimatisierung //

Der im Jahr 2018 veröffentlichte Sonderbericht der International Energy Agency mit dem Titel „The Future of Cooling“ stellt fest, dass die Gebäudeklimatisierung bisher zwar verhältnismäßig wenig Aufmerksamkeit erfährt, allerdings von entscheidender Bedeutung zur Erreichung der gesetzten Klimaziele ist. Bei unveränderter Entwicklung der Gebäudeklimatisierung wird eine Verdreifachung des benötigten Energiebedarfs bis zum Jahr 2050 vorausgesagt! Der weltweite Energiebedarf zur Klimatisierung entspräche dann dem heutigen Elektrizitätsbedarf Chinas. Entsprechend ist die Entwicklung geeigneter Alternativkonzepte von herausragender Bedeutung.

Arne Speerforck hat in seiner Dissertation dazu ein innovatives Konzept zur geothermisch- und sorptionsgestützten Klimatisierungsverfahren untersucht. Bei diesem Verfahren wird die Entfeuchtung der Zuluft von der Abkühlung getrennt. Speziell werden zur Entfeuchtung der Außenluft Sorptionsmaterialien wie Silica-Gel oder Zeolithe eingesetzt. So kann die Luft dann anschließend umweltfreundlich durch Übertragung der Wärme ins Erdreich abgekühlt werden.

Seine experimentellen Ergebnisse zeigen, dass die untersuchte Systemkonfiguration über mehrere Kühlperioden hinweg in der Lage ist, ein komfortables Raumklima auf Basis erneuerbarer Energien bereitzustellen. Elektrische Energie wird in einem solchen System lediglich zum Betrieb der Ventilatoren und Pumpen benötigt. Auf diese Weise können im Vergleich zu einem konventionellen System bis zu 71 % der benötigten elektrischen Energie eingespart werden.

Arne Speerforck zeigt, dass Energie- und Kosteneffizienz nicht im Widerspruch stehen müssen. So können Erdreichwärmeübertrager zur Kühlung in einigen Regionen wirtschaftlich konkurrenzfähig zu herkömmlichen Kältemaschinen eingesetzt werden. Weiterhin verdeutlicht die Arbeit die enormen Einsparpotentiale, die aus der intelligenten Verschaltung einzelner Komponenten zu einem System resultieren. Dies gilt auch und gerade dann, wenn die Komponenten für sich betrachtet bereits eine nahezu höchstmögliche Effizienz aufweisen.

Arne Speerforck studierte Maschinenbau mit dem Schwerpunkt Energietechnik an der Technischen Universität Hamburg. Nach dem Abschluss eines wirtschaftswissenschaftlichen Zusatzstudiums beschäftigt er sich seit 2012 mit der Erarbeitung effizienter Alternativen zur Gebäudeklimatisierung. Für seine Dissertation mit dem Titel „Investigation of a Desiccant Assisted Geothermal Air Conditioning System“ erhielt er im Jahr 2019 den Karl H. Ditze Preis der Technischen Universität Hamburg. Seit Anfang 2018 ist er in der Forschung und Entwicklung der Vaillant Group tätig und beschäftigt sich dort vor allem mit der modellbasierten Entwicklung von Systemen für Heating, Ventilation and Air Conditioning.

Fotos: Stefanie Winkler (München)