OS-1 | Open Source für Audio-Produktionen | OS | 2025-11-12 | 10:30 - 11:00
this.ven – Free/Libre Open Source Software Musician Live Performance
OS-1-1 | Beginn 10:30 | Dauer 30 min. | Sven Thielen | Vortrag (Englisch)
this.ven is a Free/Libre and Open Source Software (FLOSS) musician, tinkerer, and privacy advocate. Whenever engaging in a project he typically uses FLOSS and GNU/Linux, and as a graduate of media engineering and computer science his focus is networked audio, IT security, and privacy. In this performance, this.ven will present songs from the Dozen Lections For Educationists album, explain details of his FLOSS-powered setup, and reflect on his journey of happening to use FLOSS only.
"Kitschselektor" in Dolby Atmos, neue Formate für neue Genres
3D-1-1 | Beginn 10:30 | Dauer 60 min. | Eric Horstmann | 3D-Audio-Workshop (Deutsch)
Im Workshop wird die aktuelle Dolby Atmos-Mischung des neuen Kitschselektor-Albums "Riverhouse" vorgestellt. Kitschselektor ist ein gemeinsames Projekt der Berliner Produzententeams KitschKrieg und Modeselektor. Kitschkrieg, bekannt für ihren minimalistischen Rap/HipHop Sound und Modeselektor, die Pioniere des Berliner Underground-Techno, haben hier einen einzigartigen Genre-Mix geschaffen. Anhand ausgewählter Tracks werden kreative und technische Entscheidungen im 3D-Audioproduktionsprozess beleuchtet – von der Rauminszenierung bis zur finalen Mixgestaltung im 3D Raum.
REC-1-1 | Beginn 10:30 | Dauer 60 min. | Wolfgang Ellers | Tutorial (Deutsch)
Professionelle Konzertmitschnitte, gleich welchen Genres, sind mit ambulanter Ausrüstung und dem heutigen Entwicklungstand der Technik erheblich einfacher geworden. Aus wirtschaftlichen Gründen wird auch von öffentlich-rechtlichen Rundfunkanstalten vermehrt darauf zurückgegriffen, da sich der Einsatz von großen Übertragungswagen und dem entsprechenden Einsatz von Personal, z.B. für die Aufzeichnung eines kammermusikalischen Klavierkonzertes, nicht mehr rechtfertigen lässt.
Der Vortrag befasst sich, nach einer kleinen Retrospektive der letzte 40 Jahre, mit den verschiedenen technischen Möglichkeiten, Standards und Formaten der heutigen Zeit. Welcher technische Einsatz und welcher Workflow ist sinnvoll und vor allen Dingen auch wirtschaftlich.
Neben der reinen Aufzeichnung ist auch die anschließende Nachbearbeitung (Mischung) ein wesentlicher Bestandteil dieses Vortrags.
Ziel des Vortrages ist es, keine eindeutigen Empfehlungen, sondern Inspirationen zu vermitteln.
NGA-1 | Broadcast / NGA | R 13 | 2025-11-12 | 10:30 - 12:00
ADM in the year 2025: Where are we?
NGA-1-1 | Beginn 10:30 | Dauer 30 min. | Ulli Scuda | Vortrag (Englisch)
ADM is presented as the up to date file format for exchanging NGA content. Most of the time it is used for immersive content production. When it comes to advanced NGA features, people have to look closely what’s inside the box. In this presentation, I will try to do a world trip on the ADM boat and send postcards from different DAWs. On that journey I will investigate how interoperable ADM files really are across various platforms and if S-ADM will bring anything new.
ADM and NGA: Now and Next – An EBU expert briefing
NGA-1-2 | Beginn 10:30 | Dauer 60 min. | Werner Bleisteiner |
Paola Sunna, David Marston | Workshop (Englisch)
This year celebrating its 75th anniversary, the EBU remains a central hub and authority for broadcast and media development.
Besides the worldwide acknowledged EBU R128 for loudness, ADM – the Audio Definition Model (initiated by BBC R&D, IRT amd NHK) - under EBU's auspices has, too, become a landmark innovative audio production for music, cinematic content – and in broadcasting.
The Paris 2024 Olympics and other major events are all enabled by ADM/S-ADM adopted in production infrastructure and workflows. Major strearming platforms have already or are about to implement ADM, too.
ADM is the underlying authoring format NGA formats like AC-4 (Dolby Atmos) and MPEG-H (Fraunhofer IIS), but also AOMedia’s IAMF/Eclipsa.
As already at TMT 2023, EBU's ADM experts want provide the German audio community with tfirst-hand updates on latest developments, achivements and up-coming efforts.
Most notably the first ADM/S-ADM Plugfest which will be held this autumn in Geneva.
3D-2-1 | Beginn 10:30 | Dauer 60 min. | Jim Anderson |
Akira Fukada | 3D-Audio-Workshop (Englisch)
In 1997, internationally renowned recording engineer and lecturer Akira Fukada made an enormous impact at the New York AES Convention when he unveiled the "Fukada Tree," a seven microphone arrangement, which was, at the time, a totally new technique for recording orchestral music in surround sound for subsequent broadcast or CD release. Fukada's revolutionary technique has been adapted by recording engineers and producers world-wide. Jim Anderson's first commercially released surround mix of Patricia Barber's best-selling 1998 album "Modern Cool" was remixed in 5.1 and won a Grammy in 2013 in the Best Surround Album category. The two engineer/producers will present recordings and discuss their careers and philosophies of recording and mixing.
Der nordische Klang
3D-2-2 | Beginn 10:30 | Dauer 60 min. | Morten Lindberg |
Ragnheiður Jónsdóttir | 3D-Audio-Workshop (Englisch)
Ragnheiður Jónsdóttir and Morten Lindberg play their immersive recordings and discuss the vocal and instrumental development of The Nordic Sound, and how it influence microphone techniques and music production.
Exploring the Cinematic Hemisphere for Orchestra (The ECHO Project)
3D-2-3 | Beginn 10:30 | Dauer 60 min. | Katarzyna Sochaczewska |
Hyunkook Lee, Morten Lindberg | 3D-Audio-Workshop (Englisch)
The ECHO Project (Exploring the Cinematic Hemisphere for Orchestra) is a collaborative research initiative that explores 3D microphone array techniques for orchestral recording, involving eight experts in immersive sound recording. This project aims to provide a platform for sound engineers, composers, researchers, and students to experiment with various immersive recording techniques. To this end, an open-access database of high-quality orchestral recordings was created from a recording session at AIR Studios, London, featuring a Oscar-winning composer Volker Bertelmann and the London Contemporary Orchestra.
The ECHO database includes recordings of four pieces, captured using up to 143 microphone capsules per piece. This workshop will present the rationale behind each microphone array used in the project, detail the recording process, discuss the immersive approach to composition and recording methods, and present some of the recordings in 7.1.4.
AC-1 | Akustik | R 3 | 2025-11-12 | 11:00 - 12:00
Auralisation aus Raumakustik-Messungen in skalierten Modell-Räumen
AC-1-1 | Beginn 11:00 | Dauer 60 min. | Detlef Hennings | Binaural Workshop (Deutsch)
In dem Beitrag wird über die Auralisation, also das Herstellen von Hörproben, als Erweiterung der auf der TMT 2023
vorgestellten raumakustischen Modell-Meßtechnik für kleine und mittelgroße Räume berichtet. Die Auralisation macht
die Meßergebnisse auch für Menschen zugänglich, die mit akustischen Meßgrößen keine Vorstellung verbinden.
Zunächst wird die Technik der Messung von Raumimpulsantworten im Modell vorgestellt und die Auralisation mit
Besonderheiten aufgrund der Maßstab-bedingten hohen Frequenzen wird erläutert. Am Beispiel wird die Auralisation
im 1:1 Vorbildraum der Auralisation in einem skalierten Modellraum gegenübergestellt und es werden binaurale Hörproben
aus Vorbild und Modell im Vergleich vorgeführt, so daß hörbar wird, wie nah das 'Hör-Ergebnis' aus dem Modell Raum
an den Vorbild-Raum herankommt.
Von Omni zu Uni zu Beam-Steering – Die Entwicklung der gerichteten Schallaufnahme
MIC-1-1 | Beginn 11:00 | Dauer 30 min. | Monika Loreth | Vortrag (Deutsch)
In diesem Vortrag beleuchten wir die Entwicklung von Mikrofonen, die zu Beginn Schall aus allen Richtungen aufnahmen, zu den heutigen richtungsbestimmten Technologien. Dabei werfen wir auch einen Blick auf die technologischen Fortschritte und die Perspektiven, die die Zukunft der Mikrofonie bietet.
Referent: Jürgen Schwörer
Sprache: Deutsch (Optional: Englisch)
Beyond the Spec Sheet: Rethinking Microphone Characterization in the Age of Modern Measurement
MIC-1-2 | Beginn 11:00 | Dauer 30 min. | Fernando Canalejo | Vortrag (Englisch)
Microphone specification practices have remained largely consistent for decades, despite significant advances in measurement tools and analysis techniques. This paper explores how modern methods can enrich our understanding of microphone behavior, leading to more informed choices for users and clearer communication from manufacturers.
Focusing on proximity effect, we propose a more detailed look at how low-frequency response varies with distance. In directivity, we examine deviations from axisymmetry and the differences between near-field and far-field behavior. Finally, we compare THD characteristics across microphone types, distinguishing between electrical clipping and transducer-based coloration.
By demystifying these complex behaviors and proposing more meaningful, accessible metrics, we aim to empower engineers, creators, and consumers to make more informed microphone choices and foster a culture of transparency in audio engineering.
Noise-Cancelling Index for Microphones
MIC-1-3 | Beginn 11:00 | Dauer 30 min. | Martin Schneider | Vortrag (Englisch)
The Noise-Cancelling Index (NCI, German: “Störschall-Unterdruckungsmaß”) compares the frequency response of the direct, near-field sound to the diffuse, far-field sound impinging on a microphone. It is a valuable measure, describing the ability of a near-field microphone, e.g. a stage vocalist microphone, to attenuate unwanted sound from surrounding sound sources. These “unwanted” sources may cause e.g. “spill” of other instruments into the microphone, or feedback from the monitor and P.A. system.
Mentioned only in an annex to the international standard IEC 60268-4, the Noise-Cancelling Index for Microphones is presumably widely unknown and hardly ever mentioned in literature.
As the near-field response of a microphone depends on the distance to the sound source, the NCI varies with distance. Examples shall be presented for typical microphone applications, on stages and in recording situations.
Symphony meets Rap - Über die besonderen Herausforderungen einer immersiven Crossover-Produktion
3D-3-1 | Beginn 11:30 | Dauer 60 min. | Friedrich Wilhelm Rödding | 3D-Audio-Workshop (Deutsch)
Analog Fluids of Sonic Black Holes ist ein Album der amerikanischen Sprachkünstlerin und Rapperin Moor Mother, die vor einigen Jahren mit dem Deutschen Jazzpreis ausgezeichnet wurde. Der in Berlin lebende irische Bratschist und Komponist Ian Anderson hat die Musik, die wesentlich aus elektronischen Klängen besteht, in eine Fassung für großes Sinfonieorchester mit teils solistischem Streichquintett transformiert. Die Live-Performance dieser Komposition, für die die Bezeichnung "Bearbeitung" viel zu tief gegriffen ist, mit dem Beethoven Orchester Bonn unter der Leitung von GMD Dirk Kaftan, Ian Andersons Ensemble Wooden Elephant sowie Moor Mother selbst war ein riesiger Erfolg. Die im Nachgang erfolgte immersive Studioproduktion warf zahlreiche ästhetische und technische Fragen auf, über deren Beantwortung der Vortrag informieren soll.
CS-1 | Filmton | R 2 | 2025-11-12 | 11:30 - 13:30
Relevanz von Foley in Zeiten von künstlicher Intelligenz
CS-1-1 | Beginn 11:30 | Dauer 60 min. | Johanna Roth |
André Klar | Workshop (Deutsch)
In Zeiten von künstlicher Intelligenz und automatisierten Sounddesign-Tools stellt sich die Frage nach der Relevanz von handgemachten Foleys. Wie sich die beiden Welten gegenüberstehen und wo welche Arbeitsweise ihre Berechtigung hat, wird Johanna Roth in einem Workshop anhand von praktischen Beispielen erläutern.
Praxiseinblick: KI-Tools im Audio-Workflow für Sounddesign von Bewegtbild
CS-1-2 | Beginn 11:30 | Dauer 60 min. | Christoph Groß-Fengels |
André Klar | Workshop (Deutsch)
Christoph Groß-Fengels demonstriert praxisnah, wie KI den Audio-Workflow für Bewegtbild revolutioniert. Die vorgestellten Tools erkennen automatisch Bildschnitte, analysieren visuelle Inhalte und wählen passende Sounds aus der Library aus - vollautomatisch. Zusätzlich generiert die KI ein mit den Schnitten synchronisiertes MIDI-File, das die kreative Vertonung erleichtert. In einer Live-Demo zeigte Groß-Fengels, wie diese Technologien Routineprozesse beschleunigen und kreative Impulse liefern. Gleichzeitig wurde kritisch beleuchtet, wo menschliches Audio-Know-how weiterhin unverzichtbar bleibt - etwa bei dramaturgischen Entscheidungen und der finalen Gestaltung. Ein Workshop für alle, die KI sinnvoll in ihre Sounddesign-Prozesse integrieren möchten.
AC-2 | Akustik | R 3 | 2025-11-12 | 12:00 - 13:30
Zur Raum- und Aufnahmeakustik der berühmten klassischen Europäischen Konzertsäle
AC-2-1 | Beginn 12:00 | Dauer 30 min. | Klaus-Hendrik Lorenz-Kierakiewitz | Vortrag (Deutsch)
Ab 1740 entstand aus verschiedenen Wurzeln von Europa aus ein neuer Raumtyp: der Konzertsaal für öffentliche entgeltliche Konzerte, um dafür angemessene Rahmenbedingungen zu bieten, was bei vorhandenen Aufführungsstätten bis dato nicht ausreichend gegeben war ob angestrebter Erlöse und Anforderungen der Orchesterbesetzungen. Bis 1914 entwickelte sich das, was als klassischer Europäischer Konzertsaal gilt: ausreichend, aber nicht zu große Räume ähnlicher Geometrie, Unterteilung in die Bereiche Bühne und Publikum, und wachsenden Platzangebot.
In diesem Beitrag stehen neben Ursprüngen und Ursachen dieser Entwicklung insbesondere die raumakustischen Eigenschaften Europäischer Konzertsäle ab 1839 im Mittelpunkt, und es werden die kennzeichnenden gemeinsamen baulichen und klanglichen Charakteristika der für ihre Akustik gerühmten Säle herausgearbeitet, samt Konsequenzen für die Aufnahmeakustik bei Tonaufnahmen und Schlussfolgerungen für die historisch informierte Aufführungspraxis darin.
Tonregie mit variabler Akustik für Wiedergabe mittels Soundbar und diskretem 3D-Lautsprechersetup
AC-2-2 | Beginn 12:00 | Dauer 30 min. | Frank Melchior |
Stefan Heider | Vortrag (Deutsch)
Bei der Erneuerung der Infrastruktur im Bereich Ton an der Hochschule der Medien in Stuttgart stand die Erweiterung der Produktions- und Abhörmöglichkeiten im Bereich 3D-Audio im Vordergrund. Die bestehenden Räumlichkeiten wurden u.a. um eine Regie für 3D-Audio-Wiedergabe erweitert. Zum Einsatz kommt ein 7.1.4. Setup. Um den Studierenden einen Vergleich mit der Situation beim Konsumenten zu Hause zu ermöglichen, wurde zusätzlich eine Soundbar integriert. Durch eine manuell variable Akustik können die Hörbedingungen für beide Szenarien optimiert werden. Eine parallele Nutzung ist ebenfalls möglich und erlaubt den direkten Vergleich von Produktionen zwischen diskreter Lautsprecher- und Soundbar-Wiedergabe. Das akustische und technische Konzept für das Abhören von 3D-Audioinhalten über eine Soundbar und eine diskrete Lautsprecheranordnung wird vorgestellt. Anhand von Messungen werden die Grenzen und Möglichkeiten dieser für den Unterricht besonderen und wertvollen Möglichkeit diskutiert.
Das «Klanghaus Toggenburg» in der Schweiz – ein akustisches Unikat
AC-2-3 | Beginn 12:00 | Dauer 30 min. | Martin Lachmann |
Lukas Unholz, Björn Müller | Vortrag (Deutsch)
Mitten in der Schweizer Bergwelt gelegen und hervorgegangen aus einem international ausgeschriebenen Architekturwettbewerb, basiert das «Klanghaus Toggenburg» auf den Ideen des Architekten Marcel Meili (┼2019) und des Klangkünstlers Andres Bosshard. Es ist weder ein typischer Konzertsaal noch eine Musikhochschule oder ein Tonstudio - vielmehr soll es ein «Labor» sein; ein Ort an dem in der Natur und in Räumen mit aussergewöhnlicher Akustik mit Klang, Musik und Geräuschen gearbeitet und geforscht werden kann.
Nach über 15 Jahren Planung und Bau wurde das weltweit einmalige Klanghaus im Frühjahr 2025 eröffnet. Martin Lachmann, als verantwortlicher Akustiker von Beginn an Teil des Projektteams, erläutert das Projekt, macht sich Gedanken, ob es so etwas wie ein «begehbares Instrument» geben kann und erläutert, warum das Klanghaus schlussendlich eben doch auch Konzertsaal, Tonstudio und Ausbildungsort geworden ist.
NGA-2 | Broadcast / NGA | R 13 | 2025-11-12 | 12:00 - 13:30
Eurovision Song Contest 2025 - Escape or Return?
NGA-2-1 | Beginn 12:00 | Dauer 30 min. | Markus Brockmann | Vortrag (Englisch)
The Eurovision Song Contest is the biggest music show and attracts up to 200 million viewers to their TV sets every year.
Markus Brockmann (Head of Sound ESC2025) talks about the size, complexity and redundancy of this production in his presentation.
Paris Summer Games – France Télévisions' End-to-End Atmos Workflow
NGA-2-2 | Beginn 12:00 | Dauer 60 min. | Roman Rehausen |
Yannick Olivier | Workshop (Englisch)
At the Paris Summer Games, France Télévisions launched a permanent Next Generation Audio (NGA) service on its main channel France 2, delivering immersive Dolby Atmos audio through object-based production using Serialized ADM (S-ADM) metadata. The UHD production, including immersive audio from all venues, is integrated via a high-bandwidth ST 2110 network connecting OB units and the broadcast center. The ST 2110-41 standard enables reliable S-ADM transport across the IP infrastructure. S-ADM allows dynamic metadata handling to support immersive sound, accessibility features, and personalized audio experiences—all without requiring multiple dedicated audio mixes. This presentation outlines the end-to-end workflow, network architecture, and automation strategies behind France Télévisions’ NGA deployment. Listening examples of current productions will be played.
We offer an additional listening session in the small immersive room.
Flow - Immersive Produktion in den Real World Studios
TB-1-1 | Beginn 12:30 | Dauer 60 min. | Hans-Martin Buff | TalkBack-Workshop (Deutsch)
Immersive Musik wächst mit immersiver Produktion. Flow ist ein Projekt der Real World Studios aus Box, der Bath Spa University und von MyWorld in Bristol, in dessen Rahmen Adrian Utley (Portishead) eine immersive Komposition produziert hat. Co-Produzent und immersiver Recording Engineer Hans-Martin Buff stellt die Workflows dieses spannenden Projekts vor, vom Heranführen des Künstlers an die immersive Welt bis zum finalen Ergebnis.
Dieser Beitrag wird zweimal gehalten: Einmal in deutscher Sprache und einmal in Englisch.
Begrüßung der Auszubildenden durch Vorstand Lucca Riitano
AZUB-1-1 | Beginn 12:30 | Dauer 60 min. | Lucca Riitano | Vortrag (Deutsch)
In der Speakers Corner gibt Vorstand Lucca Riitano eine Begrüßung für Auszubildende der Gestaltung Immersiver Medien, Mediengestaltung Bild & Ton und Veranstaltungstechnik.
NGA-3 | Broadcast / NGA | OS | 2025-11-12 | 13:40 - 14:30
MPEG-H For Live Productions: A Deep Dive into Current Workflow Possibilities
NGA-3-1 | Beginn 13:40 | Dauer 50 min. | Aimée Moulson | Tutorial (Englisch)
In the world of live broadcasting, having a robust and efficient system is essential. With the development of Next Generation Audio systems, the possibility to bring enhanced immersive, interactive and personalised audio to the end user is now a reality. However, more focus is needed on how broadcasters can adopt this new technology without disrupting existing live workflows. In this talk we will take a deep dive into the specifics of live authoring for MPEG-H. We will discuss what current solutions are available before taking a look into how these systems have already been deployed in real world use cases.
Der VDT lädt zur offiziellen Eröffnung der tmt33 ein. Im neuen, lockeren Rahmen vergeben wir außerdem die Ehrenmedaille 2025. Lasst euch überraschen! Der Event klingt mit kleinen Häppchen und Getränken aus.
Running an environmentally friendly mobile recording studio
REC-2-1 | Beginn 14:30 | Dauer 30 min. | Andrew Levine | Vortrag (Englisch)
When I started my business recording sound in 2003 I chose from the beginning to travel sustainably by public transport, bike, rail and bus. In 2008 I added surround sound, in 2010 video to my portfolio, later also immersive audio, and 22 years later I can attest that it is indeed possible to sustain this mode of operation. It takes a lot of planning to realize high end productions, but it works, and you are not only environmentally friendly but also gain valuable working time during the travel to and from the locations.
Flow - Immersive production in the Real World Studios
TB-2-1 | Beginn 15:00 | Dauer 60 min. | Hans-Martin Buff | TalkBack-Workshop (Englisch)
Immersive music grows with immersive production. Flow is a project by Real World Studios in Box, Bath Spa University and MyWorld in Bristol, for which Adrian Utley (Portishead) has created an immersive composition. Co-producer and immersive recording engineer Hans-Martin Buff presents the workflow of this exciting project, from first introducing the artist to the immersive world to the final result.
This presentation will be held twice: First in German language and second in English.
"Blocked Under Ground" – ein multiperspektivisches Audiodrama in 3D
3D-4-1 | Beginn 15:00 | Dauer 60 min. | Regine Elbers | 3D-Audio-Workshop (Deutsch)
Blocked Under Ground ist ein multiperspektivisches 3D-Audiodrama über ein U-Bahnunglück, ausgelöst durch Starkregenfälle. Seine drei Teile bieten unterschiedliche Zugänge in die Handlung: das Hörspiel in den Untergrund, wo verzweifelte Menschen nach dem Ausweg suchen; das Audiogame als interaktive Rettungsmission in das überflutete Tunnellabyrinth und der Audiowalk in das Geschehen an der Oberfläche, zwischen Rettungskräften, Radioreporter und verzweifelten Angehörigen. Das Hörspiel wurde im neuen 3D-Hörspielstudio des Bayerischen Rundfunks in 7.1.4 produziert und objektbasiert gemischt. Das Audiogame ist eine studentische Arbeit an der TU Wien. Der Audiowalk (binaural und Ambisonics) wurde mit den Künstler:innen von Hella Lux realisiert. Das Audiodrama ist zugleich Forschungsprojekt beim Experimentellen Radio der Bauhaus-Univeristät Weimar. Untersucht werden die Inszenierungmöglichkeiten aktueller Medientechnologie für Radio mit dem Ziel, Inhalt und akustische Form zu verschmelzen.
EDU-1-1 | Beginn 15:00 | Dauer 60 min. | Marcel Remy | Workshop (Deutsch)
Schluss mit lästigen Kabel-Knäueln! Sauberes und effizientes Auf- und abwickeln von Kabeln gehört zu den absoluten Grundlagen für Tonschaffende. In diesem Hands-On Grundlagen Workshop betrachten wir Vor- und Nachteile verschiedener Techniken und probieren diese praktisch aus. Learning by doing ist das Motto.
NGA-4 | Broadcast / NGA | R 3 | 2025-11-12 | 15:00 - 16:30
Dialoge automatisiert erkennen und bewerten – welchen Einfluss hat die SAD? Einfluss unterschiedlicher Speech-Activity-Detektoren auf dialogbezogene Qualitätsmetriken im Broadcast-Workflow
NGA-4-1 | Beginn 15:00 | Dauer 30 min. | Hannah Baumgartner | Vortrag (Deutsch)
Die Wahrnehmung und Verständlichkeit von Dialogen gilt als entscheidender Qualitätsfaktor in Fernseh-, Streaming- und Kinoproduktionen. Um Pegel und Dynamik normkonform einzustellen, schreiben die Standards ITU-R BS.1770 sowie EBU R 128 eine dialogbasierte Lautheitsmessung („Dialogue Gate“) vor. Basiskomponente dieser Messung ist eine Speech-Activity-Detection (SAD). Ihre Aufgabe besteht darin, jedes Audiosignal frame¬weise als „Sprache“ oder „Nicht-Sprache“ zu klassifizieren. Die Güte der verwendeten SAD beeinflusst dabei die erhaltenen Dialog-Messwerte. Wie groß diese von der Sprachaktivitätserkennung induzierten Unterschiede sein können, soll anhand von Werten wie Listening Effort (LE), Dialog-Loudness, Loudness-to-Dialog Ratio (LDR) und Blinder SNR-Schätzung wie Speech-to-Background Loudness Difference (SBLD) evaluiert und diskutiert werden. Eine Vertiefung findet statt, inwieweit die so erhaltenen Messwerte differenzieren können und im Zeitsignal eine gute Erkennung nicht …
Mehr Sprachverständlichkeit: Aufnahme - Postproduktion - Wiedergabe. Ein Roundtable zu jüngsten Erkenntnissen und Lösungen (AT)
NGA-4-2 | Beginn 15:00 | Dauer 60 min. | Werner Bleisteiner |
Hannah Baumgartner, Daniela Rieger, Max Kiefer, Florian Camerer, Hendrik Jurich | Roundtable-Diskussion (Deutsch)
Wegen des größeren Bewusstseins für Barrierefreiheit, aufgrund der weit verbreiteten Hörverluste oder Behinderungen, gewinnt das Thema Sprachverständlichkeit für Rundfunkanstalten das mehr und mehr an Bedeutung. Die heutige Audiotechnologie ermöglicht verschiedene Lösungen. Insbesondere durch digitale Signalverarbeitung und maschinelles Lernen - vulgo: KI. Mit führenden Expert:Innen und Interessenvertreter:Innen aus allen betroffenen Disziplinen - akademische Forschung, Softwareentwicklung sowie technische und redaktionelle Rundfunkpraktiker - wollen wir uns über physiologische Prinzipien, Nutzeranforderungen, qualitative Messmöglichkeiten und technische Werkzeuge zur aktiven Verbesserung der Sprachverständlichkeit über diese Fragen austauschen:
1. Was wir aus der Forschung wissen
2. Anforderungen und Beschränkungen der Audioproduktion
3. Broadcast-Workflows: Von der Produktion bis Distribution
4. Sprachverständlichkeit auf der nächsten Stufe: objektbasiertes Audio.
Die Zukunft von 470-694 MHz - nach der WRC23 ist vor der WRC27 (World Radio Conference)
WLSS-1-1 | Beginn 15:00 | Dauer 30 min. | Wolfgang Bilz | Vortrag (Deutsch)
APWPT ist die Interessenvertretung aller drahtlosen Produktionsmittel. In diesem Vortrag erhalten Sie einen Überblick über die aktuellen Diskussionen und Entscheidungen auf nationaler und internationaler Ebene, die direkten Einfluss auf die Verfügbarkeit der essenziellen Ressource von 470 bis 694 MHz haben werden.
Frequenzmanagement am Eurovision Song Contest 2025
WLSS-1-2 | Beginn 15:00 | Dauer 30 min. | Daniel Künzi | Vortrag (Deutsch)
Organisation, Planung und Durchführung vom Frequenzmanagement am Eurovision Song Contest 2025 in Basel. Themenbereiche:
- Lizenzbeschaffung
- Mic/IE
- WIFI
- Monitoring
- Tooling
Drahtlostechnik in aktuellen ZDF Produktionen
WLSS-1-3 | Beginn 15:00 | Dauer 30 min. | Andreas Kremer | Vortrag (Deutsch)
Der Einsatz von drahtloser Audiotechnik im Fernsehen nimmt immer weiter zu.
Für die verschiedensten Aufgabenstellungen aus dem aktuellen ZDF Programm werden hier Anwendungsbeispiele und die verwendeten Lösungsvorschläge und Techniken vorgestellt.
CS-2 | Filmton | R 2 | 2025-11-12 | 15:00 - 17:00
M&E-Erstellung mit KI
CS-2-1 | Beginn 15:00 | Dauer 30 min. | Philipp Scholz |
René Kampka | Vortrag (Deutsch)
Music & Effects (M&E), in Deutschland auch als „IT“ (international tape) bekannt, ist die Tonfassung eines Films mit allen Vertonungselementen, ausgenommen der Dialogelemente. Sie dient als Grundlage für fremdsprachige Fassungen und wird im Idealfall in einwandfreiem Zustand aus der Postproduktion geliefert. Oft ist das M&E unvollständig, beschädigt oder fehlt ganz. KI-Werkzeuge können dort helfen, wo früher komplett neue Geräusche und Sound Design notwendig waren. Die manuelle Bearbeitung und Kontrolle durch Fachkräfte ist und bleibt unerlässlich. Es handelt sich nicht um eine Entweder-Oder-Entscheidung. Eine Kombination von menschlicher und künstlicher Intelligenz ist der Schlüssel.
Synchronisation und Voiceover mit KI
CS-2-2 | Beginn 15:00 | Dauer 30 min. | Philipp Scholz |
René Kampka | Vortrag (Deutsch)
Bei der Synchronisation (Dubbing) wird jede Dialogzeile in der Ausgangssprache durch eine entsprechende Zeile in der Zielsprache ersetzt. Bislang gab es keine andere Möglichkeit, als die Zeilen einzeln aufzuzeichnen. Viele KI-Anwendungen versprechen Alternativen zur Aufnahme.
Der Teufel liegt jedoch im Detail: Woher weiß das Sprachmodell, wie der Satz betont werden muss und wie soll Lippen-Synchronität hergestellt werden? Wie steuert man die verschiedenen Werkzeuge und wie sieht es mit der manuellen Korrektur aus?
Fragen, die wir an einem Praxis-Beispiel durchspielen wollen.
KI im Filmton: Eine Diskussion
CS-2-3 | Beginn 15:00 | Dauer 60 min. | André Klar |
Christoph Groß-Fengels, Johanna Roth, Philipp Scholz, René Kampka, Alexander Wolf | Roundtable-Diskussion (Deutsch)
André Klar, Christoph Groß-Fengels, Johanna Roth, Alexander Wolf, Philipp Scholz und René Kampka diskutieren, wie KI-Routinen im Filmton Prozesse beschleunigen und kreative Impulse liefern, beispielsweise durch automatische Bilderkennung zur KI-gestützten Erzeugung passender Sounddesign-Elemente. Gleichzeitig geht es um den Wert handgemachter Foley-Arbeiten, um fehlende oder beschädigte Music-&-Effects-Spuren und um neue KI-Ansätze beim Dubbing, die Fragen zu Betonung, Lippensynchronität und manueller Korrektur aufwerfen. Im Fokus steht dabei nicht das Entweder-oder, sondern die Verbindung von technischer Automatisierung und künstlerischer Expertise.
AC-3 | Akustik | R 16 | 2025-11-12 | 16:00 - 17:00
Die erste Dolby Atmos Feature Produktion von SRF "Ein Plädoyer für das Hören: Das Klanghaus Toggenburg"
AC-3-1 | Beginn 16:00 | Dauer 60 min. | Lukas Unholz |
Björn Müller, Roland Fatzer, Martin Lachmann | 3D-Audio-Workshop (Deutsch)
Im weltweit einzigen Haus in seiner Art bietet sich im Neubau vom Klanghaus Toggenburg (CH) den Besuchern zwei akustisch spezielle und hörenswerte Räume. Mit den 3D Audio-Aufnahmen aus dem Zentralraum von Toningenieuren Björn Müller und Roli Fatzer werden in 7.1.4 die Hörbeispiele aus dem Dolby-Atmos-Feature von Yvonn Scherrer zum Immersiven Hörerlebnis präsentiert. Illustriert wird die Akustik-Session, wie sich der 3D-Workflow im Bezug zur klassischen Feature-Produktion unterscheidet hinsichtlich der Aufnahme, Post-Produktion, Sound-Design und Distribution im öffentlich-rechtlichen Rundfunk? Die Toningenieure Björn Müller, Roli Fatzer und Lukas Unholz geben Einblicke in die technische und gestalterische Umsetzung und knüpfen an den einführenden Vortrag von Martin Lachmann an. Anschliessend beantworten sie Fragen aus dem Publikum.
Immersives Live Streaming & Recording - Live aus dem Studio und zurück
3D-5-1 | Beginn 16:00 | Dauer 60 min. | Stefan Bock | 3D-Audio-Workshop (Deutsch)
Im Beitrag werden verschiedene Szenarien gezeigt:
- Immersives Live Konzert mit Aufzeichnung und anschließender Mischung im Studio
- Immersives Live Konzert einer Studioproduktion mit gleichzeitigem Live Stream
- Remote Mix mit immersive Livestreaming
Ist jede Musik in Dolby Atmos besser, oder muss die Musik dem Format angepasst werden?
3D-5-2 | Beginn 16:00 | Dauer 60 min. | Peter Brümmer | 3D-Audio-Workshop (Deutsch)
Ich werde neueste Beispiele aus meinen inzwischen 10 Produktionen (Stand 3/25) umfassenden Veröffentlichungen verschiedenster Künstler spielen, die aus dem weiten Gebiet des Jazz und elektronischer, experimenteller Musik kommen. Gerade letztere ist für das Dolby Atmos Format prädestiniert und hebt die Musik auf eine neue Erlebnisebene. Aber gewinnen auch Standard-Besetzungen von immersiven Mixen?
Außerdem würde ich gerne zusätzlich ein paar Beispiele kommerzieller Produktionen anspielen, die mir durch eine m. E. nach nicht so gute Realisierung der Dolby-Atmos-Mischung aufgefallen sind, und diese zur Diskussion stellen. Es soll dabei nicht darum gehen, diese zu ächten, sondern vielleicht gemeinsam herauszufinden, warum bestimmte Entscheidungen beim Mix so und nicht anders gefallen sind.
Transforming an Arena into a Concert Hall: The Berliner Philharmoniker in Bologna, Conducted by Riccardo Muti
3D-6-1 | Beginn 16:30 | Dauer 30 min. | Banu Sahin | Vortrag (Englisch)
When the Berliner Philharmoniker and Riccardo Muti joined forces for a unique concert in PalaDozza, a historic sports arena in Bologna, the venue presented a significant acoustic challenge: a large multipurpose space with no inherent support for the demands of orchestral music. This talk presents the technical and artistic journey of transforming such a space into a concert hall-like environment. Through this case study, we will explore how a natural orchestral sound was achieved for the Berliner Philharmoniker, using a spatial audio system with object-based processing and a 270-degree loudspeaker configuration.
The Evolution of DECT: from Cordless Telephony to Professional Audio
WLSS-2-1 | Beginn 16:30 | Dauer 30 min. | Axel Schmidt | Vortrag (Englisch)
DECT stands for Digital Enhanced Cordless Telecommunications and includes two different technologies, namely Classic DECT and DECT NR+ (also called DECT-2020 NR). Classic DECT comprises variants such as Next Generation DECT, DECT Evolution and DECT Ultra Low Energy (ULE). DECT NR+ is a completely new DECT technology in terms of standard and radio performance. Both are designed for local area wireless communications targeting both nomadic and fixed installed applications such as cordless telephony, headsets, intercom systems, conferencing systems, professional audio systems, ... The Classic DECT standard has evolved significantly over the last decade to better support streaming solutions for audio applications. The DECT NR+ standard is designed to offer more flexibility in terms of various transmission parameters. The two different radio interfaces are described in detail and the resulting possibilities for supporting streaming applications for audio capturing are discussed.
Audio via WMAS: Opportunities, trade-offs and challenges
WLSS-2-2 | Beginn 16:30 | Dauer 30 min. | Jan Watermann | Vortrag (Englisch)
In this technical session, Jan Watermann will take a closer look at the audio side of wireless multichannel audio systems (WMAS). He will explore the TDMA scheme for wideband wireless, and look at ping latency versus stream latency, demystifying some of the 5G claims. With audio coding playing a central role, Watermann will discuss why several coding methods make sense – and why good old MADI still has a very important role to play. Word clock synchronization as the enabler for wireless stereo and 3D audio recording, as well as bidirectionality and new remote control capabilities for the audio engineer round off this session.
More is More? How Many Antennas Does Reliable Wireless Audio Need?
WLSS-2-3 | Beginn 16:30 | Dauer 30 min. | Thomas Conen |
Martin Mußbach | Vortrag (Englisch)
In professional wireless audio systems for live events, theatre, and broadcast, diversity reception with two antennas has long been the industry standard. But what exactly makes two antennas better than one—and when does it make sense to go beyond that? Thomas Conen delves into the underlying principles of diversity reception, examines typical challenges in real-world applications, and discusses strategies for deploying multiple antennas effectively. Whether you're working on stage, on set, or behind the scenes, this talk will help you make smarter decisions to get the most out of your RF setup. This tutorial is supported by Zeigermann_Audio.
Immersive Udo Lindenberg - Begleitung einer Ausstellung mit 3D Sound
3D-7-1 | Beginn 17:00 | Dauer 60 min. | Henning Birkenhake |
Kai Blankenberg | Vortrag (Deutsch)
Kai Blankenberg spricht über das Soundkonzept einer Ausstellung von Udo Lindenbergs Bildern mit Immersive Sound.
75-3 | 75 Jahre VDT | OS | 2025-11-12 | 17:00 - 18:00
75 Jahre VDT: Die Regionalgruppe XYZ präsentiert
75-3-1 | Beginn 17:00 | Dauer 60 min. | Stefani Renner | Workshop (Deutsch)
Abstract fehlt
NGA-5 | Broadcast / NGA | R 16 | 2025-11-12 | 17:00 - 18:00
Paris Summer Games – France Télévisions' End-to-End Atmos Workflow
NGA-5-1 | Beginn 17:00 | Dauer 60 min. | Roman Rehausen |
Yannick Olivier | 3D-Audio-Workshop (Englisch)
This is a listening session to the workshop #30690. In this listening session immersive audio examples of France TV productions, the Paris Summer Games and the French Open Tennis Tournament Roland-Garros, will be presented. At the Paris Summer Games, France Télévisions launched a permanent Next Generation Audio (NGA) service on its main channel France2, delivering immersive Dolby Atmos audio through object-based production using Serialized ADM (S-ADM) metadata. The UHD production, including immersive audio from all venues, is integrated via a high-bandwidth ST 2110 network connecting OB units and the broadcast center. The newly published ST 2110-41 standard enables reliable S-ADM transport across the IP infrastructure. S-ADM allows dynamic metadata handling to support immersive sound, accessibility features, and personalized audio experiences—all without requiring multiple dedicated audio mixes. Since the Games, France 2 has been continuously broadcasting in UHD with full NGA support.
SND-1 | Sound-Design für audiovisuelle Medien | R 3 | 2025-11-12 | 17:00 - 18:00
"Special Effects" im Hörspiel - dramaturgische Herausforderungen und Sounddesign
SND-1-1 | Beginn 17:00 | Dauer 60 min. | Rike Wiebelitz | Binaural Workshop (Deutsch)
Das Hörspiel als genuin auditive Kunstform bietet vielfältige kreative Möglichkeiten für die Klanggestaltung - immer im Wechselspiel mit den immanenten Anforderungen der Inszenierung. Neben dem Plastizieren der schauspielerischen Performance, der Durchhörbarkeit und Transparenz der verschiedenen Ebenen und der Gestaltung des emotionalen Spannungsbogens gibt es immer wieder ganz spezielle Challenges, für die besondere Lösungen gefragt sind - alternative Wahrnehmungsebenen, Flashbacks, das Totenreich, Fabelwesen, ein Kopf ohne Körper, Morphing der Figuren, Transitionen zu Zeitreisen um nur ein paar Beispiele zu nennen.
Der Vortrag bietet einen Einblick in die Klangwerkstatt der Hörspiel - Toningenieurin mit vielen Audiobeispielen in Stereo und 3D Audio.
Transparency of Auditory Envelopment in Monitoring
3D-8-1 | Beginn 10:30 | Dauer 60 min. | Thomas Lund | 3D-Audio-Workshop (Englisch)
Reproduced sound struggles with the "Inception Dilemma"; not a dream in a dream, but a room in a room. While stereo needs a listening room to “develop” a recording; surround and 3D formats may be spatially restricted and compromised by such temporal distortion.
With one of the most precious qualia of sound, Auditory Envelopment (AE) thereby left to tradition, we argue monitoring should start taking AE transparency seriously, in order not to waste these new and highly potential formats.
Relevant measurement metrics are described, and old dogma, like “bass management”, are challenged. The talk also includes stereo and 3D listening examples for evaluating transparency of AE latent in the content.
EM-1 | Elektronische Musik | R 2 | 2025-11-13 | 10:30 - 11:50
Electronic music production
EM-1-1 | Beginn 10:30 | Dauer 80 min. | Andrew Levine |
Mario Schönhofer | Workshop (Englisch)
Picking up from the groundbreaking presentation with Ströme at tmt31 in 2021 we showcase MMM / Music Making with Modular systems as well as discussing digital technology from the Haken Audio Continuum Fingerboard to digital (processing and interfaced) modular components. As special guests we welcome Mario Schönhofer from Ströme and Panic Girl a.k.a. Martha Bahr who will be showcasing one of their performance oriented modular setups.
Vorstellung der AG Kino-Lautheit (Kooperationsprojekt BVFT & VDT)
CS-3-1 | Beginn 10:30 | Dauer 30 min. | Florian Camerer |
André Klar | Vortrag (Deutsch)
Die AG Kino-Lautheit ist eine kleine Gruppe ehrenamtlich tätiger Personen aus den Verbänden VDT und BVFT. Ziel ist es, gemeinsam mit der EBU einen Standard für die Lautheit in Kinos zu erarbeiten. Die Gruppe hat sich 2025 konstituiert und erste Gespräche aufgenommen. Das Anliegen der Arbeitsgruppe soll vorgestellt werden und ein Austausch mit dem Publikum stattfinden.
Eine Untersuchung der Tondramaturgie von Filmtrailern mittels Lautheitsmessung und Sprachanalyse
CS-3-2 | Beginn 10:30 | Dauer 30 min. | Sebastian Hage | Vortrag (Deutsch)
In diesem Beitrag werden die Ergebnisse einer wissenschaftlichen Abschlussarbeit vorgestellt, die sich der Tondramaturgie von Filmtrailern aus einer statistisch-datenanalytischen Perspektive widmet. Mithilfe der Lautheitsmessung nach EBU R 128 wurde das Audiomaterial von 635 Trailern aus 17 Genres im Zeitraum von 1980 bis 2024 auf das Audiomerkmal der Intensität untersucht und zusätzlich eine Analyse des Sprachvorkommens durchgeführt. Die Untersuchung zeigt, wie Sprache und Audiointensität über den zeitlich-dramaturgischen Verlauf eines Filmtrailers eingesetzt werden und sie bezieht auch die historische Entwicklung der Trailerproduktion mit ein. Die Ergebnisse liefern ein tieferes Verständnis über den Einsatz dieser tondramaturgischen Elemente im Trailer und können ebenso für die Produktionspraxis relevant sein.
Sonic Storytelling - Ein ganzheitlicher Ansatz in der audiovisuellen Gestaltung
CS-3-3 | Beginn 10:30 | Dauer 30 min. | Jörg Lensing | Vortrag (Deutsch)
Die traditionelle Trennung zwischen Filmmusik und Sounddesign entspricht nicht mehr den Anforderungen moderner audiovisueller Medien. Während historische Arbeitsstrukturen oft personelle Aufgabenteilung vorsehen, verschwimmen die Grenzen zunehmend. Der Vortrag beleuchtet, wie ganzheitliches Sonic Storytelling neue kreative Perspektiven eröffnet. Anhand aktueller Produktionsbeispiele wird demonstriert, wie die Integration musikalischer und tongestalterischer Elemente zu kohärenteren, ausdrucksstärkeren Tonspuren führt. Diskutiert werden ästhetische und technische Aspekte: Wie können Geräusche musikalisch eingesetzt werden? Wie ist Musik als Teil des Sounddesigns zu verstehen? Welche Workflows unterstützen diesen Ansatz? Besonderes Augenmerk liegt auf früher Zusammenarbeit aller Beteiligten. Gezeigt wird, wie durch Auflösung traditioneller Grenzen neue narrative Möglichkeiten entstehen und die Gesamtwirkung verstärkt wird.
NET-1 | Vernetzte Audio- und Videotechnik | R 3 | 2025-11-13 | 10:30 - 12:00
“MILAN, Dante, RAVENNA, AES67 & the 7 Layers to Hell” - a Journey through the current AoIP Landscape
NET-1-1 | Beginn 10:30 | Dauer 30 min. | Andreas Hildebrand | Vortrag (Englisch)
This contribution provides an overview of the current AoIP solutions and explains how the various technologies align with the 7-layer OSI model. The audience will learn about the main commonalities and differences between MILAN, Dante and RAVENNA – and if AES67 can help guiding us from Hell to Purgatory …
Remote-Produktion im Umfeld klassischer Musik
NET-1-2 | Beginn 10:30 | Dauer 30 min. | Christian Güssmer | Vortrag (Deutsch)
Der MDR betreibt in Leipzig ein bestens ausgestattetes Studio für vorwiegend klassische Musikproduktion. Es wird eine praxiserprobte Lösung vorgestellt, dieses Studio für Konzertmitschnitte aus entfernten Sälen in Leipzig und auch anderen Städten zu nutzen. Dazu werden alle Mikrofonsignale linear per Netzwerkverbindung (AES67) übertragen. Neben technischen Aspekten sollen auch Vor- und Nachteile bspw. Kommunikation & Kosten einer remote Musikproduktion angesprochen werden.
AoIP bei Großbeschallungprojekten im Rock & Roll oder auch: Wie kommt Dante, AVB und Control bis in den Catwalk und wieder zurück?
NET-1-3 | Beginn 10:30 | Dauer 30 min. | Michael Ochs | Vortrag (Deutsch)
Der Vortrag gibt Einblicke in Aufgabenstellungen und Lösungsansätze für AV-Netzwerke im Touring und Großbeschallungsalltag.
Themen die hierbei Besprochen werden:
- Audio Over IP (Dante, AVB MILAN, AES67)
- Gemergte Netzwerke mit Licht und Video
- Resilienz & Redundanz vs. Komplexität
- Monitoring
- Modularität & Flexibilität
- Training & Reproduzierbarkeit
3D-Audio als Bühne für Emotionen: Die Produktion meines Albums "The Dark Stage"
3D-9-1 | Beginn 10:30 | Dauer 60 min. | Sitara Schmitz | 3D-Audio-Workshop (Deutsch)
Was bedeutet es, in einer lauten, schnellen Welt ein Album zu produzieren, das Raum lässt für Tiefe, Gefühle – und Klang? „The Dark Stage“ ist meine persönliche Antwort auf diese Frage. Ich lade ein zu einem Einblick in meinen Schaffensprozess als Produzentin, Komponistin und Indietronic Künstlerin „SITARA“. Mit Hörbeispielen aus der Entstehung des Albums, das 2026 erscheinen soll. Wie beeinflusst der immersive Raum meine musikalischen Entscheidungen? Welche Emotionen entstehen, wenn sich Klänge frei entfalten können? Wo geht die Reise hin, wenn ich das Album live präsentieren möchte? Ich teile meine Gedanken und Erfahrungen – nicht nur als technische Herausforderung, sondern auch als künstlerisches Statement. Eine Session für alle, die sich für emotionale Tiefe in der Musikproduktion interessieren – und für die Zukunft immersiven Klangs.
Neue Workflows für die Produktion von Musik in "Immersive-Audio"
3D-9-2 | Beginn 10:30 | Dauer 60 min. | Lennart Damann | 3D-Audio-Workshop (Deutsch)
Mit wachsender Beliebtheit immersiver Formate wie Dolby Atmos kommt ein Aspekt oft zu kurz: die Details.
Und wie wir alle wissen: Details sind entscheidend!
Oft werden immersive Mixe schnell aus Stereo-Versionen oder wenigen Stems generiert - sie erfüllen die technischen Vorgaben, sind aber kreativ uninspiriert und bieten dem Hörer keinen Mehrwert.
Für uns ist immersives Audio mehr als nur ein Format. Wir sehen es als kreatives Werkzeug, um musikalischen Ausdruck noch überzeugender zu gestalten. Unser Ansatz ist es, den Künstler und seine Vision in den Mittelpunkt zu stellen und Zeit für einen emotionalen, technisch überzeugenden Mix zu nehmen.
Aufgrund knapper Budgets und Zeitdruck haben wir Workflows entwickelt, die unsere Kreativität unterstützen, ohne sie auszubremsen. Durch maßgeschneiderte Tools automatisieren wir technische Aufgaben und gewinnen so Zeit für das Wesentliche: großartige Musik.
Außerdem teilen wir Beispiele aus unserer jüngsten Arbeit in Dolby Atmos.
"The President's Own" United States Marine Band - Large Ensemble Recording from Stereo to Immersive
3D-10-1 | Beginn 11:30 | Dauer 60 min. | Ophir Paz | 3D-Audio-Workshop (Englisch)
Join the Recording Lab of “The President’s Own” United States Marine Band for an inside look at how this team of engineers record and produce America’s oldest continuously active professional musical organization. Explore the team’s evolving approaches—from refined stereo techniques to emerging immersive audio workflows. Through detailed discussion and playback examples, this presentation highlights the intersection of technical precision and musical artistry across wind ensembles, string orchestra, and chamber groups—showcasing the high production standards behind this world-renowned musical institutions.
RD-1 | Forschung & Entwicklung | OS | 2025-11-13 | 11:30 - 13:30
Feinzeichner im Fokus – Entwicklung und Design moderner Hochtöner
RD-1-1 | Beginn 11:30 | Dauer 30 min. | Ingo Weismantel | Vortrag (Deutsch)
In diesem Vortrag erhalten Sie einen fundierten Einblick in die Entwicklung und das Design moderner Hochtöner. Der Referent beleuchtet zentrale technische Herausforderungen wie Membranmaterialien, Antriebstechnologien und Gehäuseintegration. Zudem wird aufgezeigt, welche akustischen und mechanischen Faktoren die Klangqualität maßgeblich beeinflussen und wie innovative Ansätze die Leistungsfähigkeit heutiger Hochtonsysteme weiter verbessern.
Kraft und Kontrolle - Tieftöner und Endstufen im Zusammenspiel
RD-1-2 | Beginn 11:30 | Dauer 30 min. | Ingo Weismantel | Vortrag (Englisch)
Dieser Vortrag widmet sich dem fundamentalen Zusammenspiel zwischen Tieftönern und Endstufen – zwei Schlüsselkomponenten für druckvolle und präzise Tieftonwiedergabe. Der Referent erläutert die Herausforderungen bei der Entwicklung leistungsfähiger Tieftöner und zeigt, wie die richtige Ansteuerung durch passende Endstufen das volle Potenzial ausschöpft. Themen wie Verzerrungen, Impedanzverlauf, thermisches Verhalten, Kontrolle durch DSPs und Systemabstimmung stehen im Fokus.
Form folgt Funktion – Schallführungen und Lautsprechergehäuse richtig gestalten
RD-1-3 | Beginn 11:30 | Dauer 30 min. | Ingo Weismantel | Vortrag (Deutsch)
Wie beeinflussen Gehäuseform und Schallführung das Klangbild eines Lautsprechers? In diesem Vortrag geht es um die akustischen und konstruktiven Grundlagen von Lautsprechergehäusen und Waveguides. Der Referent zeigt, wie gezielte Formgebung Richtwirkung, Abstrahlverhalten und Frequenzgang optimieren kann – und wie gutes Design weit mehr ist als nur eine optische Frage.
Im Raum vermessen – Lautsprechermessung fürs 3D-Setups in Studios
RD-1-4 | Beginn 11:30 | Dauer 30 min. | Ingo Weismantel | Vortrag (Deutsch)
Präzise Lautsprechermessung ist die Grundlage für authentische Wiedergabe – besonders im Studio und bei immersiven 3D-Audio-Anwendungen. Der Referent gibt einen praxisnahen Einblick in moderne Messverfahren, die Bedeutung des Abstrahlverhaltens und die Herausforderungen im Raum. Dabei wird auch gezeigt, wie Geometrie und Messdaten zur Optimierung von Abhörsituationen und zur Gestaltung räumlicher Klangfelder genutzt werden.
Bridging the gap between research and practice in immersive audio
3D-11-1 | Beginn 12:00 | Dauer 90 min. | Agnieszka Roginska |
Jim Anderson, Morten Lindberg, Ulrike Anderson, Paul Geluso | Roundtable-Diskussion (Englisch)
Immersive audio technologies offer new creative possibilities across music, film, gaming, and VR, yet research often remains disconnected from practical production workflows. This panel brings together leading spatial audio researchers with experienced audio engineers to bridge this gap.
We'll explore current immersive audio research and examine how theoretical advances can translate into practical tools that enhance creativity while maintaining artistic integrity and technical feasibility. The discussion will identify emerging research directions for immersive recording practices.
By fostering dialogue between academics and practitioners, we aim to ensure future research addresses real-world production challenges, advancing both the art and science of immersive audio creation.
75-4-1 | Beginn 12:00 | Dauer 90 min. | Lucca Riitano |
Jan Lukas Feldmann, Gabriel Arlauskas | Roundtable-Diskussion (Deutsch)
Das Referat Nachwuchs und Neumitglieder lädt frische Mitglieder jeden Alters und die, die es werden wollen ein. Ob Studierende, Auszubildende oder Berufseinsteiger, hier können wir uns in einer großen Runde austauschen.
Eingeleitet wird der Austausch mit einem Update der Referatsleitung, was in den letzten beiden Jahren passiert ist. Im Anschluss freuen wir uns über eure Anregungen und Wünsche, sowie einen Austausch der Runde.
LS-1 | Live Sound & Theater | R 2 | 2025-11-13 | 12:00 - 13:30
Sanierungstheater Darmstadt - Eine Passion in 7 Akten - Sanierung der gesamten Technik eines Schauspielhauses (hier: Tontechnik)
LS-1-1 | Beginn 12:00 | Dauer 30 min. | Sebastian Franke | Vortrag (Deutsch)
Seit dem Sommer 2021 wird das Kleine Haus des Staatstheaters Darmstadt saniert. Mit etwa 500 Plätzen ist das Haus gar nicht so klein und die Sanierung der Bühnen-, Beleuchtungs- und Ton- und Medientechnik wird am Ende ziemlich viele Millionen gekostet haben. Urspünglich war eine Wiedereröffnung zum Beginn der Spielzeit 2023/2024 geplant. Nun wird es wohl so grob 2 Jahre später werden. In dieser ganzen Zeit ist quasi am offenen Herzen operiert worden, weil der Rest des Hauses mit zwei weiteren Bühnen (dem deutlich größeren Opernhaus und der Ersatzspielstätte), die wie die Werkstätten etc. alle in einem gemeinsamen Gebäude untergebracht sind, die ganze Zeit normal oder eher noch höhertourig weiterlaufen musste. Ich möchte, in der Erwartung, zur TMT33 wieder ins Kleine Haus eingezogen zu sein, berichten über diese ca. 4 Jahre, die Unbillen von Lieferengpässen, staubgraue Harre, Krach im Betrieb und die Herausfoderung, eine 9 Jahre alte Planung noch in moderne Tontechnik hinüberzuretten.
Lift up your voice! (Be not afraid)
LS-1-2 | Beginn 12:00 | Dauer 30 min. | Doris Jaindl | Vortrag (Deutsch)
Um alle Publikumsplätze gleichermaßen zu erreichen, ist es häufig notwendig, Stimmen, akustische Instrumente und andere Klangquellen elektroakustisch zu verstärken. Üblicherweise bedient man sich dazu eines FOH- PA Systems, das den gesamten Zuschauer*innenbereich abdeckt, sowie Mikrofonen, die nahe an der Schallquelle platziert werden, um einen hohen Nutzsignalanteil zu gewinnen.
Dieser klassische Ansatz bringt jedoch einige entscheidende Nachteile mit sich, allen voran ein unnatürliches Klangbild und der Verlust der natürlichen Ortung.
VoiceLift ist ein Konzept, das sich vor allem in Räumen wie Konferenzsälen, Hörsälen, jedoch vermehrt auch im modernen Theater dieses Problems annimmt und dabei zunehmend an Aufmerksamkeit gewinnt.
Am Beispiel der Produktion Second Woman, die im Rahmen der Wiener Festwochen 2025 in der Halle E aufgeführt wurde, beleuchtet dieser Vortrag die Vorteile, Herausforderungen, Potenziale und Grenzen dieses technischen Lösungsansatzes.
ASC - Active Speaker Cancelling: Faltungsbasiertes (Echtzeit-)Signalauslöschungsverfahren zur Rückkopplungsunterdrückung
LS-1-3 | Beginn 12:00 | Dauer 30 min. | Olaf Schuberth | Vortrag (Deutsch)
Mit ASC wird ein faltungsbasiertes Verfahren vorgestellt zur (teilweisen) Auslöschung bzw. effektiven Dämpfung des Lautsprecher-Raum-Signalanteils im Mikrofonsignal für Live- und Studioanwendungen (Overdub-Aufnahmen mit Lautsprecherzuspielung).
Durch Faltung des parallel abgezweigten Lautsprechersignals über eine zuvor aufgezeichnete und bearbeitete Impulsantwort des auszulöschenden Übertragungssystems (also Lautsprecher-Raum-Mikrofon) und Invertierung seiner Polarität wird ein Korrektursignal erzeugt und zeitlich präzise korreliert auf das Mikrofonsignal aufsummiert. Im Vergleich zu anderen Verfahren zur Feedbackkontrolle werden dabei weder Frequenz- noch Phasengang des Nutzsignals beeinträchtigt. Abhängig vom Abstand zwischen Mikrofon und Lautsprecher sowie der Gesamtsystemlatenz ist das ASC-Verfahren echtzeitfähig.
Prinzipbedingt ist eine Anwendung nur für statische Mikrofon- und Lautsprecheranordnungen möglich und empfiehlt sich vor allem im tiefen bis mittleren Frequenzbereich.
Auditory Source Direction, Distance, and Width Mapping of An Equal Segment Microphone Array
MIC-2-1 | Beginn 12:00 | Dauer 30 min. | Sourena Mosleh |
Matthias Frank, Franz Zotter | Vortrag (Englisch)
This work presents the results of listening experiments on the imaging
of direction, distance, and
source width of sound sources in a room to auditory sources during
playback, in particular when
using an equal-segment microphone array (ESMA).
Of both 360° imaging microphone arrays tested, ESMA does not feature the
best match between
desired versus perceived directional localization curves. However it
does features a minimum localization
blur, and a stronger bias towards the earliest loudspeaker signal, in
particular at off-center listening
positions. The evaluations indicated that auditory distance maps
consistently with the source distance,
with statistically significant, yet only subtle differences of sources
aligned on-axis or between-axis of the
ESMA microphones. The distance could be modeled by the IACC,
and the width that was also
observed to increases with distance was modeled well by the rE-vector model.
Research on microphone arrangement in the grand piano recording: In search of a musical suitable timbre part2
MIC-2-2 | Beginn 12:00 | Dauer 60 min. | Kazuya Nagae |
Thorsten Weigelt, Toru Kamekawa | Workshop (Englisch)
Every instrument has a specific sound radiation pattern that is highly dependent on tone and frequency. This has been studied extensively by Jürgen Meyer. In 2022 we conducted research on the grand piano. The aim was to create comparable sound sources and, through subjective evaluation experiments, to find the microphone arrangement that could record the most musically appropriate timbre of a grand piano. About the recording, we recorded 24 points of AB stereo 55cm and we made a comparable web page. Then we conducted a subjective evaluation experiment to see how the sound impression would differ depending on the mic position. As Part 1 in 2023, focusing on one type of piano, 10 microphone positions and two pieces of music. As part 2, we plan to conduct it in August 2025 with different types of pianos to see if there is a relationship with the same microphone positions. We'd like to tell you all about this project and the relationship between the piano and the microphone.
Immersive Production at Tippet Rise: Studio-Grade Concert Hall and Field Capture, and Spatial Post-Production Techniques
TB-3-1 | Beginn 12:30 | Dauer 60 min. | Monte Nickles |
Jim Ruberto | TalkBack-Workshop (Englisch)
We present immersive recordings made in the acoustically rich environment of the Olivier Music Barn as well as outdoor performances and discuss production techniques such as using our concert hall as an immersive reverb chamber, and our extensive post-production efforts.
Since its founding, Tippet Rise has recorded more than 135 performances and produced over 10 albums, many in partnership with the leading classical music labels. Album productions have earned two Grammy nominations—a 2025 nomination for Decoda’s recording of Valerie Coleman’s Revelry, and a 2022 nomination for Lines Made by Walking by John Luther Adams, performed by the JACK Quartet.
Im Klang-Kanu: Vom Sounddesign zur Dolby Atmos-Magie – Das Kanu des Manitu
CS-4-1 | Beginn 12:30 | Dauer 60 min. | Benedikt Uebe |
Heiko Müller, André Klar | 3D-Audio-Workshop (Deutsch)
Im Workshop „Im Klang-Kanu“ gewähren Benedikt Uebe und Heiko Müller exklusive Einblicke in das Sounddesign und die Dolby Atmos-Tonmischung des deutschen Spielfilms Das Kanu des Manitu (Kinostart 14. August 2025). Gezeigt wird der komplette kreative und technische Prozess – von der Konzeptphase über die Gestaltung räumlicher Klangbewegungen und dynamischer Soundlayer bis zur finalen Mischung. Der Workshop findet in einem 3D-Audio-Raum statt, um alle Aspekte des Projekts authentisch erlebbar zu machen. Uebe und Müller demonstrieren praxisnah, wie Objekt-Audio, Musik, Dialoge und Effekte dramaturgisch verwoben werden, um Humor, Spannung und Immersion zu vereinen. Teilnehmende erleben, wie 3D-Audio nicht nur technische Präzision, sondern auch erzählerische Tiefe entfaltet.
Filmton
Perceptual Thresholds of Reverberation Time under Varying Direct-to-Reverberant Ratios: A Listening Test for Enhanced Audio Description Design
PP-1-1 | Beginn 13:30 | Dauer 60 min. | Mario Vallejo |
Gavin Kearney, Michael McLoughlin | Poster (Englisch)
This study investigates perceptual sensitivity to changes in reverberation time across different direct-to-reverberant ratio (DRR) conditions, with implications for enhancing audio description in accessible media. A staircase-based listening test was conducted to estimate the just noticeable difference (JND) in reverberation time across decay values (0.2 to 1.0 seconds) under three DRR conditions (low, medium, high). The findings aim to inform more perceptually guided approaches to spatial acoustics in audio description, ensuring greater immersion and clarity for users.
Live Sound & Theater
360-Grad Beschallungskonzept für zentral ausgerichtete Bühnen bei Musikkonzerten im Freifeld
PP-1-2 | Beginn 13:30 | Dauer 60 min. | Jan Philipp Vincenz | Poster (Deutsch)
Auf der Suche nach einem allgemeingültigen Ansatz einer Beschallungsanlage für mittig ausgerichtete und zu allen Seiten beschallende Bühnen (Centerstages), soll in dieser Abschlussarbeit des Studiengangs Ton & Bild an der Hochschule Düsseldorf, mithilfe von Simulationen ein Konzept für ein solches System entwickelt werden. Dabei werden verschiedene Lautsprecher-Arrays auf den Forschungsbereich bezogen analysiert und verglichen, sowie auf Ihre Skalierbarkeit hin bewertet.
Forschung & Entwicklung
Die Entwicklung eines DAW-Controllers
PP-1-3 | Beginn 13:30 | Dauer 60 min. | Mario Niehren | Poster (Deutsch)
Auf dem Poster „Die Entwicklung eines DAW-Controllers“ werden Ansätze skizziert, wie ausgewählte Einzelkomponentnen (z.B. Fader, Tasten und Inkrementalgeber) eines DAW-Controllers entwickelt werden können. Die Entwicklungsansätze stammen aus meiner Diplomarbeit „Handbuch zur Entwicklung eines DAW-Controllers“, wo diese noch ausführlicher erläutert sind. Zudem wird der Entwicklungsstand eines DAW-Controller-Prototyps vorgestellt. Dieser Prototyp soll via Ethernet mit der Workstation (DAW oder Interface) kommunizieren und dank eines internen RS485-Busses modular und somit erweiterbar sein.
Immersive Audio
Navigable Audio
PP-1-4 | Beginn 13:30 | Dauer 60 min. | Yannick Zirngibl | Poster (Deutsch)
Mathe lügt nicht – trotzdem klingen viele Klassik-Aufnahmen unrealistisch & künstlich: Solisten sind überlaut, Klangquellen schweben überbreit neben ihrem Bühnenplatz. Grund ist die Nah-Mikrofonierung, die eine Perspektive erzeugt, die kein Zuhörer je erlebt. Der Vortrag „Navigable Audio – Realistische Räume statt Nahmikrofon-Illusion“ zeigt, wie sich mit digitalen 3D-Mikrofonsystemen und positionsbasierten Aufnahmemethoden eine exakt reproduzierbare Geometrie herstellen lässt. Ohne Mischpulte oder komplexes Outboard genügt ein Computer mit mehreren USB-Schnittstellen, um jeden Schallwandler als Koordinatenpunkt im Raum zu erfassen. So entstehen Aufnahmen, deren Hall-, Präsenz- und Lautstärkebalance dem Live-Eindruck entspricht – in Stereo, Atmos oder als interaktives Navigable-Audio-Format. Hörer:innen können dabei in Echtzeit jeden Platz im Saal virtuell einnehmen. Der Beitrag diskutiert mathematische Grundlagen, Setup-Praxis und das Potenzial für immersive Produktionen der Zukunft.
Wireless
Auracast mit Hörgeräten - kommt das jetzt?
PP-1-5 | Beginn 13:30 | Dauer 60 min. | Hannes Seidler | Poster (Deutsch)
Für die Verbesserung des Verstehens in öffentlichen Räumen sind drahtlose Übertragungen des Audiosignals in die Hörgeräte gute Lösungen. Dennoch arbeiten die Hersteller von Hörsystemen schon lange Zeit daran, zusätzliche drahtlose Kommunikationswege anzubieten. Die qualitativ hochwertigen Lösungen sind oft markenorientiert und nicht austauschbar.
Mit der 2022 vereinbarten neuen Bluetooth-Technologie sollen viele Probleme gelöst werden. Die als "Audio BT-LE" bezeichnete Technik will unter dem Markennamen "Auracast" auf dem privaten Audiosektor Fuß fassen. Mit dem neuen, datensparenden Audiocodec LC3 wird nicht nur der Energiebedarf reduziert. Erstmals werden mehrkanalige, zeitgleiche Übertragungen (auch getrennt für rechts und links) möglich. Es ist vorgesehen, Audio-Broadcast-Ströme zeitgleich an nahezu beliebig viele Empfänger zu senden. Damit ist eine latenzarme Kommunikation im privaten wie öffentlichen Raum perspektivisch realisierbar. Der Markt bereitet sich gerade darauf vor...
Mikrofone / Mikrofonierung
Messtechnische und historisch-praktische Einordnung des Straus-Pakets nach Volker Straus
PP-1-6 | Beginn 13:30 | Dauer 60 min. | Samuel Sebastian Huber |
Martin Schneider | Poster (Deutsch)
Der kreative Einsatz von Aufnahmetechnik in der tonmeisterlichen Praxis führt manchmal zu Ergebnissen, die über die konkrete Aufnahmesituation hinaus Bestand haben und technische Entwicklungen nachhaltig beeinflussen. Ein bekanntes historisches Beispiel für die Suche nach kreativen und unkonventionellen Lösungen in Zeiten begrenzter technischer Möglichkeiten ist das sogenannte „Straus-Paket“. Die von Volker Straus eingesetzte Serienschaltung von Kugel- und Nierenmikrofonen erlangte zwischen 1970 und 1989 weite Verbreitung und war Ausgangspunkt für weitere Entwicklungen in der Mikrofontechnik und Aufnahmepraxis. Im Rahmen einer Bachelorarbeit im Tonmeisterstudiengang an der HfM Detmold wurde die Straus-Paket-Anordnung messtechnisch untersucht und ein Versuch zur Einordnung in die Aufnahmepraxis von Volker Straus unternommen. Ziel war es, die technischen Eigenschaften des „Straus-Pakets” zu analysieren und dessen Bedeutung in historischen und gegenwärtigen Aufnahmetechniken abzuschätzen.
Forschung & Entwicklung
Blind estimation of direct-to-reverberant ratio for microphone track selection
PP-1-7 | Beginn 13:30 | Dauer 60 min. | Jörg Bitzer |
Myrthe Proppe | Poster (Englisch)
In film productions it is standard practice to record multiple microphones in parallel to enable flexible post-processing and address varying acoustic conditions. However, selecting the most suitable track traditionally takes a lot of time and relies on subjective judgment. We present a method for automatically evaluating such multichannel recordings using the direct-to-reverberant ratio (DRR), a key indicator of speech intelligibility and acoustic clarity. Using AI, the DRR is estimated directly from the speech signal without requiring any reference. Microphone channel are segmented into short intervals, and each interval is scored based on the estimated DRR and additional spectral metrics. A voice activity detection further refines the analysis by focusing on speech-relevant segments. This provides automatic edit suggestions for an optimal composite. Initial tests in real-world recording environments demonstrate that this method delivers robust decisions.
Immersive Audio
Stereofone Stützmikrofonierung für 3D-Tonaufnahmen klassischer Musik
PP-1-8 | Beginn 13:30 | Dauer 60 min. | Simon Nitzl | Poster (Deutsch)
Das Thema meiner Bachelorarbeit war Stereo-Stützmikrofonierung für 3D-Audio im Zusammenhang mit Tonaufnahmen klassischer Musik. Panning in der Höhe, also die Verwendung einer Phantomschallquelle zwischen unteren und oberen Lautsprechern, ist klanglich unscharf, instabil und nicht greifbar. Höhenortung ist somit komplett vom Klang des aufgestellten 3D-Hauptsystems abhängig. Aus diesem Grund können typische Stereofonie-Verfahren mit vertikaler Ausrichtung als Stütze verwendet werden. Bei XY-, MS- oder Blumlein-Systemen werden die räumlichen Höhen- und Tiefeninformationen eines Instruments mikrofoniert und auf die Height- und Ground-Lautsprecher verteilt. Die Lokalisierung in der Medianebene wird über das Pegelverhältnis der beiden Signale bestimmt. Insbesondere Soloinstrumente können durch zwei vertikale Intensitäts-Stereofonie-Systeme in AB-Anordnung gestützt werden. Diese Systeme können ABMS, ABXY und AB-Blumlein genannt werden. Eigens angefertigte Recordings werde ich vorführen.
Mikrofone / Mikrofonierung
Beyond the Spec Sheet: Rethinking Microphone Characterization in the Age of Modern Measurement
PP-1-9 | Beginn 13:30 | Dauer 60 min. | Fernando Canalejo | Poster (Englisch)
Microphone specification practices have remained largely consistent for decades, despite significant advances in measurement tools and analysis techniques. This paper explores how modern methods can enrich our understanding of microphone behavior, leading to more informed choices for users and clearer communication from manufacturers.
Focusing on proximity effect, we propose a more detailed look at how low-frequency response varies with distance. In directivity, we examine deviations from axisymmetry and the differences between near-field and far-field behavior. Finally, we compare THD characteristics across microphone types, distinguishing between electrical clipping and transducer-based coloration.
By demystifying these complex behaviors and proposing more meaningful, accessible metrics, we aim to empower engineers, creators, and consumers to make more informed microphone choices and foster a culture of transparency in audio engineering.
Mikrofone / Mikrofonierung
Inside MS
PP-1-10 | Beginn 13:30 | Dauer 60 min. | Stefan Kießling | Poster (Deutsch)
Warum klingt MS für manchen Ohren unnatürlich? Mythen rund um MS. Was ist die „stabile Mitte“? Frequenzabhängiges Stereobild und wie man das vermeiden kann. MS in halligen Räumen und warum die Niere als Mittenmikrofon eher ungeeignet ist. Überbasis und ihre Frequenzabhängigkeit, speziell bei Kugeln als M. Die Kammfilterkarte. MS advanced - Doppel-MS und MMS: nicht nur für Surround, auch für Stereo interessant. Achtermikro simulieren: MXY - ein guter Freund von MS
EDU-2-1 | Beginn 14:00 | Dauer 60 min. | Marcel Remy | Workshop (Deutsch)
Schluss mit lästigen Kabel-Knäueln! Sauberes und effizientes Auf- und abwickeln von Kabeln gehört zu den absoluten Grundlagen für Tonschaffende. In diesem Hands-On Grundlagen Workshop betrachten wir Vor- und Nachteile verschiedener Techniken und probieren diese praktisch aus. Learning by doing ist das Motto.
Radio with laser: RF over Fiber: Basics, advantages and possible applications in broadcasting and live events.
WLSS-3-1 | Beginn 14:30 | Dauer 60 min. | Martin Mußbach | Tutorial (Englisch)
RF-over-fiber technology uses optical transmission for the low-loss and interference-resistant distribution of high-frequency signals. By converting RF into optical signals and transmitting them via fibre optic cables, significant attenuation losses over long distances are minimized and susceptibility to electromagnetic interference is eliminated. The modular design and the ability to integrate into complex audio systems predestine the technology for professional applications in broadcasting, live events and fixed installations, where reliable and high-quality signal distribution is critical. Massimo Polo explains the technological principles and presents areas of application based on current projects such as Studio Hamburg and Formula 1. This tutorial is supported by Zeigermann_Audio.
Neue Orgelaufnahmen aus Wien und Umgebung der letzten Jahre
TB-4-1 | Beginn 15:00 | Dauer 60 min. | Martin Macheiner | TalkBack-Workshop (Deutsch)
Es werden Orgelaufnahmen aus Wien und Umgebung der letzten Jahre vorgestellt, darunter an folgenden Instrumenten:
Die Festorgel der Stiftskirche Klosterneuburg (1642);
Die Wöckherl-Orgel in der Wiener Franziskanerkirche, 1642 – REMiNiSCENCES;
Der Flötenautomat des Abtes Andreas im Schottenstift (1820);
Die Hausorgel von Franz Schmidt (1909);
Die Späth-Orgel der Wr. Jesuitenkirche, 2004 – Mit Debussy und Ravel ... ins Kino - Saxophon und Orgel;
Der Flötenautomat ist ein absolutes Kuriosum, und bei den Aufnahmen stieß ich auf eine kleine Sensation, lassen Sie sich überraschen!
75-6-1 | Beginn 15:00 | Dauer 60 min. | Stefani Renner | Workshop (Deutsch)
Abstract fehlt
75-7 | 75 Jahre VDT | R 16 | 2025-11-13 | 15:00 - 16:30
Mercury Living Presence: A Legend in Recording
75-7-1 | Beginn 15:00 | Dauer 90 min. | Jim Anderson |
Matt Fine | Workshop (Deutsch)
Matt Fine, son of producer Wima Cozert Fine and recording engineer Robert C. Fine, recipients of VDT’s 2025 Gold Medal of Honor, will be in conversation with Jim Anderson exploring the historic label’s recordings. The "Living Presence" catalog, including the single-mike mono (1951–55) and three-mike stereo (1955–67) releases, numbered approximately 300 titles. With best-sellers like the 1954 mono and 1958 stereo recordings of Tchaikovsky's 1812 Overture, Living Presence also marks the time when audiophile recordings crossed over to become modest hits among mainstream listeners. The first commercial release of Ravel’s arrangement of Mussorgsky’s "Pictures at an Exhibition" on Mercury’s "Olympian Series" with Rafael Kubelik conducting the Chicago Symphony Orchestra, and recorded with a Schoeps M201 microphone in the center, caused the New York Times critic Howard Taubman to write that the effect of listening to the recording was "like being in the living presence of the orchestra".
NET-2 | Vernetzte Audio- und Videotechnik | R 3 | 2025-11-13 | 15:00 - 16:30
The Future of Networked Audio: How Milan Unlocks AVB/TSN for Seamless Integration
NET-2-1 | Beginn 15:00 | Dauer 30 min. | Fabian Braun | Vortrag (Englisch)
As AV systems evolve, the need for reliable, low-latency audio networking grows—but many users still find networked workflows overly complex, especially during setup and switch configuration. This seminar introduces Milan, the application layer built on AVB/TSN, which eliminates these challenges. Milan ensures predictable performance, tight synchronization, and simplified deployment across real-world use cases, from live touring to permanent installations. Attendees will explore Milan’s technical foundation, including stream reservation, redundancy, and plug-and-play interoperability across devices from different manufacturers—without the hassle of complex network setup. Whether you're working with loudspeakers, mixers, DSPs, or converters, Milan offers scalability, reliability, and reduced complexity for modern AV workflows.
Who should attend:
Audio system integrators, AV product developers, network engineers, AVB/Milan-curious manufacturers, and R&D decision-makers.
NMOS Control for AoIP: What It Is and How It Works
NET-2-2 | Beginn 15:00 | Dauer 30 min. | Stefan Ledergerber | Vortrag (Englisch)
Integrating devices into an Audio-over-IP (AoIP) environment can be complex without a standardized approach to setup and control. Although AoIP promises flexibility, the reality often falls short of a true plug-and-play experience.
The Networked Media Open Specifications (NMOS) define a suite of open, interoperable protocols that address this gap - simplifying setup, connecting, and monitoring of streams and devices - independent of individual vendors.
This presentation will introduce NMOS, outline the key use cases it addresses, and explain how it works. Attendees will gain a practical understanding of how NMOS streamlines deployment, enhances interoperability, and ensures reliable day-to-day operation in real-world AoIP infrastructures.
Time and Media Clock Synchronization Resilience in Converged Audio Networks
NET-2-3 | Beginn 15:00 | Dauer 30 min. | Philipp Hortig | Vortrag (Englisch)
Ensuring stable and coherent signal presentation in proAV networks with high traffic load is a complex challenge. While some solutions based on the Precision Time Protocol PTPv1 work only comparably well with considerable configuration effort and significant bandwidth overhead, they fall short when different traffic types compete in fully converged and highly utilized infrastructures. IEEE 802.1 Time-Sensitive Networking (TSN) introduces robust Quality-of-Service (QoS) mechanisms by extending the proven features of standard Ethernet by bounded latency and low packet jitter. Together with the Milan® specification interoperability is maintained. In this talk, experiment results demonstrate the effects of application of various traffic load scenarios to professional networked audio devices. This reveals conceptual limitations of some previous audio-over-IP solutions, which can be overcome by leveraging TSN mechanisms for traffic robustness.
LS-2 | Live Sound & Theater | R 2 | 2025-11-13 | 15:00 - 17:30
Object Based Mixing, oder wie geht man eigentlich mit den zusätzlichen Showcontrol Anforderungen für Immersive Audio um?
LS-2-1 | Beginn 15:00 | Dauer 60 min. | Michael Ochs | 3D-Audio-Workshop (Deutsch)
Anhand unterschiedlicher Multitracks (Symphonieorchester + Solisten) werden Varianten und Optionen eines möglich Objekt basierten bzw. immersiven Mix-Workflows für ein Live-Event Umfeld aufgezeigt.
Zu Sprache kommen und gezeigt werden ADM-OSC, Show-Control Tools wie LEMUR & Touch-OSC, Reaper, Quelab und weitere.
Musiktheater im immersiven Soundkleid. Ansätze und Lösungen aus Erfahrungen eines Theatertonmeisters
LS-2-2 | Beginn 15:00 | Dauer 60 min. | Oleg Surgutschow | 3D-Audio-Workshop (Deutsch)
Mit einem immersiven Sounderlebnis wird Musiktheater zu einem überwältigenden Abenteuer für die Sinne, bei dem der Sound uns von allen Seiten umgibt und direkt ins Herz trifft.
Aber welche technische Mittel und Instrumente stehen den Tonschaffenden zur Verfügung? Wie kreiert man einen Soundzauber im Musiktheater, wo auch viele andere Musiker und Sänger live zusammen musizieren? Inzwischen gibt es verschiedene Lösungsansätze.
Mit verschiedenen immersiven Soundbeispielen vor allem aus der neuen Opernproduktion "Amerika" von R. Haubenstock-Ramati nach F. Kafka möchte ich über mögliche Lösungen berichten und zeigen, welche Möglichkeiten und Wege stehen nun offen für die Tonschaffenden, die in Live-Beschallung und Theater tätig sind.
Immersive Audio in architektonisch komplexen Räumen
LS-2-3 | Beginn 15:00 | Dauer 30 min. | Volker Werner |
Jörn Nettingsmeier | Vortrag (Deutsch)
Die Umsetzung immersiver Audiosysteme in komplexen Räumen wie Theatern oder Opernhäusern stellt besondere Herausforderungen an die Systemkonfiguration und akustische Integration. Unterschiedliche Hörzonen, teilweise mit Fill-Systemen und variable Anforderungen an Klangquellen erfordern flexible und automatisierbare Lösungen. Der Vortrag beleuchtet zentrale Fragestellungen: Wie lassen sich einerseits bühnenbezogene Quellen und andererseits Surround-Inhalte in einem gemeinsamen Lautsprechersystem abbilden? Welche Strategien ermöglichen nahtlose Übergänge zwischen Front- und Raumklang? Welche Ansätze sind erforderlich, um Delay- und Pegelstrukturen dynamisch an Quelltyp und Hörposition anzupassen? Die Notwendigkeit, bühnenbezogene Quellen nicht nur entlang der immersiven Front, sondern auf die echte Quellposition abzubilden macht eine differenzierte Anwendung des Präzedenz-Effekts erforderlich. Ziel ist eine fundierte Diskussion aktueller Konzepte in heterogenen Raumstrukturen.
The Student 3D Audio Competition is taking place for the ninth year in a row. Again, we are expecting many submissions of high quality, elaborate, peppered with trend-setting ideas. The finals and award ceremony are hostet by the Tonmeistertagung. All nominated pieces will be presented on the immersive PA system. For those who cannot join us in Dusseldorf: The finals will also be streamed through the VDT homepage online.
Do not move for a good sound. Wind, vibration and microphones: wind protection and vibration decoupling.
CS-5-1 | Beginn 16:00 | Dauer 60 min. | Martin Mußbach |
Philippe Chenevez | Tutorial (Englisch)
Philippe Chenevez presents the basic physical principles of wind protection and vibration isolation for microphones. This will be followed by an overview of various options for combining wind protection and vibration isolation - with a particular focus on the so-called “COSI principle”. However, the aim is not only to impart knowledge, but above all to enable an interactive exchange with the participants. The focus is on practical issues and everyday challenges on set.
Cinela is a French company that has specialized in the development and production of innovative microphone suspensions and wind protection systems since 2006. It was founded by Philippe Chevenez, an engineer with a passion for acoustic precision. Today, Cinela is one of the world's leading suppliers of professional windscreens for film and sound technology. This tutorial is supported by Zeigermann_Audio.
The Art of Hiding. Concealing lavalier microphones and pocket transmitters on set & theater.
CS-5-2 | Beginn 16:00 | Dauer 60 min. | Martin Mußbach |
Simon Bysshe | Workshop (Englisch)
In this workshop, various techniques for hiding lavalier microphones and bodypack transmitters will be developed together and tried out live on a wide variety of costumes. In addition to the film set, the areas of application also include the needs of the sound department in theaters. Simon Bysshe and Laura Smith will be on hand with tips, tricks and tools and are sure to have an anecdote or two to tell.
Simon Bysshe has worked as Head of Sound on international cinema and series productions (Peaky Blinders - Gangs of Birmingham, Golda - Israel's Iron Lady, Hanna, MotherFatherSon etc.) and continues to work regularly as a sound engineer on international productions. Simon is also known in the location sound community for his countless short videos about hidden installation, but also for the URSA Exclusive Series, in which he presents setups and workflows from different perspectives of different sound engineers. This workshop is supported by Zeigermann_Audio.
NGA-6 | Broadcast / NGA | R 3 | 2025-11-13 | 16:30 - 17:00
Background loudness
NGA-6-1 | Beginn 16:30 | Dauer 30 min. | Pavel Smokotnin | Workshop (Englisch)
Background sounds have a strong influence on the speech intelligibility of the program. It's vital to control the masking effect of a dialogue by accompanying sounds. Recent changes in the EBU recommendations caused by the loudness war resulted in a decrease in the gap between background and speech levels, which could lead to problems with intelligibility.
This workshop will explain the basics of background loudness and its importance in the examples.
AOD-1 | Audio on Demand | OS | 2025-11-13 | 16:30 - 18:00
Is there money in the banana stand? Monetization and Technical Challenges in High Definition Streaming and Download Services
AOD-1-1 | Beginn 16:30 | Dauer 90 min. | Ulrike Anderson |
Stefan Bock, Jonas Sacks | Roundtable-Diskussion (Englisch)
David Solomon will moderate a panel of executives of high definition streaming and download services that may seem niche providers but offer good conditions for small and specalist labels.
3D-12-1 | Beginn 17:00 | Dauer 60 min. | Robin Zwirner |
Michael Acker | 3D-Audio-Workshop (Deutsch)
Vorgestellt wird eine 7.1.4 Produktion von Luigi Nonos Werk "Prometeo. Tragedia dell’ascolto", die im Sommer 2025 in Zusammenarbeit der SWR Hörfunk Produktion Baden-Baden und des SWR Experimentalstudios entstand. Die immersive Mischung baut auf den Einzelspuren einer früheren Konzertaufnahme für das 5.1 Format auf. Der Vortrag gibt Einblicke in das Stück und die Arbeitsweise im SWR Studio Konzerthaus Freiburg.
MA-1 | Mastering und Vinyl-Cut | R 3 | 2025-11-13 | 17:00 - 18:00
Kreative Musikmischung in Dolby Atmos - Downmix to Binaural
MA-1-1 | Beginn 17:00 | Dauer 60 min. | Henning Birkenhake | Binaural Workshop (Deutsch)
Philip Krause spricht über erfolgreiche Veröffentlichungen und beschreibt sein Vorgehen auch im Hinblick auf binaural downmix.
L’Enfant et les Sortilèges: a fantastical Opera coming to life through foley, immersive sound design and staging in Dolby Atmos
TB-5-1 | Beginn 10:30 | Dauer 60 min. | Kostas Pilos | TalkBack-Workshop (Englisch)
Using the multitrack recording of a live performance of Ravel’s opera "L’Enfant et les Sortilèges", this project explores whether it is possible to create an audio-only recording of an opera that still conveys the experience of a fully staged production. By layering additional Foley effects and immersive sound design, the goal was to develop a new approach to transforming existing multitrack opera recordings into rich audio experiences, that take full advantage of the creative possibilities offered by modern immersive sound technologies.
EDU-3-1 | Beginn 10:30 | Dauer 60 min. | Jim Anderson |
Nicholas Sansano | Tutorial (Englisch)
Nick Sansano, an American record producer, engineer and musician, recorded and mixed groundbreaking hip hop artists including Public Enemy, Ice Cube, Run DMC and Sonic Youth. Born in the Bronx and graduated from Berklee College of Music he began a successfull career as recording engineer and producer with the traditional methods and techniques he had learned and studied. With the rise of Hip Hop Nick unlearnd those techniques and invented innovative production techniques. Nick has been awarded over 15 gold, platinum and diamond record awards in the US and Europe. Through musical examples Nick will demonstrate and explain these techniques and his way to get there. Nick will be in conversation with Jim Anderson
AC-4 | Akustik | R 3 | 2025-11-14 | 10:30 - 12:00
DIN 18041 - Rückblick, Aktuelles & Ausblick
AC-4-1 | Beginn 10:30 | Dauer 30 min. | Christian Nocke | Vortrag (Deutsch)
Im Bereich der Raumakustik kann die DIN 18041 "Hörsamkeit in Räumen – Anforderungen, Empfehlungen und Hinweise für die Planung" aus dem Jahr 2016 nach weit verbreiteter Ansicht vieler Fachleute als allgemein anerkannte Regel angesehen werden. Die DIN 18041 wurde im Jahre 1968 erstmals mit dem Titel »Hörsamkeit in kleinen bis mittelgroßen Räumen« veröffentlicht. Schon in dieser ersten Fassung wurde auf den grundlegenden Unterschied zwischen der Nutzung von Räumen für Sprache und Musik hingewiesen. Mit den Vorgaben der DIN 18041 sind viele Räume des alltäglichen Lebens erfasst.
Aktuell wird die Norm wieder überarbeitet; hierbei sind Themen wie Inklusion, Lärmminderung und auch Arbeitsschutz zu berücksichtigen, da mit der ASR A3.7 "Lärm" im Jahr 2018 erstmalig raumakustische Anforderungen für Arbeitsstätten verbindlich eingeführt wurden. Auch international hat die Norm viel Beachtung gefunden. In diesem Beitrag werden einige Aspekte der Überarbeitung vorgestellt und diskutiert.
Untersuchung der wechselseitigen Bedeutsamkeit von Beschallungsanlagen und Raumakustik mit Methoden der virtuellen Akustik
AC-4-2 | Beginn 10:30 | Dauer 30 min. | Alexander Lindau | Vortrag (Deutsch)
Viele historische und aktuelle Studien beschäftigten sich mit der raumakustischen Qualität klassischer Konzertsäle. Nur wenig Daten können jedoch zur Frage des Zusammenhangs raumakustischer und beschallungstechnischer Eigenschaften in modernen Veranstaltungsorten für Rock- und Popmusik gefunden werden. Um sich diesem Thema mit einem empirischen Ansatz zu nähern, wählten wir Methoden der virtuellen Akustik. Wir modellierten zunächst einen typischen Rock-/Pop-Veranstaltungsort mit einem raumakustischen Simulationsprogramm und variierten die vier Faktoren a) Qualität der Raumakustik, b) Qualität der Beschallungsanlage, c) Stimulus und d) Zuschauerplatz auf systematische Weise. Für den anschließenden Hörversuch erzeugten wir Stimuli durch Faltung von Audiodateien mit den simulierten binauralen Raumimpulsantworten. Diese Stimuli wurden anschließend von 17 Probanden bewertet. Die – teils erstaunlichen – Ergebnisse wurden mittels deskriptiver und inferentieller Statistik (ANOVA) analysiert.
Optimierung von aktiven Akustiksystemen im realen Umfeld von Theatern und Konzertsälen
AC-4-3 | Beginn 10:30 | Dauer 30 min. | Simon Neeten | Vortrag (Deutsch)
Aktive Akustiksysteme dienen dazu, die natürliche Akustik eines Raums gezielt zu verändern oder zu erweitern. Sie basieren auf einer matrixbasierten Signalverarbeitung zwischen Mikrofonen und Lautsprechern. Durch die akustische Rückkopplung solcher Systeme können jedoch unerwünschte spektrale Verfärbungen entstehen, die die akustische Klangfarbe des Raumes verändern. In diesem Vortrag wird eine Analysemethode vorgestellt, mit der sich diese Verfärbungen objektiv identifizieren lassen. Grundlage ist die Impulsantwort des Raums, aus der ein zeitaufgelöstes Cepstrum berechnet wird. Die Bewertung erfolgt über die Spectral Flatness, mit deren Hilfe relevante Veränderungen im spektralen Verlauf lokalisiert werden können. Anhand von Messungen in realen Konzertsälen wird gezeigt, wie sich aktive Akustiksysteme gezielt an die vorhandene Raumakustik anpassen lassen, um klangliche Artefakte zu minimieren.
Immersive Audio Reloaded: A Look Into Innovative Practices in Studio and Live Production
3D-13-1 | Beginn 10:30 | Dauer 60 min. | Stefan Bock |
Massimo Carli | 3D-Audio-Workshop (Englisch)
Immersive audio technologies are reshaping the way performances are captured, mixed, and experienced in both live and studio applications. This presentation provides a comparative overview of object-based audio workflows, with a focus on live production. The goal is to explore technical and creative practices within immersive audio use cases. The presenters will shed light on how various production scenarios influence decisions around microphone techniques, signal routing, spatial audio design, and system integration. The discussion aims to foster a deeper understanding of how technological developments are transforming our approach to working with sound today. The presentation will include listening examples to illustrate key points.
Immersive Music - Stereo plus Effekte ist nicht genug!
3D-13-2 | Beginn 10:30 | Dauer 60 min. | Tom Ammermann | 3D-Audio-Workshop (Englisch)
Dieser Tage werden wir mit immer mehr immersiven Musikmischungen u.a. auf verschiedensten Streamingdiensten beglückt. Dummerweise mag das verheißene Glücksgefühl, ob der neuen Möglichkeit mit so vielen Kanälen zu arbeiten sich nicht so richtig einstellen. Ursache ist zu häufig das - wenig überraschend, wie auch bei Stereo - das kreative nutzen des Formates schon gewollt und geübt sein darf. Dies ist absolut unabhängig von den musikalischen Inhalten. Der Beitrag soll dies Problem, ohne einen vergleichenden Wettbewerb existierender Produktionen, illustrieren und Inspiration anbieten.
The Digital Concert Hall of the Berliner Philharmoniker
VID-1-1 | Beginn 10:30 | Dauer 60 min. | Christoph Franke | Workshop (Englisch)
In this workshop, Christoph Franke, Recording Producer with the Berliner Philharmoniker, examines the Digital Concert Hall's ecosystem. The session covers production workflows from live broadcasts to archiving, current camera systems, and Immersive Audio with Dolby Atmos. Discussion includes the custom backend system, social media integration, and collaboration with "Berliner Philharmoniker Recordings." The workshop addresses balancing high-quality audio with effective visual presentation in symphonic music streaming.
Audioproduktion zu Videoformaten bei Opern- und Konzertproduktionen
VID-1-2 | Beginn 10:30 | Dauer 60 min. | Peter Hecker | Workshop (Englisch)
In diesem Vortrag werden Erfahrungen und Herangehensweisen der Audioproduktion für verschiedene Bildformate erläutert. Es soll auch eingegangen werden auf unterschiedliche Ästhetiken, Rahmenbedingunen der Ausspielwege sowie künstlerische Entscheidungen in der Audiomischung zum Bild gegenüber der Mischung als reine Audioproduktion.
Classical Music in Film - an artistic approach with Beethoven Symphony no7 1. movement
VID-1-3 | Beginn 10:30 | Dauer 60 min. | Hans Kipfer | Workshop (Englisch)
Presentation and discussion of an artistic film of Beethoven 7. Symphony 1. movement with Martin Fröst and the Swedish Chamber Orchestra. Approach, concept, planning, workflow, recording and postproduction will be presented and discussed.
MA-2 | Mastering und Vinyl-Cut | R 13 | 2025-11-14 | 11:00 - 13:30
Der Einfluss von Tonmeister und Mastering: Empirische und gemessene Befunde bei Tonträger-Wiederveröffentlichungen
MA-2-1 | Beginn 11:00 | Dauer 30 min. | Timour Klouche | Vortrag (Deutsch)
Welche Parameter und in welcher Größenordnung werden im Vergleich von Erst- zu Wiederveröffentlichung verändert? Betrachtet werden Signalparameter und Metadaten, u.a. Pegel, Lautheit, Dynamik, Klangfarbe, Raum und Stereobreite. Anhand von ausgewählten Beispielen werden Besonderheiten und Trends vorgestellt und in Beziehung zur sich wandelnden Studiotechnik und veränderten Arbeitsweisen und „Ästhetiken“ der Audioproduktion gesetzt.
DMM vs. Lack-Vinyl-Cut - klingt DMM tatsächlich besser?
MA-2-2 | Beginn 11:00 | Dauer 60 min. | Henning Birkenhake | Workshop (Deutsch)
Sidney Meyer diskutiert dieses Thema (DMM vs. Lack-Vinyl-Cut - klingt DMM tatsächlich besser?) kontrovers
Grammy Award Winner Rainer Maillard spricht über ein Thema was er sich 5 Minuten vorher überlegt
MA-2-3 | Beginn 11:00 | Dauer 60 min. | Henning Birkenhake |
Rainer Maillard | Workshop (Deutsch)
Grammy Award Winner Rainer Maillard spricht über ein Thema was er sich 5 Minuten vorher überlegt
NGA-7 | Broadcast / NGA | R 16 | 2025-11-14 | 11:30 - 12:30
„Olafs Klub“ - Eine Unterhaltungssendung in 3D Audio
NGA-7-1 | Beginn 11:30 | Dauer 60 min. | Tino Hohndorf | 3D-Audio-Workshop (Deutsch)
"Olafs Klub" ist ein Stand Up Comedy Format des Mitteldeutschen Rundfunks in dem der God-Father der ostdeutschen Comedy Olaf Schubert in die originelle Location „Neues Schauspiel“ nach Leipzig einlädt. 2023 wurde dieses zum ersten Mal in Dolby Atmos produziert. Ziel dabei war es, Erkenntnisse über den Mehrwert für die Zuschauer*innen, sowie über den zusätzlichen Aufwand an Arbeitszeit und Produktionsmitteln zu erlangen. Bis heute ist die Arbeitsweise annähernd identisch geblieben und so wurde seitdem jede neue Staffel wieder in Dolby Atmos produziert. Es wird nicht mit einem Ü-Wagen aufgezeichnet, sondern mit einer Flight Case Video- und Audioregie direkt neben der Bühne. Final gemischt werden die Sendungen dann in einem 7.1.4 Post Produktionsstudio. Tino Hohndorf führt dabei die Tonregie und stellt die Arbeitsweise während der Aufzeichnung in der kleinen Location und der anschließenden Mischung mit Hörsbeispielen vor.
EDU-4-1 | Beginn 12:00 | Dauer 60 min. | Marcel Remy | Workshop (Deutsch)
Schluss mit lästigen Kabel-Knäueln! Sauberes und effizientes Auf- und abwickeln von Kabeln gehört zu den absoluten Grundlagen für Tonschaffende. In diesem Hands-On Grundlagen Workshop betrachten wir Vor- und Nachteile verschiedener Techniken und probieren diese praktisch aus. Learning by doing ist das Motto.
AC-5 | Akustik | R 3 | 2025-11-14 | 12:00 - 13:30
Auralization of Simulated Sound Fields
AC-5-1 | Beginn 12:00 | Dauer 30 min. | Jens Ahrens | Vortrag (Englisch)
Computer simulations of the acoustic response of spaces and of the sound fields that are radiated by vibrating structures such as loudspeakers or musical instruments keep gaining relevance. The simulation of many relevant acoustic phenomena such as diffraction require wave-based simulations that simulate acoustic fields explicitly. Contrary to geometric acoustics-based simulations, auralization of wave-based simulations is not straightforward because the local propagation directions of the simulated sound field are not available in a tangible form. We present the open-source Chalmers Auralization Toolbox that accomplishes auralization based on observations of the sound pressure and the particle velocity of a simulated sound field. We discuss the conditions under which perceptually transparent auralization is possible and discuss the potential of the toolbox for selected deployment scenarios.
Reproducing the Personalized Natural Timbre of Stereophonic Audio Content through Earphones Based on a New Auditory Model
This paper proposes a novel method for earphone personalization that accurately reproduces the natural timbre of stereophonic content. The approach combines anatomical scanning, individualized auditory modeling, and perceptual optimization based on fidelity to the listener’s auditory reference rather than preference. Unlike conventional EQ-based methods, this model-driven framework isolates and personalizes timbral cues essential for natural sound perception. It operates independently of spatial processing, improving the fidelity of musical timbre without degrading stereo imaging. Subjective evaluations show statistically significant improvements (p < 0.01) in perceived attributes such as “naturalness,” “richness,” and “clearness” compared to earphones tuned to standard target curves. The paper also introduces a practical anatomical scanning method using consumer smartphones, enabling real-world implementation.
Audio forensics: Areas of application, challenges and current developments
AC-5-3 | Beginn 12:00 | Dauer 30 min. | Gernot Schmied | Vortrag (Englisch)
This presentation provides, from an expert’s perspective, an overview of the tasks, areas of application, methods, standards, tools, and limitations of feasibility within this highly interdisciplinary field. As a physicist, my own background is more rooted in signal processing and acoustics, while other approaches stem from phonetics and linguistics, for example. Since there are few specialized and publicly available solutions, audio forensics relies on a wide range of both commercial and open-source tools, often repurposing specific plugins originally designed for mastering and post-production. The spectrum ranges from simple approaches to adaptive plugins, to the use of mathematical scripting and artificial intelligence/machine learning. Of particular interest are the explainability and transparency in the use of AI, as well as the challenges posed by audio deepfakes.
From law to music to game audio - a career changer's story to encourage you to break into the (game) industry
GAME-1-1 | Beginn 12:30 | Dauer 30 min. | Kim Vu | Vortrag (Englisch)
Kim Vu studied law, worked in law, studied music, still worked in law, found game audio by chance - and after some more prison time in law, finally escaped into full-time game audio. In this talk, he will talk briefly about learning sound design whilst studying music and working in law. He will then talk at length about the struggles of changing career paths, including a very specific way to secure state funding to finance the start of his freelancing career – a way many might not be aware of. At last, he will talk in detail about networking as an introvert and finding his first paid freelance projects. In all three chapters, he will luxuriate in the vast mistakes he has made – not so much to warn the audience, but to embolden them to fail fast and learn fast. As a bonus, he will quickly state why "breaking into the industry" is a treacherous mindset to have. This talk is for anyone who's finding things tough right now.
Immersive Klanggestaltung jenseits klassischer Hörgewohnheiten -- Kreative und methodische Ansätze am Beispiel einer a cappella-Surround-Produktion
3D-15-1 | Beginn 12:30 | Dauer 60 min. | Lukas Csaszar | 3D-Audio-Workshop (Deutsch)
Die präsentierte Arbeit geht von einer Surround-Aufnahme von Josef Rheinbergers "Abendlied" aus, bei der das zwölfstimmige Ensemble kreisförmig um die zentrale Aufnahme-/Hörposition platziert wurde. Im Gegensatz zu klassischen 3D-Audio-Produktionen, die primär auf die Reproduktion eines realen Konzerterlebnisses abzielen, verfolgt dieses Projekt einen explizit künstlerischen Zugang: Die bestehende Einhüllung wird gezielt erweitert und überlagert und Höreindrücke werden bewusst verstärkt und überhöht. Neue klanglich-musikalische Elemente brechen mit traditionellen Hörgewohnheiten und werden als für "die Klassik" untypische Gestaltungsparameter, die aus der klassischen Instrumentation abgeleitet sind, genutzt. Als Diskussionsgrundlage für das entstandene, eigenständige Klangerlebnis dient ein für die Methodik entwickeltes Vokabular. Das Projekt zeigt zudem die kreative, mitgestaltende Rolle von Tonmeister:innen.
3D-14-1 | Beginn 12:30 | Dauer 60 min. | Miaotong Yuan |
Yuan Zhang, Andrew Levine | 3D-Audio-Workshop (Englisch)
After the well-received presentations of immersive audio projects by students of the China University of Communication in Beijing, we bring some more productions in 3D audio as well as insights into current research in the field of recording arts, with contributions not only from students but also from faculty members of the Central Conservatory of Music in Beijing, the Shanghai Conservatory of Music, and the Zhejiang Conservatory of Music.
75-8-1 | Beginn 12:30 | Dauer 60 min. | Stefani Renner | Workshop (Deutsch)
Abstract fehlt
RD-2 | Forschung & Entwicklung | OS | 2025-11-14 | 13:00 - 13:30
Enhancing Audio Description: Production tools for accessible object-based media
RD-2-1 | Beginn 13:00 | Dauer 30 min. | Patrick Cairns |
Michael McLoughlin, Gavin Kearney | Vortrag (Englisch)
Object-based audio formats allow for the production and delivery of content where user-end control of the level of audio objects is provided. This may improve the accessibility of delivered content by improving dialogue intelligibility, and providing user-end agency in the delivered content. Current production tools, however, may be considered to provide insufficient control in the production of accessible mixes, or may be considered to require workflows which are not streamlined for the production of accessible mixes. Presented in this paper is the EAD production toolset, which looks to overcome these limitations in the production of ADM format deliverables. Novel features of this toolset include a convenient interface for the production of interactive mix buses, and ML audio classification designed to streamline production workflows. Additionally this toolset presents development towards automated authoring of accessible object-based audio content from stereo mix sessions.
Immersive Audio
Immersives Hören – Eine vergleichende Studie zu 3D-Audio und Stereo-Mischungen
PP-2-1 | Beginn 13:30 | Dauer 60 min. | Arkady Gavrilov | Poster (Deutsch)
Wie werden 3D-Audio Musikmischungen im Vergleich zur klassischen Stereofonie wahrgenommen? Dieser Frage geht der Vortrag anhand einer quantitativen Hörstudie nach, die im Rahmen einer Bachelorarbeit durchgeführt wurde. Mittels randomisierter, AB-blind Hörvergleiche wurden Musikmischungen in Stereo und als binaurale 3D-Mischung präsentiert und durch die Teilnehmenden anhand mehrerer psychometrischer Kriterien bewertet – darunter Klarheit, Räumlichkeit, Umhüllung, Störungsfreiheit und emotionale Involviertheit. Darüber hinaus wurde die Präferenz und wahrgenommene Differenz zwischen den Formaten erfragt.
Die Ergebnisse zeigen, dass beide Formate – trotz wahrnehmbarer Unterschiede – ein vergleichbar ähnliches immersives Hörerlebnis bieten. Der Vortrag beleuchtet das methodische Vorgehen, diskutiert die Ergebnisse kritisch und gibt Impulse für die Anwendung immersiver Formate in der Musikproduktion.
Immersive Audio
Wanderlust in the Echoes
PP-2-2 | Beginn 13:30 | Dauer 60 min. | Jiaye Wang | Poster (Englisch)
Wanderlust in the Echoes is a binaural audio work reconstructs the disorienting experiences of Alice in Wonderland Syndrome (AIWS) and dissociative episodes. These states are marked by a profound disruption of perceptual coherence—time appears to accelerate, familiar sounds become overwhelming, and the internal sound of the heartbeat grows impossibly loud and unmoored. Through spatialized sound, synthesized heartbeat motifs, and layered distortion and reverberation, the work immerses the listener in a world of sonic estrangement. Drawing on autoethnographic methods, the artist treats disordered perception as an epistemological mode, to critically examine how we inhabit and negotiate the boundaries of selfhood. Rather than presenting a linear narrative, it creates a sonic encounter with instability and perceptual violence. The piece reveals the body as a site of vulnerability and radical possibility, inviting audiences to temporarily inhabit a fragmented and amplified sensory world.
Forschung & Entwicklung
Zum Einfluss des Raumes auf das ästhetische Musikerleben
PP-2-3 | Beginn 13:30 | Dauer 60 min. | Rebekka Homburg |
Stefan Weinzierl | Poster (Deutsch)
Welchen Einfluss hat der akustische Raum auf das ästhetische Erleben klassischer Musik? Dieser Frage geht der im Rahmen einer Diplomarbeit durchgeführtes Laborversuch nach: 56 Teilnehmende hörten jeweils vier nachhallfreie Musikaufnahmen in real existierenden, simulierten Räumen. In der anschließenden Befragung wurden die wahrgenommenen und die gefühlten Emotionen sowie das ästhetische Urteil durch Fragebögen erfasst. Die Auswertung der Ergebnisse weist darauf hin, dass die Raumakustik das emotionale Erleben signifikant beeinflusst. Im Vortrag werden sowohl die methodischen Zugänge als auch die Ergebnisse und deren mögliche Relevanz für die Forschung und die Musikproduktion diskutiert.
Immersive Audio
Audio Augmented Reality im urbanen Raum – Entwicklung und Analyse von Produktionsverfahren
PP-2-4 | Beginn 13:30 | Dauer 60 min. | Gunther Greim |
Eva Wilk | Poster (Deutsch)
Wie kann der Klang einer historischen Setzmaschine aus dem Hamburger Museum der Arbeit für Personen, die außen vorbeigehen, als Augmented-Reality-Schall hörbar gemacht werden? Dazu muss die Schallquelle als virtuelle Schallquelle so vor dem Gebäude platziert werden, dass sie sich nahtlos in die Umgebungsakustik einfügt. Die Schallquelle wird bildlich ausgedrückt aus dem Gebäude „herausgeholt“ und vor dem Gebäude abgebildet. Es wurden zwei geeignete Produktionsverfahren für die binaurale Wiedergabe der Setzmaschine entwickelt. Ihnen liegt die binaurale Dekodierung von Ambisonics im B-Format mit Headtracking zugrunde. Zur Bewertung der Verfahren werden die benötigten Ressourcen einander gegenübergestellt, außerdem werden die Wahrnehmung von u.a. Ort, Entfernung und Immersion mittels Hörversuchen überprüft. Das erste Verfahren kann grundsätzlich für diese Aufgabe verwendet werden, und das Zweite lässt sich für beliebige räumliche Dimensionen und Geometrien einsetzen.
Forschung & Entwicklung
A special kind of Diffuse Soundfields, a new Auditory Sense and Audio Technology suitable for it
PP-2-5 | Beginn 13:30 | Dauer 60 min. | Gernot von Schultzendorff | Poster (Englisch)
The search for 3D audio capable of reproducing the richness, detail, tone color saturation and enveloping effect of particularly impressive natural sound events led to the discovery of the presumed existence of an exceptionally powerful region of auditory perception which appears to specialize in a form of diffuse sound fields whose assumed properties are similar to those of certain diffuse fields known from other disciplines. When activated, this region of perception works in parallel with the well-known auditory perception. By using the information contained in this type of diffuse sound field, it benefits from significantly improved frequency selectivity. Additionally, it creates a rich, relief-like virtual sound image in the listener's perception, close to the sound experience that listeners can experience in outstanding concert halls, embedded in a special kind of realistic envelopment.
Vernetzte Audio- und Videotechnik
AES67 über WiFi 7: Vergleich zentraler Netzwerkparameter mit LAN und früherer WLAN-Technologie
PP-2-6 | Beginn 13:30 | Dauer 60 min. | Samira Abbasi Taji Biuk |
Christian Epe, Steffi Dederichs | Poster (Deutsch)
Die Übertragung von Echtzeit-Audiodaten mittels AES67 kann maßgeblich von der Integration drahtloser Netzwerke profitieren.
Besonders vielversprechend erscheint in diesem Zusammenhang der weit verbreitete IEEE-WLAN-Standard 802.11, da er sowohl in der Industrie als auch im Consumer-Bereich etabliert ist und kontinuierlich durch das IEEE weiterentwickelt wird. Die aktuelle Version, IEEE 802.11be, auch bekannt als WiFi 7, beinhaltet wesentliche Verbesserungen hinsichtlich Latenz und Jitter – zwei Schlüsselfaktoren für eine stabile und synchrone Audioübertragung in Echtzeitsystemen. Im Rahmen dieser Arbeit wird die Performance von AES67 über WiFi 7 in einem mehrstufigen Versuchsaufbau untersucht. Der Fokus liegt auf Parametern wie Jitter und Paket-Metriken.
Der Beitrag stellt die Ergebnisse des Vergleichs von AES67 über WiFi 7 mit bisherigen Forschungsergebnissen zur Übertragung über WiFi sowie mit der kabelgebundenen Übermittlung via LAN dar.
Forschung & Entwicklung
Sanus per Audio! ADT-Kanalzüge bekommen ein zweites Leben
PP-2-7 | Beginn 13:30 | Dauer 60 min. | Christian Epe |
Vincent Hannen, Nils Königsberg | Poster (Deutsch)
Fast zwei Jahrzehnte lang leistete ein ADT-Inline-Pult zuverlässige Dienste in der Ausbildung zahlreicher Generationen angehender Ton- und Bildingenieur*innen an der Fachhochschule Düsseldorf (heute Hochschule Düsseldorf). Das analoge Mischpult kam intensiv in der Praxislehre zum Einsatz, bevor es 2009, im Zuge des technologischen Wandels hin zu digitaler Signalverarbeitung und damit verbundenen veränderten Workflows, außer Betrieb genommen wurde. Einige Teile des Pults konnten damals vor der Entsorgung gerettet und eingelagert werden. Ende 2024 fiel dann der Startschuss für ein besonderes Studierendenprojekt mit dem Ziel, ein „ADT-Upcycling“ zu realisieren. Das Ergebnis: eine Kleinserie vollwertiger Channelstrips mit Mikrofonvorverstärker im 19"-Format unter dem Namen SPA, Sanus per Audio.
Forschung & Entwicklung
Aufbau und akustische Messung eines Dipol-Basslautsprechers
PP-2-8 | Beginn 13:30 | Dauer 60 min. | Johannes Karos |
Johann-Markus Batke | Poster (Deutsch)
Im Rahmen einer studentischen Projektarbeit wurde ein Dipol-Basslautsprecher
aufgebaut und akustisch vermessen. Die 18"-Chassis waren bereits aus einem
PA-System vorhanden, als Gehäuse wurde das Ripol-Konzept gewählt. Parameter der
Messung waren Frequenzgang, Phasengang bzw. Gruppenlaufzeit, Klirrfaktor und
insbesondere die Richtwirkung des Lautsprechers. Die Messungen erfolgten bei
1 W/1 m im Nahfeld und auf der 0°-Achse.
Die Ergebnisse der Projektarbeit diskutieren den nutzbaren Frequenzbereich und
die erzielte Richtwirkung. Unter 100 Hz ist eine ausgeprägte Richtwirkung zu
erkennen. Der Frequenzgang zeigt klar, das für den praktischen Einsatz
korrigiert werden muss. Die Gruppenlaufzeit verläuft weitgehend konstant.
Weiterhin werden im Rahmen der Arbeit die besonderen Herausforderung der Messung
tiefer Frequenzen diskutiert.
Immersive Audio
Produktion von Demonstrationsmaterial zur akustischen Musikproduktion auf Basis von Ensembleaufnahmen im reflexionsarmen Raum
PP-2-9 | Beginn 13:30 | Dauer 60 min. | Frank Melchior |
Benjamin Müller, Arne Morgner, Lukas Knobloch, Moritz Neuschwander, Eric Voigt | Poster (Deutsch)
Um die Möglichkeiten der Produktion in 3D-Audiosystemen für ein breites Publikum zu veranschaulichen, wurden Aufnahmen in einem reflexionsarmen Raum realisiert. Die Musiker des Ensembles (Cembalo, Violine, Cello, Flöte) wurde mittels eines aufwendigen Verfahrens individuell aufgenommen. Die Verwendung eines koinzidenten, 3-kanaligen Stützmikrofons an jeweils vier Positionen ermöglicht eine vielfältige Abbildung und Klangfarbe bei Wiedergabe über ein 9.1.4 Lautsprecherlayout. Extreme Variationen in Positionierung, Mischung und räumlicher Darstellung sind möglich. Der Beitrag stellt die Produktionsmethodik und beispielhafte Ergebnisse für ein mobiles 3D-Audio Demonstrationsfahrzeug vor. Auszüge der Produktion werden, sofern rechtlich möglich, für Forschung und Lehre veröffentlicht.
Scheinselbständigkeit - Funktionalität und Prüfung
BI-2-1 | Beginn 14:00 | Dauer 30 min. | Marc Stähly |
Marcus Pohl | Vortrag (Deutsch)
Abstract fehlt
NGA-8 | Broadcast / NGA | OS | 2025-11-14 | 14:00 - 14:30
Perspektive NGA im Deutschlandfunk - Anwendungsbereiche und Herausforderungen
NGA-8-1 | Beginn 14:00 | Dauer 30 min. | Stefan Haberfeld | Vortrag (Deutsch)
Wie schaut der öffentlich-rechtliche Rundfunk auf das Thema NGA? Was gibt es bisher? Wo wollen wir hin? Wie können wir NGA distribuieren?
RD-3 | Forschung & Entwicklung | OS | 2025-11-14 | 14:30 - 15:00
Voice at Your Fingertips: How Generative Voice AI is Reshaping Production Workflows
RD-3-1 | Beginn 14:30 | Dauer 30 min. | Alexander Wolf |
Philipp Eibl, Ulli Scuda | Vortrag (Englisch)
Generative Voice AI is transforming ADR and multilingual Dubbing, challenging traditional production workflows. While advertisers and content creators rapidly adopt to new possibilities reaching international markets, long-form media productions are approaching the subject more cautiously. What are acceptance criterias for studios and broadcasters? Why do creators decide for or against the use of generative Voice AI? The objective of this talk is a discussion about the impact of generative Voice AI primarily looking from a workflow perspective. By combining expert interviews, an industry survey and user testing, we look at efficiency gains for time and cost savings, as well as revision management. The authors are going to engage with audio professionals and leading providers of generative Voice AI to create a snapshot on maturity and integration pain-points. As a compilation of current challenges and potential solutions, we aim to encourage a discussion among audio engineers.
“Voices Found” – Die Klangräumlichkeit einer Komposition
TB-6-1 | Beginn 15:00 | Dauer 60 min. | Malgorzata Albinska-Frank | TalkBack-Workshop (Deutsch)
Ein wildes Treiben nie zuvor gehörter Stimmen summt um uns herum. Woher kommen diese Stimmen? Sie kommen von jenem Ort, an dem Tag und Nacht, Vergangenheit und Zukunft, Davor und Danach miteinander verschmelzen. Sie fliegen, treffen sich im Lachen oder schleichen sich leise von hinten an. Ihre Botschaften sind geheimnisvoll, doch die unsichtbaren Wesen haben uns etwas mitzuteilen – und ihre Stimmen gehen uns unter die Haut. Eine Resonanzkammer und vielfältige Beziehungsgeflechte umgeben uns und du bist mittendrin! Charlotte Hug und Małgorzata Albińska-Frank arbeiten seit einem Jahr zusammen. Im Zentrum steht die räumliche Interpretation von Charlotte Hugs Kompositionen. Ursprünglich für das Stereo-Format gedacht, wurde das Werk nun kreativ für 3D-Audio bzw. 5.1-Surround-Sound überarbeitet. Ziel ist es, durch die neuen Wiedergabemöglichkeiten die innere Klangräumlichkeit der Kompositionen zu entdecken und die Zuhörenden in eine dreidimensionale imaginäre Klanglandschaft zu versetzen.
3D-16-1 | Beginn 15:00 | Dauer 60 min. | Hyunkook Lee | 3D-Audio-Workshop (Englisch)
In acoustic 3D sound recording, careful microphone array design is crucial for delivering realistic, enveloping, and immersive auditory experiences. To maximise the benefits of the additional channels in the 7.1.4 format and effectively capture height and surround information, a solid understanding of psychoacoustic principles is essential. This workshop session will provide an overview of the key psychoacoustic principles of 3D audio perception, discuss how they inform the design of various microphone array techniques, and present immersive music and soundscape recordings captured in diverse acoustic spaces and outdoor environments.
75-9-1 | Beginn 15:00 | Dauer 60 min. | Stefani Renner | Workshop (Deutsch)
Abstract fehlt
AC-6 | Akustik | R 3 | 2025-11-14 | 15:00 - 16:00
Application of the Spatial Decomposition Method in Automated Room Acoustic Measurements
AC-6-1 | Beginn 15:00 | Dauer 60 min. | Stephan Werner |
Georg Stolz, Lukas Treybig | Tutorial (Englisch)
The Spatial Decomposition Method can be used to measure direction-dependent spatial room impulse responses (SRIRs). Using SRIRs, it is possible to accurately map the direction of sound incidence in addition to the temporal incidence of direct sound and room reflections. SRIRs can then be used as a basis for room acoustic analyses and for auralization using dynamic binaural synthesis. If the measurements are carried out at numerous source-receiver positions in the room, the spatial variance of the room acoustics in a room can be represented with high resolution. A mobile robot platform is used to carry out the measurements in a practical and automated manner. The tutorial presents the measurement approach as well as the data analysis using examples and an on-site measurement.
Nachhaltigkeit und Klimaschutz in der Audiobranche - was hat sich seit 2023 getan, was erwartet uns?
SUST-1-1 | Beginn 15:00 | Dauer 60 min. | Ulrich Lorscheider |
Robert Trebus | Roundtable-Diskussion (Deutsch)
Auf der TMT 2023 gab es erstmals ein Roundtable-Gespräch zum Thema Nachhaltigkeit mit Vertretern aus der Produktion, von Herstellern und dem Verband.
Wir setzen das auf der TMT 2025 fort mit Gesprächspartnern aus verschiedenen Teilen unserer Branche. Nicht nur die ökologische Dringlichkeit, sondern vor allem allmählich in Kraft tretende Regularien auch für unsere Branche werden zweifellos Auswirkungen auf unsere Arbeit und unser Wirtschaften haben - was aber vielen von uns noch gar nicht bewusst ist. Das Roundtable wird hier wichtige Kommunikation betreiben und auch Impulse geben können.
Zwischen Ideal und Alltag – Videoproduktion aus der Sicht eines klassischen Tonmeisters
VID-2-1 | Beginn 15:00 | Dauer 30 min. | Piotr Furmanczyk | Vortrag (Deutsch)
Die Videoproduktion klassischer Musik bewegt sich zwischen künstlerischem Anspruch, technischer Machbarkeit und realen Produktionsbedingungen. Ich berichte aus der Perspektive eines freischaffenden Tonmeisters und musikalischen Aufnahmeleiters, der sich aus eigener Initiative und mit begrenztem Budget in Richtung Videoproduktion weiterentwickelt hat – mit Fokus auf hybride Ansätze: also die Kombination von Live-Aufnahme, Playback und inszenierten Elementen. Diese flexiblen Modelle verbinden musikalische Authentizität mit visueller Gestaltung und ermöglichen überzeugende Ergebnisse – auch ohne großes Team oder große Mittel. Anhand konkreter Projekte zeige ich Vor- und Nachteile verschiedener Methoden – von der simultanen Ton-Bild-Aufzeichnung bis zur Produktion von Videos zu bestehenden Playbacks. Der Vortrag richtet sich an Tonmeister:innen, Musiker:innen und Produzent:innen, die audiovisuelle Strategien im Klassikbereich weiterdenken möchten.
„Ton ist nicht genug!“ – Wie Musikproduktionen ohne Bild an Relevanz verlieren und sich das Berufsbild im Studio verändert
VID-2-2 | Beginn 15:00 | Dauer 60 min. | Michael Thumm |
Bettina Bertók | Workshop (Deutsch)
Musikproduktionen sind längst mehr als reine Klanggestaltung. In einer visuell getriebenen Medienwelt wird das Video zum zentralen Bestandteil der Veröffentlichung – und oft sogar zum wichtigen Erfolgsfaktor. Dieser Workshop diskutiert, wie sich die Rolle der Audio-Professionals wandelt, welche Erwartungen Künstler:innen heute an eine Produktion stellen und warum Videokompetenz ein Thema im Tonstudio ist.
Es werden Einblicke in aktuelle Praxisbeispiele und Workflows der Bauer Studios gegeben und diskutiert, wie Audio-Produktionen auf diese neuen Anforderungen technisch, kreativ und wirtschaftlich reagieren können.
Ist klassische Musikproduktion noch zeitgemäß oder muss der Tonmeister von morgen auch Videospezialist sein?
VID-2-3 | Beginn 15:00 | Dauer 60 min. | Michaela Wiesbeck |
Christoph Franke, Piotr Furmanczyk, Peter Hecker, Hans Kipfer, Michael Thumm, Bettina Bertók | Roundtable-Diskussion (Deutsch)
In diesem Roundtable möchte ich mit den Vortragenden des Themas Audio/Video-Produktion über Praxiserfahrungen, Zukunftsprognosen, Aussichten, Workflows und Marktsituationen sprechen sowie Fragen aus dem Publikum einbeziehen.
SND-2 | Sound-Design für audiovisuelle Medien | R 2 | 2025-11-14 | 15:00 - 18:00
Panel Medien & Sounddesign 1: Sounddesign in der Lehre
SND-2-1 | Beginn 15:00 | Dauer 30 min. | Oliver Curdt |
Maximilian Kock | Vortrag (Deutsch)
Das Panel "Medien & Sounddesign" stellt aktuelle Entwicklungen im Sounddesign für audiovisuelle Medien vor: Was ist ein innovative und zeitgemäße Gestaltung der Tonspur und wie ist dies zu erreichen? Welche unterschiedlichen Konzepte müssen für die vielen audiovisuellen Übertragungskanäle beachtet werden? Welche Rolle spielt die Künstliche Intelligenz heute beim Sounddesign?
Im ersten Teil "Sounddesign in der Lehre" stellt Oliver Curdt, Professor für Tontechnik und Sounddesign an der Hochschule der Medien in Stuttgart, Sounddesign-Arbeiten seiner Studierenden vor. Wie hat z.B. sich die Tätigkeit des Sounddesigns in den letzten Jahren durch den (möglichen) Einsatz von intelligenten Algorithmen verändert?
Panel Medien & Sounddesign 2: Sprachsynchronisation (ADR) und Sounddesign
SND-2-2 | Beginn 15:00 | Dauer 30 min. | Oliver Curdt |
Maximilian Kock | Vortrag (Deutsch)
Das Panel "Medien & Sounddesign" stellt aktuelle Entwicklungen im Sounddesign für audiovisuelle Medien vor: Was ist ein innovative und zeitgemäße Gestaltung der Tonspur und wie ist dies zu erreichen? Welche unterschiedlichen Konzepte müssen für die vielen audiovisuellen Übertragungskanäle beachtet werden? Welche Rolle spielt die Künstliche Intelligenz heute beim Sounddesign?
Der zweite Teil hat die Sprachsynchronisation zum Thema: Wie baue ich das (eventuell vorhandene) Sounddesign um den neue synchronisierten Dialog herum? Wie ist das beste Mischungsverhältnis zwischen Sounddesign und Sprache? Benötigt der deutsche Dialog mehr Pegelabstand zur Geräuschebene als ein englischsprachiger Dialog?
Durch diese Session führt Jochen Fenzl, freiberuflicher Sounddesigner und Soundeditor (ARD, RTL, ZDF) in München.
Panel Medien & Sounddesign 3: Sounddesign für Games und Filme - Unterschiede in der Vorgehensweise
SND-2-3 | Beginn 15:00 | Dauer 30 min. | Dominik Zingler |
Hendrik Henkemeier, Maximilian Kock | Vortrag (Deutsch)
Das Panel "Medien & Sounddesign" stellt aktuelle Entwicklungen im Sounddesign für audiovisuelle Medien vor: Was ist ein innovative und zeitgemäße Gestaltung der Tonspur und wie ist dies zu erreichen? Welche unterschiedlichen Konzepte müssen für die vielen audiovisuellen Übertragungskanäle beachtet werden? Welche Rolle spielt die Künstliche Intelligenz heute beim Sounddesign?
Im dritten Teil arbeiten Hendrik Henkemeier, HenRec-Studios in Dortmund und Dominik Zingler, Lead Audio Designer Crytek, Frankfurt am Main, die Unterschiede und Gemeinsamkeiten beim Sounddesign für klassische audiovisuelle Medien und für Games heraus: Welche Rolle spielt u.a. der Einsatz von intelligenten Algorithmen in beiden Medien?
Panel Medien & Sounddesign 4: Diskussion
SND-2-4 | Beginn 15:00 | Dauer 90 min. | Maximilian Kock |
Dominik Zingler, Oliver Curdt, Hendrik Henkemeier | Roundtable-Diskussion (Deutsch)
Das Panel "Medien & Sounddesign" stellt aktuelle Entwicklungen im Sounddesign für audiovisuelle Medien vor: Was ist ein innovative und zeitgemäße Gestaltung der Tonspur und wie ist dies zu erreichen? Welche unterschiedlichen Konzepte müssen für die vielen audiovisuellen Übertragungskanäle beachtet werden? Welche Rolle spielt die Künstliche Intelligenz heute beim Sounddesign?
In einer abschließenden Diskussion sollen im vierten Teil dieses Panels einige grundsätzliche Fragen der Tonspurgestaltung thematisiert werden:
Ist eine Audioproduktion in Stereo noch zeitgemäß?
Wie funktioniert der Ton zum Bild? Was kann er leisten und was nicht?
Welche Rolle spielen die intelligenten Algorithmen im heutigen Sounddesign?
Educating the Next Generation in 3D Audio Recording: Case Studies from Japanese Universities
3D-17-1 | Beginn 16:00 | Dauer 60 min. | Kimio Hamasaki |
Toru Kamekawa, Kazuya Nagae | 3D-Audio-Workshop (Englisch)
This workshop presents case studies on educational initiatives in three-dimensional sound recording, distribution, and reproduction. The Department of Musical Creativity and the Environment at Tokyo University of the Arts has led research and instruction in 22.2 multichannel audio recording since 2015. Since 2023, selected works have also been distributed in Auro 11.1 (7.1 + 4H) format via KORG Live Extreme. The Faculty of Music at Nagoya University of the Arts has included 3D sound recording education in its curriculum since 2001. In 2022, the university launched NUA Records, a student-run label that releases immersive audio content, including Dolby Atmos productions, on Apple Music. These releases span diverse musical genres and give students hands-on experience in professional production workflows. The workshop will share insights on curriculum design, technical infrastructure, recording practices, and distribution strategies, and will include demonstrations of selected recordings.
RD-4 | Forschung & Entwicklung | R 3 | 2025-11-14 | 16:00 - 18:00
Somatic Constituents of Auditory Envelopment in Low Frequency Noise Stimulation
RD-4-1 | Beginn 16:00 | Dauer 30 min. | Thomas Lund | Vortrag (Englisch)
Auditory Envelopment (AE) is an elementary quale of low frequency sound fluctuations between the ears, capable of inducing pleasure and somewhat predictable emotions in a human listener of most any age.
The present pilot study investigates if low frequency noise sound stimulation of the body, primarily of the abdomen, is capable of modulating the sensation of AE.
Results indicate AE to be primarily or only of auditory origin. They also suggest a low frequency limit to its sensation, at least when random fluctuation is employed. In addition, AE does not appear to be a binary quale, but a whole dimension in much need of further investigation.
Zur Dokumentation des tonmeisterlichen Beitrags bei Musikproduktionen
RD-4-2 | Beginn 16:00 | Dauer 30 min. | Stefan Weinzierl |
Jona Claudio Monti, Rebekka Homburg | Vortrag (Deutsch)
Das Tonstudio als Ort, an dem künstlerisch-ästhetische Entscheidungen getroffen werden, war in der Musikwissenschaft und Medienproduktionsforschung bisher nur sporadisch Gegenstand einer näheren Betrachtung. Dies gilt insbesondere für die klassische Musik, bei der Eingriffe in die Klangbalance ebenso wie der Tonschnitt in der Außendarstellung häufig hinter dem Ideal der „Natürlichkeit“ zurücktreten. Um den tonmeisterlichen Beitrag in der klassischen Musikproduktion analysierbar zu machen, wurden daher in einem DFG-geförderten Forschungsprojekt Werkzeuge und Techniken entwickelt, welche die Aufnahme und die Postproduktion einer Musikproduktion möglichst vollständig dokumentieren sollen. An einem exemplarischen Korpus von Produktionen wird im Vortrag die automatische Auswertung einer AAF-Projektdatei und die Nutzung eines Webformulars vorgestellt, die nicht nur eine wissenschaftliche Analyse, sondern auch eine umfassende Dokumentation für die Tonschaffenden selbst ermöglichen sollen.
Analyse und Klassifizierung der Stimmstruktur professioneller Stimmen im Operngesang
RD-4-3 | Beginn 16:00 | Dauer 60 min. | Matthias Müller |
Sebastian Müller | Tutorial (Deutsch)
Warum behauptet eine international renommierte Opernsängerin, dass Sie sehr wohl auf einem „hohen as“ noch ein schönes „i“ singen kann und daraus nicht – wie häufig propagiert wird – einen „a-ähnlichen Klang“ erzeugen muss, um dann „Labe“ statt „Liebe“ zu singen, wenn doch der Akustiker weiß, dass dies gar nicht möglich ist? Ist die subjektive Wirklichkeit einer künstlerischen Persönlichkeit ein auf ewig unerforschbares Mysterium, oder gibt es eine Brücke zu einer Welt, die auf wissenschaftlichen Erkenntnissen beruht? Matthias Müller hat sich mit dem oben genannten Projekt seit vielen Jahren dieser Frage gewidmet und mit dem Tonmeister und Toningenieur Sebastian Müller einen Mitstreiter gefunden, der in einer objektiven Beschreibung der Opernstimmen auch gewinnbringende Erkenntnisse für die Tonmeisterei entdeckt hat. In dem Tutorial wird das Projekt vorgestellt und anhand vieler Klangbeispiele, die Möglichkeit bzw. Notwendigkeit der Objektivierung diskutiert.
OS-2 | Open Source für Audio-Produktionen | OS | 2025-11-14 | 16:30 - 18:00
Shaping the Future of Audio: Toward Free Software in Professional Workflows
OS-2-1 | Beginn 16:30 | Dauer 90 min. | Jörn Nettingsmeier |
Darko Jankovic, Samuel Aubert, Johannes Wirtz, Simon Gapp, Sven Thielen | Roundtable-Diskussion (Englisch)
As proprietary ecosystems falter—e.g., DAWs bypassing user opt-out for telemetry (see Sven Thielen's talk) and Windows 10's end-of-life forcing users to become an advertisement platform—audio professionals face new challenges. With Big Tech's neutrality promises being undermined by the Trump administration, this roundtable charges professionals to reclaim control. Can Free Software replace proprietary tools in professional audio? Industry professionals, researchers, and developers share real experiences across mastering, production, live audio, and networking. From Ardour mastering with DIY outboard to integrating Milan protocol with PipeWire AVB, we explore FOSS benefits: Big Tech and vendor independence, unlimited customization, community development. We address practical challenges in hardware support, workflow integration, and industry perception without sugarcoating. Whether migrating fully or augmenting workflows, join our open discussion. Audience input and questions welcome!
Von der Partitur zum 3D-Hörerlebnis: Frank Martins doppelchörige Messe
TB-7-1 | Beginn 17:00 | Dauer 60 min. | Annemarie Hoffmann | TalkBack-Workshop (Deutsch)
Wie kann Chormusik in 3D Audio abseits der klassischen Bühnenperspektive erfahrbar gemacht werden? In dieser Produktion von Frank Martins doppelchöriger Messe wurde ein alternativer Ansatz verfolgt: Der Chor ist kreisförmig um das Publikum herum aufgestellt, wobei die Positionen der Stimmgruppen von Satz zu Satz variieren – im Dialog mit der musikalischen Struktur.
Dadurch entstand eine Aufnahme, die den Raum nicht nur akustisch abbildet, sondern aktiv zur Gestaltung des Hörerlebnisses beiträgt. Die variierenden Positionen der Stimmgruppen machen klangliche Kontraste, Dialoge und Verflechtungen deutlicher hörbar als in einer Frontaufstellung. Gleichzeitig wird versucht, dabei die klangliche Geschlossenheit des Ensembles als musikalische Einheit zu bewahren.
Die Aufnahme entstand im Rahmen einer Masterarbeit am Erich-Thienhaus-Institut der Hochschule für Musik Detmold.
Im Vortrag werden exemplarische Schritte von der musikalischen Planung bis zur finalen 3D-Produktion erläutert.
75-10-1 | Beginn 17:30 | Dauer 120 min. | Ulrike Anderson |
Jürgen Goeres-Petry, Detlef Halaski, Jörn Nettingsmeier, Daniela Rieger, Lucca Riitano, Stefani Renner | Format fehlt (Deutsch)
Feiern! Fachsimpeln! Kolleginnen und Kollegen treffen, Studienfreund*innen wiedersehen, Kontakte knüpfen! Heute Nachmittag laden der Vorstand und die Geschäftsstelle des VDT zur Happy-Hour mit Füchschen-Altbier und anderen Kaltgetränken auf die Lounge ein. Es wird voll, vielfältig und vernetzend. Wir freuen uns über jedes Mitglied, über jeden Gast und jede Besucherin. ---------------
Chat! Talk shop! Meet colleagues, catch up with friends, and make new contacts! This afternoon, the VDT board and office invites you to happy hour in the lounge with Füchschen Altbier and other cold drinks. It will be busy, diverse, and a great opportunity to network. We look forward to seeing every member, guest, and visitor.
TB-8-1 | Beginn 09:30 | Dauer 60 min. | Gregor Zielinsky | TalkBack-Workshop (Englisch)
3D audio has given us more and creative possibilities in expression of music and sound. The workshop will present several Recording examples from different genres, which are going beyond standard projections.
3D First! – Insights from Producing Electronic Music for Immersive Formats
3D-19-1 | Beginn 09:30 | Dauer 60 min. | Julius Segeler | Tutorial (Englisch)
What changes when a song is produced for immersive audio from the very beginning, rather than being adapted afterwards?
In this tutorial, I share insights from two of my own electronic music tracks, both conceived as 3D-first productions – meaning they were mixed in 3D before being adapted to stereo. I will show how production decisions, mixing strategies, and creative processes shift when spatial audio is considered early on. Practical approaches to routing, sound design, and mixing offer hands-on insights and invite participants to rethink sound in space.
In addition, I will draw on excerpts from expert interviews conducted as part of my master’s thesis, which provide professional perspectives on topics such as dynamics, bus processing, and the translation of immersive mixes across different playback media.
AOD-2 | Audio on Demand | OS | 2025-11-15 | 09:30 - 10:30
Wie kommt mein Song ins Internet?
AOD-2-1 | Beginn 09:30 | Dauer 60 min. | Otheinrich Clauder | Workshop (Deutsch)
Anhand eines Bespieles soll gezeigt werden, welche Angaben nötig sind und was zu beachten ist, um ein Musikstück über Donwload- und Streaming-Portale zu veröffentlichen. Die Produktion ist fertig, anschließend wurde eine Platte oder CD gepreßt. Soll das Produkt als Gesamt-Werk oder in Einzeltiteln nun jedoch im Internet veröffentlicht werden (zum Download oder als Streaming-Datei), tauchen verschiedene Fragen auf: Welche Angaben werden von den Künstlern benötigt, welche Rechte sind einzuholen, darf jeder Titel veröffentlicht werden, braucht es einen Distributor, wie sind die Kosten, welche Portale können gewählt werden etc. Es soll in diesem Workshop für einen Titel die gesamte Vorgehensweise dargestellt und anhand eines Beispiel-Distributors (Tunecore) die einzelnen Schritte erläutert werden.
CS-6 | Filmton | R 2 | 2025-11-15 | 09:30 - 11:00
Crafting Soundtracks for Blockbuster Films
CS-6-1 | Beginn 09:30 | Dauer 90 min. | Cecile Tournesac | Workshop (Englisch)
Award-winning score producer & music editor Cécile Tournesac is responsible for the blockbuster music soundtracks of "Top Gun: Maverick," "Mission: Impossible(s) 6/7/8" "Rocketman," "Beetlejuice Beetlejuice," and many others. Cécile explains her workflow and demonstrates her work using original Pro Tools sessions.
Klangmobil – Ein mobiles 3D-Audio System für den Einsatz an Schulen
EDU-5-1 | Beginn 09:30 | Dauer 30 min. | Frank Melchior |
Arne Morgner, Simone Haas | Vortrag (Deutsch)
Das Klangmobil ist das Herzstück eines innovativen Musikvermittlungsprojekts der Internationalen Bachakademie Stuttgart und der Hochschule für Musik und Darstellende Kunst Stuttgart. Ziel ist es, mit einem speziell ausgestatteten Showtruck Schulen in der Region zu besuchen und dort ein audiovisuelles Klangerlebnis zu ermöglichen. Das Klangmobil bringt Musik direkt zu Kindern und Jugendlichen und eröffnet neue Zugänge zur Welt der Musik. Das Herzstück des Fahrzeugs ist ein diskretes 9.1.4 Wiedergabesystem, das zwei Funktionen erfüllt: Durch die Wiedergabe vorproduzierter Inhalte werden erstens Konzerte der Bachakademie in 3D-Audiowiedergabe erlebbar gemacht. Zweitens können Schüler und Schülerinnen beim Einsatz im Unterricht selbst mit Klangobjekten arbeiten und grundlegende Prinzipien der Audioproduktion anhand von Beispielproduktionen kennenlernen. Der Beitrag gibt einen Überblick über die technische Realisierung sowie Einblicke in die Nutzung und Erstellung der Beispielproduktionen.
Spatial Audio and Arts Lab (S.A.A.L.) im Kreativinstitut.OWL – Fallstudie für ein lautsprecherbasiertes 5OA Studio
EDU-5-2 | Beginn 09:30 | Dauer 30 min. | Sascha Etezazi |
Lucia Kilger | Vortrag (Deutsch)
Das Spatial Audio & Arts Lab (S.A.A.L.) ist eine neu eingerichtete immersive Hörumgebung am KreativInstitut.OWL, zugehörig zum Fachbereich "Komposition und Sounddesign" an der Hochschule für Musik Detmold. Ein besonderer Fokus des Forschungsbereichs liegt auf der künstlerischen und technischen Weiterentwicklung von Musikproduktionen für immersive Medien.
Zentrales Element ist ein Lautsprechersystem bestehend aus 43 Genelec 8030 und 4 Genelec 7050 Subwoofern, das eine hochauflösende, dreidimensionale Klangwiedergabe in Studioqualität ermöglicht. Das primäre Wiedergabeformat ist Ambisonics 5. Ordnung, es werden jedoch auch kanalbasierte 3D-Formate wie Dolby Atmos und NHK 22.2 unterstützt, sowie eine dynamische Binauralisierung des Schallfeldes. Die auf Dante basierende Infrastruktur erlaubt flexible Erweiterungen und Echtzeit-Interaktion.
Der Vortrag stellt die technische Struktur des Wiedergabesystems vor und beleuchtet dessen künstlerische und forschungsbezogene Nutzungspotenziale.
3D-Audio an der Hochschule für Künste Bremen
EDU-5-3 | Beginn 09:30 | Dauer 30 min. | Martin Dieckhoff |
Kilian Schwoon | Vortrag (Deutsch)
Soundscape-Kompositionen, musikalische Inszenierungen, Konzertaufzeichnungen und elektroakustische Konzerte: An der Hochschule für Künste Bremen wurde in den letzten Jahren die Arbeit mit immersivem Sound im Rahmen eines drittmittelfinanzierten Forschungs- und Digitalisierungsprojekts intensiviert. Im Zentrum der Entwicklungen stand die Installation eines 3D-Beschallungssystems incl. eines Prozessors für eine aktive Akustik im Konzertsaal der Hochschule. Parallel dazu entstand eine VR-Plattform, auf der u.a. elektroakustische Kompositionen in First Order Ambisonics erlebt werden können. Konzertaufzeichnungen und Musikproduktionen können binaural über einen neuen YouTube-Channel gehört werden.
Der Beitrag stellt die vorhandene Infrastruktur, neue Arbeitsweisen in der künstlerischen Lehre und Projekte aus verschiedenen Studiengängen und musikalischen Genres vor und geht auch hochschulspezifischen Fragen nach einer nachhaltigen, ressourcenschonenden Bereitstellung von Equipment nach.
Highly Variable Acoustic Laboratory Equipped with Massive Multichannel Loudspeaker System for Researching Spatial Audio and Virtual Acoustic Reality
EDU-5-4 | Beginn 09:30 | Dauer 30 min. | Stephan Werner |
Lukas Treybig, Georg Stolz, Niklas Edelmann, Thomas Helbig, Christoph Sladeczek, Wolfgang Broll | Vortrag (Englisch)
This contribution presents a state-of-the-art audio laboratory designed for advanced spatial audio research and reproduction. Equipped with 77 Genelec monitors and sophisticated audio systems, it supports diverse formats including nearly all channel-based and object-based audio reproduction using Ambisonics and wave field synthesis. The laboratory facilitates immersive media research, education, and collaborative projects in virtual and augmented reality, as well as high-fidelity audiovisual environments. Its architectural design ensures minimal noise, controlled reverberation, and precise speaker placement conforming to standards such as ITU-R BS.2094-1. This enables accurate spatial audio rendering and evaluation, making the lab a versatile platform and part of the Ilmenau Interactive Immersive Technologies Center (I3TC) at Technische Universität Ilmenau for exploring cutting-edge audio technologies and immersive experiences.
OS-3 | Open Source für Audio-Produktionen | R 3 | 2025-11-15 | 09:30 - 13:30
Wie können Audio-Plugins und deren Programmierung die Lehre im Bereich Audiotechnik unterstützen?
OS-3-1 | Beginn 09:30 | Dauer 30 min. | Jörg Bitzer | Vortrag (Deutsch)
Audiosignalverarbeitung, Akustik und Audiotechnik sind Grundlagenfächer in unterschiedlichen Studiengängen. Ein wesentliches Ziel aller dieser Studiengänge ist es, den Studierenden die Zusammenhänge und technischen Grundlagen von Audiosignalen und deren Bearbeitung zu vermitteln. Hierzu ist immer eine mathematisch und/oder physikalische Basis notwendig. Echtes Verstehen und den Bezug zur Praxis erfahren die Studierenden aber nur durch praktische Übungen. Audiosignale bieten sich als Übungsobjekte besonders gut an, da viele Eigenschaften direkt hörbar und Veränderungen leicht umsetzbar sind. In diesem Beitrag werden Open-Source Audio-Plugins vorgestellt, die das Verständnis von Audiosignalen erleichtern und eine tiefgehende Analyse von Filtern ermöglichen. Des Weiteren wird gezeigt, dass mit modernen Frameworks eigene Audio-Plugins realisiert werden können, um so zu einer hohen Motivation der Studierenden im Studium beizutragen.
Beyond the License Agreement: Privacy, Transparency, and the Case for Free Software in Audio
OS-3-2 | Beginn 09:30 | Dauer 30 min. | Sven Thielen | Vortrag (Englisch)
Proprietary audio tools promise efficiency—but at what ethical cost? Drawing from my dual expertise in cybersecurity and media technology, this talk reveals how software like Pro Tools bypass user consent, transmitting personally identifiable information (e.g., email, hardware specs) to third parties even when analytics are opted out. Using forensic methodology I demonstrate how vendors obscure data flows, violating GDPR principles. Contrastingly, Free Software like Ardour exhibits zero clandestine connections. This investigation stems from my academic experience, where ‘industry-standard’ tools enforced vendor lock-in, limiting in-depth studies and compromising privacy. Case studies include further common proprietary audio software. I’ll argue for redefining ‘professional’ tools through transparency, user rights, and educator accountability. Join to explore how embracing Free Software fosters innovation while safeguarding privacy—a critical shift for professional audio’s future.
Leveraging open source software for bespoke hardware solutions
OS-3-3 | Beginn 09:30 | Dauer 30 min. | Darko Jankovic | Vortrag (Englisch)
If you want to realize an A/V setup idea, but no solution exists for it yet, DIY it. Makes sense, right? - Not always. Handling user input, low latency audio, file management, graphics, and god-knows-what-else will quickly turn seemingly small ideas into huge endeavours. Worse still: You might realize way too late into development that your idea doesn't hold up in the real world. And if some odd software/hardware combination out there can fit your bill if you squinted hard enough at it (and/or possibly parted with a lot of money), why would you take such a huge risk? This talk aims to answer why by showing how to reach the prototype stage much more quickly. A working, real-world example of a multi-client ultra-low-latency DJ setup from the author, as well as a showcase of its bits and pieces and their possible use in other applications highlight some of the biggest advantages of Open Source software over proprietary solutions: high modularity and a complete openness to modification.
Prototyping Interactive 3D Audio Applications in Pure Data with Multichannel Connections and mtx_convolver~
OS-3-4 | Beginn 09:30 | Dauer 60 min. | Hannes Pescoller |
Sourena Mosleh, Franz Zotter | Tutorial (Englisch)
This tutorial shows how to arrive at 3D Audio implementations in the graphical audio processing language Pure Data. By the relatively young mutlichannel signal connections and the brand new mtx_convolver~, Pd becomes a very exciting playground to implement immersive 3D audio effects and interactive environments.
For instance, applications implementing convolution reverb or also binaural decoders for 3D audio in Ambisonics
are easy to implement.
Together with mtx_spherical_harmonics, mtx_*~, and multichannel signal connections as powerful tools, various
applications, also interactive, time-varying ones, are shown in the tutorial.
In particular, simple examples are shown for binaural decoding, for encoding from spherical microphone recordings, or for decoding to beamforming spherical loudspeakers, and last but not least, an Ambisonic shoebox-room image-source model.
Eclipsa Audio - Open Binaural Renderer: Objective and Perceptual Evaluation
OS-3-5 | Beginn 09:30 | Dauer 30 min. | Katarzyna Sochaczewska |
Tomasz Rudzki, Gavin Kearney | Vortrag (Englisch)
This paper presents an evaluation of the Open Binaural Renderer (OBR), developed for Eclipsa Audio, also known as the Immersive Audio Model and Format (IAMF). The focus of this study is on channel-based audio content in a 7.1.4 loudspeaker layout, which is increasingly adopted as a standard in music production. Both objective metrics and subjective listening test results are presented, comparing the OBR against existing popular rendering solutions. Objective evaluation includes measurements at positions corresponding to the 7.1.4 layout of frequency response, interaural level difference (ILD), interaural time difference (ITD), interaural cross-correlation (IACC), direct-to-reverberant ratio (DRR), reverberation time (RT60), and interaural coherence (IC/IAC). Subjective evaluation is based on Overall Listening Experience (OLE) ratings and qualitative feedback, gathered using a diverse set of audio samples.
Eclipsa Audio - Delivering Immersive Audio to Everyone
OS-3-6 | Beginn 09:30 | Dauer 60 min. | Katarzyna Sochaczewska |
Tomasz Rudzki, Gavin Kearney | Tutorial (Englisch)
In this talk we present Eclipsa Audio, a new open immersive audio format designed for interoperability and extensibility, offering numerous benefits. Creators gain freedom to create immersive audio experiences, without being constrained by expensive tools. Consumers can have more choice in terms of the immersive audio content and great user experience on any device.
We present the state-of-the-art Eclipsa container, discuss tools, including Open Binaural Renderer, supported by binaural audio examples. We delve into incorporating Eclipsa Audio encoding into existing workflows based on channel-based and ambisonics formats. We discuss current and upcoming implementations in both hardware and software.
3D-20-1 | Beginn 10:30 | Dauer 60 min. | Andrew Levine | Tutorial (Englisch)
While there certainly is an optimal listening position for concertgoers, dependant on the space and repertoire, it is less relevant for the recording engineer–or is it? There is a long standing community of lovers of one point stereo recordings and there still are friends of the "Kunstkopf", but shouldn't any recording just sound as good as possible?
NGA-9 | Broadcast / NGA | R 16 | 2025-11-15 | 10:30 - 11:30
Immersive Audio im Show-Kontext: Erfahrungen aus dem ZDF-Labor
NGA-9-1 | Beginn 10:30 | Dauer 60 min. | Florian Tront |
Steffen Hofmann | 3D-Audio-Workshop (Deutsch)
Der Vortrag gibt einen Einblick in die immersive Audioproduktion im Show-Kontext des ZDF. Anhand der Sendung ZDF-Fernsehgarten und der Fastnachtsübertragung Mainz bleibt Mainz wird die technische und gestalterische Entwicklung von Surround hin zu Immersive dargestellt. Thematisiert werden dabei spezifische Herausforderungen bei der Umsetzung, sowie Lösungsansätze aus dem ZDF-Labor. Hervorgehoben werden dabei Aspekte der Klangästhetik und die Bedeutung des Downmixes für unterschiedliche Wiedergabeszenarien.
Transmediale Immersion — Ein universeller Immersionbegriff
3D-21-1 | Beginn 10:30 | Dauer 30 min. | Max Bodendorf | Vortrag (Deutsch)
Der Immersionsbegriff kann zur Klassifizierung ästhetischer Erfahrungen gebraucht werden, die als Zustände des eingetaucht-seins im Zusammenhang mit Filmen, digitalen Spielen, Installationen und weiteren Objekten oder Situationen erlebt werden. In Diskursen besteht häufig Uneinigkeit darüber, ob Immersion von inhaltlichen Faktoren abhängt oder stattdessen durch die Qualität und den Grad der sensorischen Einhüllung durch ein Medium bestimmt wird.
Es soll ein transmedialer Immersionbegriff vorgestellt werden, der zwischen technisch-sensorischen und inhaltlichen Faktoren vermittelt kann. Dabei sollen die Wechselwirkungen zwischen Subjekten, Immersiven Sphären und ihren Entstehungsbedingungen aus der Perspektive einer systemischen Zeichen- und Raumtheorie ausgebreitet werden. Immersion wird so als universeller Prozess zur Erzeugung ästhetisch-räumlicher Erfahrungen bestimmt.
Immersion als Erfahrung. Eine philosophische Perspektive
3D-21-2 | Beginn 10:30 | Dauer 30 min. | Tom Poljanšek | Vortrag (Deutsch)
„Immersion“ wird heute meist als technische Leistung verstanden: Je besser eine Audio- oder Videoanwendung „normale“ Wahrnehmung simuliert, desto immersiver gilt sie. In meinem Vortrag werde ich diesen gängigen Immersionsbegriff kritisch hinterfragen. Ich schlage stattdessen ein grundlegenderes Verständnis vor: Immersion ist keine Frage perfekter Simulation, sondern beschreibt die Weise, wie wir uns überhaupt in Situationen wiederfinden – leiblich, klanglich, affektiv. Was heißt es also, immersiv in einer Situation zu sein? Und was bedeutet das für die Gestaltung immersiver Audioumgebungen? Der Beitrag lädt ein zu einer phänomenologisch inspirierten Neubestimmung des Immersionsbegriffs. Dabei wird sich zeigen: Wie immersiv eine Sache ist, hängt nicht primär davon ab, wie gut sie "normale" Wahrnehmung simuliert.
Immersion als Begriff
3D-21-3 | Beginn 10:30 | Dauer 60 min. | Lucca Riitano |
Max Bodendorf, Tom Poljanšek | Roundtable-Diskussion (Deutsch)
In dieser Podiumsdiskussion tauschen sich [Platzhalter], Linnea Semmerling, Dr. Tom Poljanšek und Max Bodendorf kritisch über den Gebrauch des Begriffes Immersion aus und nehmen dabei Bezug auf die vorab gehaltenen Vorträge.
Immersive Audio via Headphones: History, Current State of the Art and Future Developments
3D-22-1 | Beginn 11:00 | Dauer 30 min. | Karlheinz Brandenburg |
Ulrike Sloma | Vortrag (Englisch)
Immersive audio via loudspeakers is an established field in terms of research and of applications. Creating the same “being there”-experience via headphones has been a topic for over 50 years and is still not fully resolved.
The talk reviews previous research showing that many systems only work with limitations. It will then dive deeply into the psychoacoustics of spatial audio including cognitive effects. Our brain uses cues that we are not aware of, such as subtle changes in a room's reverberation pattern. However, most currently available systems do not take advantage of this knowledge and fail to create a truly lifelike listening experience. The talk will present details on one current system.
Even the most plausible and immersive systems still require a setup procedure, per room or even per listener. In the future, completely adaptive systems will handle this and improve hearing the same way glasses improve eyesight. We call such systems PARty (Personalized Auditory Reality).
Envelopment and Sound-Object Level Balance in Immersive Sound Reinforcement
3D-22-2 | Beginn 11:00 | Dauer 30 min. | Franz Zotter |
Leon Merkel, Lukas Gölles, Matthias Frank | Vortrag (Englisch)
This contribution summarizes what we learnt about sound reinforcement targets that can maintain the perceived envelopment and object level balance accross an extended audience area.
We undertook fundamental research studies in the lab that indicate that -3dB per doubling of distance would be optimal for envelopment in a surrounding setup if we could chose how the direct sound pressure decayed, away from the loudspeaker. Sound-object mixing balance concerning the direct sound, everywhere in the audience, would actually require no decay of the direct sound with distance. A theory was developed to realize these targets with any line-source contour or delay contour for a line source, and DIY line arrays curved and controlled in this way confirm the finding of our laboratory studies. Moreover, also the experiment with professional line-source loudspeakers versus point-source loudspeakers comply with the lab studies. In practice, line source directivity has additional acoustic benefits.
Perceptual Effects of Renderering Method and Louderspeaker Configuration in Two Large Listening Environments
3D-22-3 | Beginn 11:00 | Dauer 30 min. | Matthias Frank |
Konstantin Fontaine, Lukas Gölles | Vortrag (Englisch)
As spatial audio technology advances, preserving artistic intent across heterogeneous reproduction systems presents significant challenges. This work presents a listening experiment within the Spatial Audio Network Europe (SANE) project, examining how variations in loudspeaker configurations and rendering method affect spatial audio perception within different acoustic environments. The listeners compared two rendering methods (vector-base amplitude panning, Ambisonics) across three distinct loudspeaker configurations (a full hemisphere of 25/32 loudspeakers, a 7.0.4. subset thereof, and a horizontal ring of 8 loudspeakers) in two listening environments (IEM CUBE, ZiMMT Hall). The experiment assessed the effect on localization accuracy, continuity, listener envelopment, listener engulfment, and mix balance of spatial audio content at a central and an off-center listening position.
Enveloping Masterclass: Ulrike Schwarz and Jim Anderson
3D-23-1 | Beginn 11:30 | Dauer 60 min. | Jim Anderson |
Ulrike Anderson | 3D-Audio-Workshop (Englisch)
Ulrike Schwarz and Jim Anderson discuss recordings from their extraordinary catalogues, including high resolution listening examples in formats 5.1, 9.1 and 7.1.4. This masterclass series, featuring remarkable recording artists, is a chance to hear surround and 3D audio at its best; as we discuss factors of production, distribution and reproduction that makes it worth the effort.
RD-5 | Forschung & Entwicklung | R 13 | 2025-11-15 | 11:30 - 12:30
Assessing the Hearing Protection Potential of In-Ear Monitoring in Live Performance Settings
RD-5-1 | Beginn 11:30 | Dauer 30 min. | Paul Puhlmann |
Jochen Steffens, Markus von Berg, Jonas Hüsen | Vortrag (Englisch)
Noise-induced hearing loss is a widespread condition among musicians and related to the sound exposure during monitoring. A study was thus conducted at HSD with 6 bands comprising 28 musicians who each performed 5 songs using either In-Ear-Monitoring (IEM) as well as Loudspeaker-Monitoring (LSM). In both conditions, the C-weighted SPL at the musicians’ ears was recorded. Results of a linear mixed-effects model showed a significant level reduction of -4,2 dB in the IEM condition compared to the LSM condition. Most of the variance in the set SPL could be attributed to the musicians’ personal preferences as well as to the played instrument. The study therefore supports the notion that IEM can generally be regarded as a promising tool to prevent hearing damage in musicians. Here, individual preferences for hazardous loudness levels could be addressed by raising awareness and exploring strategies that further increase the benefits of IEM.
Hörgesundheit von Toningenieur*innen: Zwischen Klangideal und Hörbelastung
RD-5-2 | Beginn 11:30 | Dauer 30 min. | Lukas Komnenovic |
Jochen Steffens, Markus von Berg | Vortrag (Deutsch)
Der Vortrag behandelt die bislang wenig erforschte Hörgesundheit von Toningenieur*innen anhand einer internationalen Online-Umfrage mit 272 Teilnehmenden, darunter zahlreiche Mitglieder des VdT. Untersucht wurden unter anderem die Prävalenz von Tinnitus und Hörverlust, berufliche Lärmbelastung, der Einsatz von Gehörschutz sowie psychosoziale Faktoren.
Die Ergebnisse zeigen eine hohe Tinnitusprävalenz, ausgeprägte Lärmempfindlichkeit, erheblichen Leistungsdruck und insbesondere im Live-Bereich gesundheitskritische Schallexpositionen sowie unzureichende Nutzung von Gehörschutz. Trotz hoher Relevanz des Themas aus Sicht der Befragten wird es innerhalb der Branche kaum thematisiert. Viele sprachen sich für regelmäßige Hörtests und präventive Aufklärung aus.
Der Vortrag liefert datenbasierte Einblicke in zentrale Risiken und verdeutlicht den Handlungsbedarf für Prävention, Entstigmatisierung von Hörbeschwerden und gezielte Unterstützungsangebote.
NGA-10 | Broadcast / NGA | R 15 | 2025-11-15 | 12:00 - 13:00
Immersive remote live mixing of a music show for millions of viewers - a case study
NGA-10-1 | Beginn 12:00 | Dauer 60 min. | Sebastian Becher | 3D-Audio-Workshop (Englisch)
The Red Bull Batalla World Finals is a huge music event attracting millions of viewers for the live-broadcast of this iconic spanish-speaking Freestyle Battle-Rap event.
In order to bring the best possible audio experience to the audience of both the live broadcast and all VOD derivates, we established and successfully implemented a workflow to mix the live broadcast of the Red Bull Batalla World Final 2024 100% remotely from our studios in Salzburg in both stereo and Dolby Atmos.
This Case study wants to lays out workflow, challenges, learnings and best practices for live immersive remote mixing for the broadcast of a music event of that scale.
Kiss of Fire – Eine 3D-Audio-Produktion mit SPARK und dem Württembergischen Kammerorchester
TB-9-1 | Beginn 12:30 | Dauer 60 min. | Stefanos Ioannou | TalkBack-Workshop (Deutsch)
Das Werk Kiss of Fire des niederländischen Komponisten Chiel Meijering ist eine Suite aus acht kurzen Charakterstücken, die in farbenreicher und stilistisch vielfältiger Weise unterschiedliche Facetten von Liebe und Leben auslotet – von afrikanischen Rhythmen über Pop- und Rockmusik bis hin zu Elementen der Minimal Music. Die Formation SPARK – die klassische Band – trifft dabei auf das Württembergische Kammerorchester in einer spannungsvollen und energetischen Begegnung zwischen Klassik, Filmmusik, Avantgarde und urbaner Klangsprache.
In meinem Vortrag stelle ich die 3D-Audio-Produktion dieser außergewöhnlichen Zusammenarbeit sowie ihren Entstehungsprozess vor. Ziel war es, die emotionale Vielschichtigkeit der Musik auch räumlich erlebbar zu machen – vom pulsierenden Chaos urbaner Rhythmen bis hin zur intimen Klangsprache zarter Liebesbekundungen.
RD-6 | Forschung & Entwicklung | R 13 | 2025-11-15 | 12:30 - 13:30
Akustische Navigation für Blinde: Ein innovatives 3D-Audiosystem zur Hinderniserkennung und Navigation im Außenbereich
RD-6-1 | Beginn 12:30 | Dauer 60 min. | Martin Rieger | Workshop (Deutsch)
In diesem Beitrag präsentiere ich ein zukunftsweisendes System, das 3D-Audio-Technologie nutzt, um blinde und sehbehinderte Menschen bei der sicheren Navigation im Außenbereich zu unterstützen. Das Projekt kombiniert LiDAR-basierte Hinderniserkennung mit präzisen 3D-Audiosignalen, die den Benutzer in Echtzeit über Hindernisse und deren Position informieren.
Diese Anwendung stellt ein konkretes Beispiel für die Nutzung von 3D-Audio fern von Unterhaltung dar, um nicht nur die Orientierung zu erleichtern, sondern auch ein höheres Maß an Unabhängigkeit für Menschen mit Sehbehinderung zu ermöglichen.
Besonderer Fokus liegt auf der Soundgestaltung, die eine intuitive Benutzerführung bei gleichzeitig geringem kognitivem Aufwand sicherstellt. Als Experte und Berater für 3D-Audio in der Praxis erläutere ich die Herausforderungen bei der Integration von 3D-Sound und zeige auf, wie dieser in innovativen Assistenzsystemen sinnvoll eingesetzt wird.