-
IRT-1 |
IRT-Thementag |
R4 |
2018-11-14 |
10:00 - 12:30
-
Der Einlass für den IRT-Thementag startet um 10:00 Uhr. Um 10:15 Uhr beginnt die Veranstaltung mit einem Grußwort und einer kurzen Eröffnung.
In einer Medienwelt, die dominiert wird von einem überquellenden Angebot an Videos in allen Genres, Formaten und Auflösungen, behaupten sich Audioangebote als ein stets beliebter Begleiter in allen Tagessituationen. Laut der Medienanalyse MA 2018 erreichen Radio und Audioangebote mit 98,6 Prozent der Deutschen ab 14 Jahren fast jeden in der Bevölkerung. Die Radionutzung bleibt damit stabil auf hohem Niveau. Dazu kommt, dass Podcasts und Hörbücher immer mehr in Mode kommen, die Einschaltquote von Hörspielen steigt und mit Sprachassistenten wird Audio zur Schnittstelle zwischen Mensch und digitaler Welt.
Der diesjährige Thementag des IRT auf der Tonmeistertagung richtet sich an Audio-Profis und Hör-Fans und steht ganz im Zeichen von derzeitigen und zukünftigen Audioangeboten und deren Nutzung.
-
Wie sieht die Audionutzung der Deutschen im Jahre 2025 aus? Welche Rolle spielen dann lineares Radio, Streaming-Angebote, Podcasts etc.? Was bleibt, was verändert sich, was wächst zusammen? Dieser Fragestellung sind die Vermarkter AS&S Radio und RMS gemeinsam mit der Radiozentrale auf den Grund gegangen. Die qualitative Studie, durchgeführt vom Institut comrecon (Wien), bildet dabei die ermittelten Erwartungen der Hörer ab. Diese Informationen wurden in einem zweistufigen Prozess generiert und bilden die Basis für die Topographie des „Planet Audio“ und werden auf Landkarten im Sinne von "Mental Maps" präsentiert (Powerpoint-Vortrag).
-
Voice-Technologie wurde in den letzten Jahren stark verbessert und wird immer mehr zur realistischen Option in der Gestaltung von Medienprodukten. Der Bayerische Rundfunk ist seit einigen Jahren auf Amazons Alexa mit eigenen Skills präsent und hat ein Team zur Produktgestaltung auf Voice-Interfaces aufgebaut. Dieser Talk teilt Erfahrungen aus den Pilotprojekten und macht strategische Analysen der Ergebnisse zugänglich, um neue Perspektiven darauf zu geben, wie öffentlich-rechtliche Medienhäuser Smart Speaker sinnvoll nutzen können.
-
Inspiriert vom weltweiten Erfolg der Podcast-Serie „Serial“ aus den USA hat sich auch das Podcast-Angebot öffentlich-rechtlicher Rundfunkanstalten in Deutschland verändert. Neben der Bereitstellung etablierter Radio-Formate und gesendeter Beiträge auch zum Download sind in den vergangenen Jahren eine Reihe spannender Podcast-Produktionen entstanden, die auf serielles Erzählen als Darstellungsform journalistischer Recherchen setzen. Henning Steiner, Redakteur bei hr-iNFO, gibt Einblick in die Entstehung und Produktion der Podcast-Doku-Serie „Cybercrime“ (http://cybercrime.hr.de). Wie unterscheidet sich eine solche Podcast-Produktion von seiner klassischen Arbeit für den Hörfunk des Hessischen Rundfunks? Welche Chancen bieten Podcasts für den Journalismus? Und warum würde er sich selbst nicht als „Podcaster“ bezeichnen?
-
Jederzeit das Beste hören: Dieses Versprechen hält die ARD Audiothek seit einem Jahr. Kompetent und liebevoll kuratiert, überzeugt die App mit spannenden Hörspielen, aufwändigen Dokus, hintergründigen Wissensbeiträgen und vielen weiteren Inhalten inzwischen hunderttausende Podcast-Fans. Um diesen Erfolgskurs zu halten, arbeitet das Audiotheks-Team technisch und redaktionell konsequent an der Weiterentwicklung - unterstützt durch Feedback aus den verschiedensten Kanälen. Was haben wir in diesem Jahr gelernt, was waren unsere Herausforderungen? Was glaubten wir, was unsere Zielgruppe will - und was will sie wirklich? Und was haben wir noch vor? Ein kleiner, persönlicher Einblick in die Audiotheks-Werkstatt aus erster (Redaktions-)Hand.
-
SE-1 |
Eröffnungsfeier |
R3 |
2018-11-14 |
11:00:00 - 12:00:00
Eröffnungsfeier
Die Eröffnungsfeier der 30. Internationalen Tonmeistertagung startet mit der Begrüßung durch den Präsidenten des VDT Prof. Carlos Albrecht sowie der Geschäftsführung der Kölnkongress GmbH Bernhard Conin.
Mit Jürg Jecklin, weltbekannt durch die nach ihm benannte und von ihm entwickelte Jecklin-Scheibe, haben wir einen kompetenten und humorvollen Keynote Speaker einladen können. Jürg Jecklin erhielt Anfang des Jahres die Ehrenmedaille des VDT.
Für den musikalischen Rahmen haben wir das Duo „Shawn and the Wolf“ gewinnen können, ein einzigartiges Jazz-Duo, das Posaune mit Gitarre kombiniert, zwei selten zusammen gehörte Instrumente, und die sich von einer Vielzahl von Genres inspirieren lassen.
-
3D-1 |
3D-Audio |
R1 |
2018-11-14 |
12:30 - 13:30
-
Apparently, Immersive Audio is the current hot topic for sound engineers. Despite the euphoria, the need for solid basic knowledge is still mandatory for any "new" technology or method. Of course this is also true for immersive audio. Far from being a new production technology, immersive audio has regained high interest mainly through the leap of developments in the area of Virtual Reality. In this workshop, the aforementioned basic knowledge will be presented, from localisation for 2-channel to 5-channel systems and beyond. A special focus will be given to Ambisonics, which has seen an unprecedented success especially in VR. It is hard to imagine a field related to 3D-Audio with more misunderstandings than with Ambisonics. The technology will be explained in sound engineer's terms and systematically put in context to other main solutions like channel-based or object-based production. Comparisons of the different approaches will be made with respect to their preferred use case.
-
SP-1 |
Spatial Audio |
R3 |
2018-11-14 |
12:30 - 14:30
-
This paper presents two psychoacoustic experiments on the minimum BRIR grid resolution required for interactive listener translation in virtual acoustic environments produced over headphones. A listening area with a size of 1 m x 2 m was set up with a positional resolution of up to 5 cm. 77490 BRIRs were simulated for this investigation.
A listening experiment was conducted to study the perception of discontinuities in the representation with different BRIR grid resolutions. 4 different test signals were taken into account. The results show, that the required resolution depends on the signal. For white noise, only the highest resolution (5 cm) brought the best results, while for dry male speech lower resolutions appeared to be just as fine.
-
In this paper, we analyze different auditory distance cues in dynamic binaural synthesis. We compare the contributions of sound intensity, direct-to-reverberant ratio (DRR), and of near-field cues. For the auralization, we use the BinRIR method, which allows to generate binaural room impulse responses (BRIRs) for dynamic binaural synthesis based on a measured omnidirectional room impulse response (RIR). With BinRIR based on a simple geometric model, the listener position can be freely adjusted and the distance cues can be adapted separately. Furthermore, near-field head-related impulse responses (HRIRs) can be applied for direct sound and early reflections if the listener is very close to the virtual sound source. In a listening experiment, we presented stimuli at different distances in four synthesized rooms. In one condition, the stimuli contained natural distance-dependent intensity cues, and in another condition, the stimuli were loudness normalized. The results showed that even for loudness-normalized stimuli, an adequate distance perception can be obtained by adapting the DRR. The influence of near-field HRIRs, which were as well tested in the experiment, is very weak.
-
In the current effort to improve sound for virtual auditory environments with the upcoming affordable head mounted display solutions, realism and audio quality in head-tracked binaural rendering is again becoming important. While rendering based on static dummy-head measurements achieve high audio quality and externalization, the realism lacks interactivity with changes of the head orientation. Motion-tracked binaural (MTB) has been presented as a head-tracked rendering algorithm for recordings made with circular arrays on rigid spheres. In this contribution, we investigate the algorithm proposed for MTB rendering and adopt it for variable-orientation rendering using binaural room impulse responses (BRIR) measured for multiple, discrete orientations of a dummy head. Our listening experiment is based on such BRIR measurements at different loudspeaker distances. The experiment in particular investigates the perceptual implications of the angular resolution of the multi-orientation BRIR sets and the time/frequency-resolution of the algorithm.
-
This talk reveals the results of a case-study he made with Sylvia Rothe (LMU Munich). The subject was to investigate the differences and similarities which head-tracked and head-locked stereo have on the viewer in terms of where a 360° video is being looked at with 50 subjects in total.
The purpose of the talk is to inform the listener what role spatial audio plays for 360° videos under real-life conditions with average viewers and if it is as important sound guys think it is.
Martin states background information about the topic and his motivation describes the experiment set-up and interprets the results of the heatmap as well as possible future development.
For measurement of the viewing direction, an app was created with Unity, which was then split into two apk-files. Both apps contained the same video, while one played the sound with ambisonics (.tbe, two big ears) and the other one represented a binaural stereo-downmix at 0° azimuth and 0° elevation. Each time the app was played, a 3-megabyte .vtt-files was written on the device, which were later collected. Therefore, Sylvia Rothe wrote a scientific paper on how to create such a heat map as part of her Ph.D. in virtual reality at LMU Munich.
Measured differences of user directions, acceleration, and subjective feeling will be featured as well as similarities that could be found in more both groups such as the degree of head-rotation and duration of hotspots.
Furthermore, Martin wants to motivate on doing similar work on VR because there is a lot more to find out.
-
3D-2 |
3D-Audio |
R2 |
2018-11-14 |
13:30 - 14:30
-
Seit gut 3 Jahren sind für den Endverbraucher AV Verstärker verfügbar, die 3D Sound wiedergeben. Parallel dazu veröffentlicht die Softwareindustrie entsprechende Titel, die über DOLBY ATMOS, DTS:X oder Auro3D Tonspuren verfügen. Allerdings enttäuschen viele Veröffentlichungen regelmäßig den Verbraucher und erfüllen nicht die von der Industrie versprochenen Erlebnisse. Kaum Effekte in den Höhen, verfügbare 3D Tonspuren nur auf bestimmten Disc, zu wenig deutsche 3D Tonspuren und viele weitere Bespiele trüben den möglichen Mehrwert von 3D Audio. Patrick Schappert ist Fachhändler für Heimkinotechnik und gehört zu den größten Anbietern von 3D Audiolösungen für Endverbraucher in Europa. Auf seinem YouTube Kanal GROBI.TV berichtet er regelmäßig kritisch und konstruktiv über die Entwicklungen im Heimkinomarkt und besucht Vertreter der Industrie und auch Endverbraucher.
-
The perception of source location using multi-loudspeaker amplitude panning is considered. While there have been many studies on the localization of pairwise panned sound sources, relatively few studies investigate the multi-loudspeaker case. This paper evaluates panning scenarios in which a source is panned on the boundary or within the area bounded by discrete loudspeakers, referred to as boundary and interior pans respectively. Subjective testing of a variety of pan locations reveal the following:
(1) as expected, pans to a single loudspeaker yield lowest localization error,
(2) pairwise pans tend to be consistently localized closer to the listener than single loudspeaker pans,
(3) largest errors occur when the virtual source is panned close to the listener, and
(4) interior pans are accurately perceived and, surprisingly, in some cases more accurately than pairwise boundary pans.
-
TB-1 |
Talk Back |
R1 |
2018-11-14 |
13:30 - 14:30
-
Im Workshop soll eine konsequent analoge Produktionsweise präsentiert werden, ohne jegliche Digitaltechnik im gesamten Signalweg. Selbst der Tonschnitt wird am analogen Masterband mit Schere und Rasierklinge umgesetzt und nicht in einer digitalen Audioworkstation, die eine AD/DA Wandlung nötig machen würde.
Mein Ziel ist es, Aufnahmen professioneller Musiker in höchster Qualität auf Schallplatte zu veröffentlichen und allen Fans der "schwarzen Scheibe" den Klang der analogen Zeit in absolut bester originaler Qualität hörbar zu machen. Die Aufnahmen finden in sorgfältig ausgesuchten, klanglich zur Musik passenden Räumlichkeiten statt. Nachbearbeitungen mit künstlichen Hallräumen wird es nicht geben, ebenso wenig wie Overdub-Aufnahmen mit nachträglich hinzugefügten Instrumenten. "Live", mit oder ohne Publikum, entstehen lebendige musikalische Aufführungen.
Anhand vieler Fotos und besonderer Musikbeispiele aus der Produktion "Jazz On Vinyl" wird dem sachkundigen Besucher die Welt der rein analogen Aufnahmetechnik / Produktionsweise näher gebracht. Ganz besonders steht die (einfache) Technik im Fokus, die solche Aufnahmen erst ermöglichen, aber auch in der digitalen Produktion gut einzusetzen sind.
-
SST-1 |
Studio Szene Talk |
S&R |
2018-11-14 |
14:00 - 15:00
-
Engineer Hans-Martin Buff arbeitet aktuell an einer Musikproduktion, die komplett auf 3D-Audio über Kopfhörern ausgelegt ist – Von der Aufnahme bis hin zum Mix. Im Dialog mit Sound&Recording-Chefredakteur Marc Bohn erklärt Buff die Grundlagen einer 3D-Audioproduktion, die Unterschiede zwischen Aufnahmeverfahren und Mixing gegenüber Stereo, und berichtet von den Erfahrungen aus seiner Arbeit. Außerdem werfen Hans-Martin Buff und Marc Bohn gemeinsam einen Blick auf die Vergangenheit, die Gegenwart und die Zukunft der 3D-Audiotechnologie.
-
LMW-1 |
Live Mixing Workshop |
R5 |
2018-11-14 |
14:00 - 18:00
-
Der Livemixingworkshop auf der Tonmeistertagung wird dieses Jahr ein für den mobilen Beschallungssektor relativ neues und spannendes Terrain beschreiten. In den letzten Jahren haben Technologien, die unter Begriffen wie „Spatial Audio“, „3D Audio“ und ähnlichen gehandelt werden, immer mehr an Bedeutung gewonnen und mittlerweile gibt es Lösungen speziell für den mobilen Beschallungsmarkt. Grund genug, dies in der Praxis mit einer hochkarätigen Liveband auszuprobieren und zu vergleichen.
Was ist der Unterschied zwischen einer normalen Stereo- und einer ortungsrichtigen Beschallung? Wie funktioniert die Systemplanung? Hat es einen Einfluß auf die Lautstärke? Wie fühlt es sich beim Mischen an, gibt es neue Parameter? Welche Rolle spielt der Direktschall von Schlagzeug, Instrumentenverstärkern und Monitoring? Wie kann/muss man mit Effekten umgehen? Was ist sinnvoll, was eher nicht? Was sind Erfahrungen aus der Praxis?
Die bekannten LMW-Partner Neumann&Müller Veranstaltungstechnik, Sennheiser, Yamaha und d&b audiotechnik werden, unterstützt von den Livesoundprofis Svenja Dunkel, Nils Uhthoff und Oliver Voges mit den Workshopteilnehmern diesen spannenden Fragen nachgehen und mit vielen Experimenten „die man auf dem Gig nicht machen kann“ Einblicke schaffen.
-
IRT-2 |
IRT-Thementag |
R4 |
2018-11-14 |
14:30 - 17:00
-
Radio ist nach wie vor ein sehr beliebtes Medium, steht aber im Wettbewerb mit vielen neuen Diensten, darunter insbesondere den Streaming-Plattformen für Musik. Das HRADIO-Projekt hat zum Ziel, das volle Potenzial der Hybridtechnologie für den Hörfunk auszuschöpfen. Dabei gilt es die Integration einer kostengünstigen Rundfunkübertragung mit neuen Online-Features nicht nur auf mobilen Endgeräten, sondern auch auf Web-Portalen, stationären Radios und im Auto zu ermöglichen.
Zentrale Herausforderungen für das Projekt sind dabei die technische Integration der verschiedenen Übertragungswege und Funktionen in die verschiedenen Plattformen, die Harmonisierung der Dienstleistungen und die Einbindung der Nutzer.
Der Vortrag gibt einen Überblick über den aktuellen Stand des Projektes, das im September 2017 gestartet ist.
-
Der Begriff "Next Generation Audio" umfasst eine ganze Reihe neuer Audiotechnologien, welche das Potential haben, die Audioproduktion aber auch den Audiokonsum nachhaltig zu verändern. Objekt-basiertes Audio, Immersion oder Personalisierung sind hier nur einige Schlagworte. Doch welchen Mehrwert bietet das für die Medienproduktion, Broadcaster oder den Zuhörer?
Dieser Vortrag bietet einen Einblick in die Anwendungsmöglichkeiten von Next Generation Audio Technologien. Dabei werden die Relevanz und Möglichkeiten in der Produktion und für den Konsumenten zu Hause, aber auch der aktuelle Stand in der Technik und der Standardisierung betrachtet.
-
Die nächste Generation Mobifunk soll ab 2020 unter dem Label "5G" global ausgerollt werden. Tatsächlich handelt es sich dabei um mehr als lediglich eine neue Version mobiler Kommunikation. Neue Konzepte wie "Network Slicing" oder "Network Function Virtulization" stehen für eine fundamentale Umwälzung der gesamten Telekommunikationsinfrastruktur. 5G erfährt globale Unterstützung auf allen Ebenen, d.h. R&D, Netzbetreiber, Infrastruktur- und Endgerätehersteller, Regulierer und Politik. Deshalb muss sich auch der Rundfunk dieser Entwicklung stellen. Der Vortrag gibt einen kurzen Überblick über die Chancen und Gefahren für die Rundfunkbranche mit Blick auf Produktion und Verbreitung von Rundfunkinhalten.
-
IRT Abschlussdiskussion
-
PROD-1 |
Produktbezogener Beitrag |
R2 |
2018-11-14 |
15:00 - 15:30
-
Sound designers in the business of film, television and theatre are asking for smaller microphones. However, making a microphone smaller is not that easy and the resulting product cannot be expected to have the same specifications as the larger ones. Normally, the result is a higher level of self-noise and lower sensitivity. Further there are less space for the necessary electronics. The DPA d:screet CORE 6060 is a newly-designed subminiature microphone - just 3 mm (0.12 in) in size. It is a pressure microphone with a condenser capsule. Despite the fact that the diameter is only 60% of previous miniature models, the 6060 has kept the excellent specifications of the larger DPA mics. This presentation will describe and discuss some of the essential specs needed for a modern subminiature microphone - and how they are achieved.
-
SST-2 |
Studio Szene Talk |
S&R |
2018-11-14 |
16:00 - 17:00
-
Every musical instrument has a specific sound radiation pattern, which is highly dependent from tone and frequency. This has been extensively investigated by Jurgen Meyer in his book “Acoustics and the Performance of Music”.
Recordings of 15 orchestral instruments have been produced to make these differences hearable for interested people working and studying in the field of Recording Arts. Those recordings have been done in a realistic environment and situation, means as stereo recordings with 14 identical AB-pairs in a concert hall.
The recordings can be listened on a web-player with the possibility to switch freely and instantly between the different mic positions.
-
TB-2 |
Talk Back |
R1 |
2018-11-14 |
16:30 - 17:30
-
Just listen and discuss the mix of the Grammy awarded album Kraftwerk 3D - The Catalog.
-
PE-1 |
Wahrnehmung & Ästhetik |
R3 |
2018-11-14 |
16:30 - 18:00
-
30.000 year old cave paintings are among human beings' most impressive cultural heritage, while we don't even know how music by excellent 300 year old composers sounded. Within the last couple of generations we acquired the technical skills to record sound. However, that asset is now degenerating because of cognitive limitations and the circles of confusion in production, addressed by this panel.
Without proper anchoring of spectral balance and level, drifting over time is inevitable in self-referenced systems, thereby putting legacy recordings at the risk of sounding dated for no good reason, or causing irreversible distortion to be added to pieces of art.
The panel will discuss baseline listening requirements for in-room and headphone spectral balance and level that stand the test of time, putting our interests as a species above commercial trivialities.
-
MIC-1 |
Mikrofonierung |
R2 |
2018-11-14 |
16:30 - 19:00
-
Das Thema Laufzeitkompensation der Stützmikrofone zeigt sich heute, fast 35 Jahre nach den ersten Versuchen von Günther Theile, in einem anderen Licht. Wir können durch die verbesserten technischen Möglichkeiten viel genauere Verzögerungswerte einstellen und diese auch auf Knopfdruck im laufenden Programm verändern. So werden geringere Unterschiede hörbar und die Auswirkungen können gezielter untersucht werden. Dies führte zu einer differenzierteren Betrachtungsweise, in der den einzelnen Situationen unterschiedliche Schwerpunkte zugeordnet werden konnten.
Meine Versuche haben ergeben, dass sich die Verzögerung der Stützmikrofone je nach Art der Signale anders auswirken und auch unterschiedlich konfiguriert werden kann. Eine primäre, in allen Situationen gleiche Wirkung der Laufzeitkorrektur gibt es nicht (mehr), vielmehr müssen wir sie als vielseitiges Werkzeug begreifen, das mal besser, mal weniger geeignet ist, die Transparenz der Mischung zu erhöhen.
-
The DECCA-Tree, originally developed in the 1950s and in good use since then, traditionally employs three Neumann M50 microphones, but really the only aspect maintained throughout is that the transducers are arranged in a triangle to–in the case of a symphony orchestra–cover the "core" of the ensemble. In this workshop I explore the notion that the tree can be extended when care is taken to maintain the symmetrical layout, substituting a crystalline configuration for a haphazard scattering of spot microphones.
-
"Immersive Audio" ist das große Thema im Audio-Bereich. Mit dem Aufkommen von VR hat das Thema noch einmal unheimlich an Fahrt gewonnen und viele Interessierte beschäftigen sich damit. Oft genug wird dabei aber vergessen, dass es immer noch guter tonmeisterlicher Qualität bei der Tonproduktion für 3D und VR bedarf. Bewährte stereofone Techniken gelten mit der gerade stattfindenden Reinkarnation der Tetraeder-Koinzidenzmikrofone als ungeeignet und Laufzeiten als unmöglich. Ähnlich wie bei der Diskussion zwischen den Koinzidenz-Befürwortern und den A/B-Anhängern vor 50 Jahren wird leider wieder mehr gerechnet als gehört. Es wird gezeigt, dass Stereofonie sehr wohl das Mittel der Wahl ist, auch für 3D-Audio und VR.
-
Every musical instrument has a specific sound radiation pattern, which is highly dependent from tone and frequency. This has been extensively investigated by Jurgen Meyer in his book “Acoustics and the Performance of Music”.
Recordings of 15 orchestral instruments have been produced to make these differences hearable for interested people working and studying in the field of Recording Arts. Those recordings have been done in a realistic environment and situation, means as stereo recordings with 14 identical AB-pairs in a concert hall.
The recordings can be listened on a web-player with the possibility to switch freely and instantly between the different mic positions.
-
TA-1 |
TMT Academy |
R1 |
2018-11-14 |
17:30 - 19:00
-
Überlegungen zu den Auswirkungen der Digitaltechnik in der heutigen Musikproduktion.
-
WA-1 |
Wireless Audio |
R3 |
2018-11-14 |
18:00 - 19:00
-
Vor 10 Jahren haben viele Verbände, so auch der VDT, Produktionsteams, Hersteller und Dienstleister einen internationalen Verband gegründet. Seit dieser Zeit, engagieren sich APWPT und seine Mitglieder für die Frequenzen für drahtlose Produktionswerkzeuge.
Nahezu in jeder Woche findet irgendwo auf der Welt ein Meeting zu Funkfrequenzen und den damit verbundenen Technologien statt. Ob wir wollen oder nicht, internationale Entscheidungen beeinflussen immer häufiger unseren Arbeitsablauf.
APWPT präsentiert eine informative Zusammenfassung der in Rahmen der IBC2018 in Amsterdam vorgestellten Sachthemen.
Wir freuen uns auf Ihre Fragen und Anregungen.
Matthias Fehr, Wolfgang Bilz, APWPT e.V.
-
SE-2 |
LMW-Konzert und TMT-Get-Together |
R5 |
2018-11-14 |
19:00 - 20:00
LMW-Konzert und TMT-Get-Together
Die hochkarätig besetzten "Yamaha Allstars" lassen den ersten Messetag mit bekannten Songs bei einem entspannten Branchen-Get-Together ausklingen. Das Konzert wird mit einer ortungsrichtigen Beschallung realisiert, die für eine besonders gute Durchhörbarkeit sorgt und dem FOH Oliver Voges einen erweiterten Gestaltungsspielraum ermöglicht.
Aniko Kanthak (Vocals), Axel Müller (Sax), Christoph Moschberger (Trumpet), Jesse Milliner (Keys),
Martin Feske (Git), Claus Fischer (Bass), Mario Garruccio (Drums ).
Dieser Get-Together-Abend ist eine Kooperation der Live-Mixing-Workshop-Gruppe (Neumann&Müller Veranstaltungstechnik, Sennheiser, Yamaha und d&b audiotechnik ) sowie des VDT. Kommen Sie, genießen Sie die Musik und stoßen Sie mit Freibier auf eine gelungene Tonmeistertagung an!
-
TA-2 |
TMT Academy |
R1 |
2018-11-15 |
09:00 - 10:30
-
Ob Schellack, Vinyl, CD, VR, oder Streaming: Jeder Tonträger hat spezifische Einflüsse auf die klangliche Gestaltung von Musikproduktionen. Durch das heutige Vinyl-Revival müssen sich vermehrt Tonmeister wieder mit den Spezifikationen der analogen Langspielplatte auseinandersetzen. Wie soll man für Veröffentlichungen auf LP mastern, mischen und produzieren? In einem Streifzug durch die Geschichte der Langspielplatte werden die klanglichen Herausforderungen für die Arbeit im Tonstudio aufgezeigt.
-
AP-1 |
The Arts of Production |
R5 |
2018-11-15 |
09:00 - 11:00
-
Who has Wow?
What is Wow? When can I get Wow?
Where is Wow? Why is Wow needed? How can I get Wow?
Over one hundred years ago, audiences experienced “Wow” listening to a singer and comparing the sound with a recording. Observers found that it was “almost impossible to tell the difference” between what was live sound and what was recorded. Sixty years ago, the transition from monaural sound to stereophonic brought ‘realism’ into listener’s homes and today audiences can be immersed in sound. This talk will trace a history of how listeners have been educated and entertained to the latest sonic developments and said to themselves and each other: “Wow!”
-
In this roundtable discussion all aspects of the production process from the planning stages with composer, artists, producers and engineers through recording, editing, mixing and mastering will be examined.
Participating in the panel is recording engineer Jim Anderson (USA), mastering engineer Darcy Proper (NL), and me.
Immersive Audio examples will be presented.
-
PE-2 |
Wahrnehmung & Ästhetik |
R3 |
2018-11-15 |
09:00 - 11:00
-
Seventy-four recent physiological and psychological studies revolving around human perception and its bandwidth were reviewed. The brain has ever only learned about the world through our five primary senses. With them, we receive a fraction of the information actually available, while we perceive far less still. A fraction of a fraction: The perceptual bandwidth. Conscious perception is furthermore influenced by long-term experience and learning, to an extent that it might be more accurately understood and studied as primarily a reach-out phenomena. Considering hearing, time is found to be a determining factor on several planes. It is discussed how such sentient observations could be taken into account in pro audio, for instance when conducting subjective tests; and the term “slow listening” is devised.
-
Binaural audio is based on ear signals, that is, acoustic signals as they occur at our outer hearing apparatus such as the ear canals or the eardrums. Ear signals are sought to be captured or synthesised for reproducing them at the same location, usually by means of headphones. If the reproduction is sufficiently accurate with respect to the reference situation, the same auditory impression shall be evoked. In practice, several factors impede the realisation of this assumption, among them technical, psychoacoustic and aesthetic ones.
From a bodily perspective, ear signals represent an intermediate step in the processing chain of human hearing: they result from the outer hearing apparatus, which, by its physical properties, transforms the acoustic surrounding into a signal pair that contains spatial information to be evaluated by the brain. Capturing and reproducing ear signals therefore means to interfere with the bodily function of listening, to decouple the outer ear temporally and spatially, or to replace it, e.g., by the pinnae of a dummy head or another person. I regard this interference as a form of engineering at the human body, albeit subtle and non-invasive.
The dummy head microphone is not a pictorial representation of the human outer hearing apparatus but it is designed to take over its function: it is supposed to actually perform a partial act of hearing. In the paper, I will relate binaural audio to the human faculty of mimesis in the sense of convergence to nature by techné, leading to aesthetically effective categories such as the magic and the uncanny.
-
A directional sound source can produce auditory objects at distinct locations in a room by varying its directivity pattern and orientation. Recent perceptual studies could show that the direct-to-reverberant energy ratio is the most relevant cue for their distance from the listening position. The lateralization, on the other hand, is affected by the precedence effect. Thus, the azimuthal angle of auditory objects depends on signal type and time/strength of single wall reflections compared to the direct sound.
This contribution evaluates the perception of auditory objects in a virtual room regarding both distance and azimuth angle relative to the listening position. In the evaluation, listeners were asked to match the position of an omnidirectional sound source in a virtual room with the position of auditory objects created by a directional sound source in the same room. The omnidirectional source could be positioned freely on a map of the room and additional sliders for distance and azimuth angle provided simple means for fine adjustment. The evaluation examines the influence of directivity pattern and beam orientation of the directional source, as well as the signal type.
-
The icosahedral loudspeaker array (IKO) uses strongly focused sound beams to ”orchestrate” reflecting surfaces resulting in the perception of auditory objects at distinct locations in the room. Previous studies revealed that stationary sounds are localized more distant from the IKO in comparison to transient sounds due to the precedence effect. Nevertheless, we could show in a direct comparison using static sound beams that the application of maskers can partly suppress the precedence effect resulting in an increased distance for transient sounds. This contribution extends the study towards trajectories of moving sound beams.
Two basic staging constellations of the IKO have been shown to be feasible in artistic practice: (1) a concave setup of approx. 5 reflectors around the IKO and (2) a simpler setup without additional reflectors, typically used in smaller, rectangular rooms. A comparison of these two setups is also included in the present study of moving sound beams.
-
VR-1 |
VR und 360° |
R4 |
2018-11-15 |
09:00 - 11:00
-
Der Ton bei Virtual Reality und 360°-Videos unterscheidet sich hinsichtlich der zu dem klassischer Filmproduktionen. Der Hauptfokus liegt bei ersteren in der möglichst naturgetreuen Simulation oder Abbildung einer klanglichen Szene, ohne dass dabei - wie beim Filmton - eine Blickrichtung besonders im Vordergrund steht. Neben diskreten Klangobjekten als Punktquellen im virtuellen Raum sind vor allem auch hochwertige und gleichmäßige 3D-Atmoaufnahmen notwendig, um die Immersion des VR-Erlebnisses zu steigern. Beide Aufgaben müssen für VR/360°-Produktionen durch die passende Mikrofontechnik abgedeckt werden. Häufig werden hier Methoden zur Schallfeldreproduktion (z.B. First-Order Ambisonics) verwendet. Aber auch stereofone Methoden sind möglich und können - je nach Anwendung - klangliche Vorteile gegenüber Ambisonics aufweisen.
Der Vortrag stellt die möglichen Varianten der Mikrofontechnik bei VR/360°-Produktionen praktisch gegenüber und arbeitet hierbei die Vor- und Nachteile der verschiedenen Methoden anhand von Beispielen heraus. Zuvor werden die Grundlagen zur Stereofonie für 3D-Audio vorgestellt.
-
Anhand aktueller Beispiele zeigt dieser Vortrag die neuesten Tools und Workflows in der Produktion für Virtual Reality Experiences, von linearem 360° Film bis zu interaktiven Erlebnissen. Binaurale Audiodemos sollen dabei einen praxisnahen Einblick in die zahlreichen kreativen und technischen Gestaltungsmöglichkeiten geben.
Der Zuhörer kann in einzigartige immersive Klangwelten eintauchen.
-
SI-1 |
Sprachverständlichkeit in Rundfunk und Film |
R2 |
2018-11-15 |
09:30 - 11:00
-
Dialoge in Medium Film & Fernsehen - wie anstrengend darf Verstehen sein? Sprachverständlichkeit ist höchst subjektiv, nichtsdestotrotz wird an objektiven Messinstrumenten zur Messung der Sprachverständlichkeit geforscht, und um so wichtiger sind diese objektiven Messinstrumente. Dieser Übersichtsbeitrag wird aktuelle Forschungsprojekte und Ergebnisse beleuchten und das doch recht komplexe Thema zu Beginn der Session näher fassen.
-
Sprachverständlichkeit bei Film- und Fernsehproduktionen ist ein Parameter, mit dem neben Sprecher*innen und Darsteller*innen unmittelbar auch alle Filmton-Gewerke zu tun haben - vom Set bis zur Mischung, von O-Tonmeister*innen bis zu Komponist*innen. Er betrifft technische Parameter genauso wie gestalterische. Auch die Planungen des Produktions- und aller Bild-Departments haben weitreichenden Einfluss darauf. Das ist nicht immer allen Beteiligten bewusst. Dieser Vortrag zeigt die Stellen auf, an denen besonders auf die Erhaltung von Sprachverständlichkeit geachtet werden muss, und zeigt unter Abwägung von Kosten und Nutzen Wege dorthin auf.
-
MPEG-H Audio ist ein “Next Generation Audio” Codec (NGA), und bietet neben Immersivem Sound (3D Sound), insbesondere neue Möglichkeiten zur Benutzer-Interaktivität und Personalisierung. Mit MPEG-H Audio ist es möglich einzelne Komponenten als separate Objekte innerhalb eines Datenstroms zu übertragen. Metadaten regeln wie diese Komponenten im Empfangsgerät gemischt werden und welche Auswahlmöglichkeiten dem Zuschauer präsentiert werden können.
Im Bereich Barrierefreiheit können den Zuschauern so ganz neue Möglichkeiten geboten werden:
Durch die Übertragung des Dialogs als separates Objekt kann das Mischungsverhältnis des Dialogs zum Hintergrundsignal individuell eingestellt werden, im durch Metadaten erlaubtem Umfang. Dadurch kann die Sprachverständlichkeit erhöht werden, angepasst an die Hörsituation des einzelnen Zuschauers, ohne das unterschiedliche Mischungen erstellt und übertragen werden müssen.
Auch bei der Audiodeskription ergeben sich neue Optionen. Neben der Anpassung der Mischung ist es beispielsweise auch möglich, dass das Audiodeskriptions-Signal aus dem Mittenkanal z.B. nach links oder rechts geschoben wird, um so durch die räumliche Trennung besser von den Dialogen unterscheidbar zu werden.
-
TB-3 |
Talk Back |
R1 |
2018-11-15 |
10:30 - 11:30
-
Mit Einführung der Reformation im 16. Jahrhundert wurden viele südwestdeutsche Klöster aufgelöst und ihre Gesangshandschriften wurden nicht mehr verwendet. Die Manuskripte wurden mit höchstem künstlerischem Aufwand produziert, hatten aber nur noch materiellen Wert. Das Pergament wurde recycelt und als stabiles Einbandmaterial für die Akten verwendet.
Das Ensemble Ordo Virtutum in Koproduktion mit SWR und Schlösser und Gärten Baden-Württemberg hat es sich zur Aufgabe gemacht, die nur in Fragmenten existierende Schätze zu rekonstruieren.
Der Grundgedanke dabei war, dass der liturgische Raum, in dem einst die auf den Fragmenten aufgezeichnete Liturgie gesungen wurde, wesentlich mit der Rekonstruktion des Klanges verbunden ist. In den 3D Audio Aufnahmen präsentiere ich dem Zuhörer die Musik in der ursprünglichen Form und in der original Akustik der Klöster, die zum Teil gar nicht oder wenig architektonisch verändert worden sind. Auf der suche nach dem ursprünglichem Klang reisen wir nach unter anderem Maulbronn, Hirsau, Alpirsbach und Bebenhausen.
-
SR-1 |
Beschallung |
R3 |
2018-11-15 |
11:00 - 13:00
-
Nach einer Einführung in die Themenbereiche Ortung und Tracking geht es voranging um deren Implementierung in die Tontechnik auf dem aktuellen Stand der Technik. Problemstellungen und praxistaugliche Lösungsansätze werden unter anderem im Hinblick auf optimale Lautsprecherpositionierung und deren Anzahl, Adaption der Laufzeiten mittels automatisierter Mappingverfahren und notwendige Anpassungen, Arbeitsweisen mit statischen und bewegten Quellobjekten sowie Trackingsysteme deren Workflow und Schnittstellen besprochen. Im Anschluss ist ein Erfahrungsaustausch ausdrücklich erwünscht.
-
Die Herausforderungen bei der The World of Hans Zimmer-Tour, die Semmel Concerts als Produzent und Veranstalter im Frühjahr und Herbst 2018 realisiert hat, sind vielfältig. Schließlich werden die Werke eines der bekanntesten und einflussreichsten Filmmusikkomponisten der Gegenwart von einem großen Symphonie-Orchester, einer multi-instrumentalen Band, einem Chor sowie verschiedenen Solokünstlern auf die Bühne von großen Sportarenen gebracht. Carsten Kümmel ist der Sound-Designer der Show und als ausführender Tonmeister während der Tour für den Ton verantwortlich. Er erläutert in seinem Vortrag die komplexen Herausforderungen, die aus diesen auf den ersten Blick widersprüchlichen Gegebenheiten entstehen und welche technischen Ressourcen nötig sind, um diese Show mit Musik, Video, Lichteffekten und dramaturgischen Highlights zu einem unvergesslichen Erlebnis für die Zuschauer zu machen.
-
Eine immer dichtere Besiedelung bei gleichzeitig steigendem Angebot an Veranstaltungen und Konzerten führt regelmäßig zu Lärmkonflikten. Eine Veranstaltung muss auf der einen Seite zur praxisgerechten Realisierung immer mit einem gewissen Mindestversorgungspegel beschallt werden. Auf der anderen Seite sind die umliegenden Anwohner vor „gesundheitsschädlichen Einwirkungen“ zu schützen und die entsprechenden Immissionsschutzanforderungen zu berücksichtigen.
Dabei müssen umfangreiche Regelwerke beachtet werden, die den Schutz des Anwohners sicherstellen sollen (z. B. BImSchG, LImSchG. TA Lärm, Freizeitlärmrichtlinien der Länder, DIN 45680). Im Umgang mit den Regelwerken und mit den organisatorischen Zusammenhängen sind Toningenieure und Beschallungsdienstleister oftmals unsicher und nicht hinreichend vertraut. Schalltechnischen Gutachtern und Behörden sind andererseits häufig die Bedürfnisse der Produktion und die Möglichkeiten moderner Beschallungstechnik nicht vollumfänglich bekannt. Hier wird in der Praxis regelmäßig großes Potential verschenkt. Eine enge Kooperation zwischen Behörden, schalltechnischen Gutachterbüros und Beschallungsdienstleistern kann zu einer erheblichen Verbesserung der Situation aller Beteiligten führen.
Ein praxisnaher Beitrag zu den Grundlagen des Immissionsrechts, der Messtechnik und zur Beurteilung der schalltechnischen Situation. Erörterung von Möglichkeiten zur Reduktion der Immissionsbelastung und zum Einsatz moderner vernetzter Messtechnik zur Echtzeitüberwachung der Immissionssituation bei Events.
-
AP-2 |
The Arts of Production |
R5 |
2018-11-15 |
11:30 - 13:00
-
Aufnahme, Mischung, Mastering in 3D
-
Wer steht eigentlich im Mittelpunkt einer Tonaufnahme? Das Werk? Der Raum? Der Künstler? Welche Rolle spielt der Digitalschnitt? Und wer entscheidet über alle diese Fragen? Mein Vortrag will zu diesen Überlegungen einen musikwissenschaftlichen Beitrag leisten. Ein Aspekt hierbei ist, dass der Musik die Fähigkeit fehlt, „Ich“ sagen zu können. Sie ist daher immer auf , Umsetzendeʻ angewiesen. Hierzu werde ich Aussagen verschiedener Tonmeister miteinander vergleichen und Beispiele für verschiedene Aufnahmephilosophien aufzeigen. (Wie) Können sich alle Beteiligten darüber, was klingen und wie dies aufgenommen werden soll, angemessen miteinander verständigen? – Vielleicht sind die gestellten Fragen nicht letztgültig zu beantworten, aber einige Voruntersuchungen zu einem neuen Forschungsprojekt könnten hierzu Hinweise geben.
-
SI-2 |
Sprachverständlichkeit in Rundfunk und Film |
R2 |
2018-11-15 |
11:30 - 13:00
-
Der Vortrag erläutert die Ergebnisse des Gemeinschaftsprojektes von Fraunhofer IDMT und RTW unter der Kurzbezeichnung „SI4B“ und gibt einen Ausblick auf die laufenden Arbeiten im Projekt „SITA“. Dazu werden Ergebnisse eines Treffens mit Partnern aus dem professionellen Umfeld vorgestellt. Präsentiert wird auch ein PlugIn zur Erfassung von „Speech Intelligibility“ und „Listening Effort“ , sowie ein Feldversuch und Hinweise zur Nutzung.
-
Um die Sprachverständlichkeit im Fernsehen zu verbessern, wird auch die Einführung eines Tonkanalformats 3.0 diskutiert. Bei einer ordentlichen 3.0 Mischung sollte der Center-Kanal ausschließlich Sprache enthalten. Nach ersten Einschätzungen könnte dadurch eine verbesserte Sprachverständlichkeit (bzw. eine verminderte Höranstrengung) gewährleistet werden.
Um Auswirkungen dieses Formats auf die Sprachverständlichkeit bei den Zuschauern zu evaluieren, wurden am IRT Vergleichstests durchgeführt. Dabei zeigte sich, dass bei einer 3.0-Audiomischung eine manuelle Steuerung des Center-Kanal-Pegels genutzt wird, um die Sprachverständlichkeit von TV-Inhalten zu verbessern. Ebenso hat die Abhörlautstärke einen Einfluss auf den gewählten Center-Kanal-Pegel.
Es wurden drei unterschiedliche Abhörpegel (50, 60 und 70 dB(A)) angeboten. Auf einer Soundbar und einem 3.0-Wiedergabesystem sollte der Center-Pegel einer 3.0-Mischung so eingestellt werden, dass eine optimale Sprachverständlichkeit erreicht wird. Die Ergebnisse zeigen deutlich, dass bei einem geringeren Abhörpegel der Pegel des Center-Kanals im Vergleich zur Originalmischung deutlich angehoben wurde.
Dies zeigt die Wichtigkeit eines separaten Sprachkanals in TV-Produktionen. Eine praktische Umsetzung ist aktuell im Rundfunk allerdings schwierig, da ein reiner Sprachkanal meist nicht vorliegt und auch nicht übertragen werden kann. Zudem erlauben die meisten Endgeräte keine einfache Pegelanhebung des Centerkanals. Gelöst werden könnte dieses Problem langfristig durch eine objektbasierte Audioproduktion und Übertragung.
-
Dieser Beitrag stellt einen referenzsignalfreien Ansatz zur Vorhersage von Höranstrengung von einkanaligen Mischungen von Sprache und Atmo vor - Höranstrengung ist eine der Sprachverständlichkeit verwandte Größe. Der verwendete "single-ended" Ansatz basiert auf der Auswertung von Posteriogrammen, die durch ein System zur automatischen Spracherkennung erzeugt werden. Hintergrundgeräusche führen auch bei der automatischen Spracherkennung zu einer erhöhten Erkennungsunsicherheit - ähnlich wie bei menschlichem Verstehen. Diese Unsicherheit ist mit einem geeigneten Maß quantifizierbar und kann als Grundlage zur Bewertung der Sprachverständlichkeit dienen.
In zwei Studien wurden Fernsehsignale von 20 Probanden hinsichtlich ihrer subjektiven Höranstrengung bewertet und mit den Ergebnissen der Posteriorgramm-Auswertung verglichen. Die Korrelationen zwischen menschlichen Bewertungen und Modellbewertungen für die beiden Datensätze liegen bei 86 bis 90 Prozent. Die Methode ermöglicht somit eine automatische, objektive Überwachung der Höranstrengung von komplexen Sprachsignalmischungen.
-
TA-3 |
TMT Academy |
R1 |
2018-11-15 |
11:30 - 13:00
-
Deutschland kann auf eine Tradition in puncto hochwertige Studiengänge im Bereich Ton-Ingenieure / Tonmeister zurückblicken. Der vormalige "Vertrag", dass diese qualifizierten Ingenieure und Meister ihres Fachs zum guten Teil in öffentlich/rechtliche Arbeitsverhältnisse gehen können, ist seit Jahren seitens der Rundfunk- und Fernsehanstalten quasi aufgekündigt. Vormals sichere Arbeitgeber in Form von Musiktonstudios kämpfen angesichts der Einbrüche bei den Margen für verkäufliche Musik ebenfalls zu einem guten Teil um ihre Existenz. In einer aktuellen Online-Umfrage unter Filmtongestaltern kam ebenfalls mehrfach die Aussage, dass man als Filmtongestalter in Deutschland nicht von seiner Arbeit leben kann. Nichtsdestotrotz rekrutieren Universitäten, Fachhochschulen und zunehmend auch private "Akademien" immer mehr Studierende in dieses Gestaltungsfeld und locken junge Leute mit immer neuen Studiengängen im Feld des Sounddesigns und der Musik im weitesten Sinne. Wie sind die beruflichen Perspektiven für diese Studierenden?
Gleichzeitig ist seit einigen Jahren die Rede von einem "Acoustic Turn"! Angeblich widmen sich Werbung, Produktdesign, Verkehrs- und Stadtplaner, Architekten, E-Mobil-Hersteller, Industrie, Museumkuratoren, Planetarien u.v.m. zunehmend Fragen der Klanggestaltung und der Lärmverminderung in ihren Arbeitszusammenhängen. Ist das nicht angesichts des Verlusts an Arbeitsmöglichkeiten in den klassischen Berufsfeldern Radio, TV, Kino, Musik der Weg in neue Arbeitsfelder für Tongestalter/Sounddesigner?
Der Vortrag möchte zur breiten Diskussion dieser Frage anregen
-
SST-3 |
Studio Szene Talk |
S&R |
2018-11-15 |
12:00 - 13:00
-
It is generally recognized that the mission of an audio monitor is to transform an electrical signal into an acoustic signal as accurately as possible. Among the main disturbances inherent to any electroacoustic device and that need to be controlled, are phase distortion and harmonic distortion. This presentation will discuss the importance having a controlled phase response as well as optimal transducer damping for faithful audio transmission.
-
VR-2 |
VR und 360° |
R4 |
2018-11-15 |
12:00 - 13:00
-
3D production has become common these days. From now will need to serve several formats. Mainly speaker based and headphone based formats , within the same recording process.
The workshop will show several, acoustic based recordings, that will be mixed for speakers and headphones. It is planned to use a 9.1 based speaker system. Atmos is optional.
For the headphone processing Dear VR, Dolby and NATs Spacial Audio designer will be used, in order to show different approaches.
For the understanding of the workshop it is very important, that we do not just want to virtualize the 9.1 speaker system. It is the task, to virtualize the microphones. As these are acoustic based recordings, it is most relevant, how the different headphone virtualizer will be able to handle the signals, that have natural crosstalk on them. This process is much more challenging, than just replacing the speakers.
We will use a Jazz quartett recording, done in a big recording space, plus a chorus, recorded in a large church in Prague.
-
PROD-3 |
Produktbezogener Beitrag |
R3 |
2018-11-15 |
13:00 - 13:30
-
Im professionellen Audiobereich, wie bei Live Performances, Corporate Events, im Theater- oder Broadcast Bereich spielt ein störungsfreier Ablauf eine unerlässliche Rolle. Um hierbei auf das richtige Funksystem zu setzen, werden in unserem Vortrag zunächst die Eigenschaften digitaler und analoger Systeme gegenübergestellt. Besonderes Augenmerk liegt dabei auf dem entscheidenden Vorteil digitaler Systeme: der Betriebssicherheit. Anhand der Axient Digital AD und ADX Serie sowie des ULX-D Funksystems werden die Features, welcher zu einer höheren Betriebssicherheit beitragen, vorgestellt.
-
PROD-2 |
Produktbezogener Beitrag |
R5 |
2018-11-15 |
13:00 - 13:30
-
Christian Fuchs, Application Specialist bei Stage Tec, erläutert die Problematik der Darstellung und Bedienung der Z-Achse im 3D-Panning innerhalb des Mischpultkanals und wie dies in den Audio-Mischpulten von Stage Tec gelöst wird. Des weiteren stellt er die Parallelkompression von Instrumenten und Stimmen für Produktions- und Livebetrieb vor.
-
PP-1 |
Poster |
Poster Zone |
2018-11-15 |
13:00 - 15:00
-
Röhren-Leistungsverstärker gelten aufgrund ihres Klirrverhaltens als klangschön. In diesem Beitrag wird die Entwicklung und Umsetzung eines Stereo-Röhrenverstärkers in Gegentaktschaltung vorgestellt. Die Vorstufenarbeitspunkte lassen sich zwischen linearem und nicht-linear verzerrtem Betrieb umschalten und ermöglichen so eine unmittelbare Untersuchung der Auswirkung des Klirrverhaltens auf den Klang des Verstärkers.
Die Schaltung wird in Spice simuliert und durch Messungen am Aufbau überprüft. Dazu werden die verwendeten Bauelemente durchgemessen und mit dem Simulationsmodell abgeglichen. Eigenschaften wie Frequenzgang und Klirrfaktor werden als Simulation und Messung gegenübergestellt. Die Wahrnehmbarkeit der Verzerrungen wird in einem informellen Hörtest bewertet.
-
Das Smartphone hat sich in den letzten Jahren als eine Art persönliche Universal-Fernbedienung in unserem Leben etabliert, aber mit dem Einzug in den Effektgerät-Markt tut es sich bis heute schwer. Obwohl der technische Stand es ermöglichen würde eine Vielzahl an Effekten innerhalb eines kompakten Effektgerätes zu erzeugen und die Steuerung auf ein Smartphone zu verlagern, ist dieses Konzept noch nicht weit verbreitet. Deswegen wurde inneralb einer Bachelor-Arbeit der Prototyp eines Multieffektgerätes mit Bluetooth-Steuerung konzipiert und gebaut. Das Gerät trägt den Namen "MEMI" (Musical Effects Mobile Interface) und ist ein Multieffektpedal für elektrische Instrumente.
Das MEMI bildet die Grundlage für ein Effektpedal, das eine hohe Anzahl an Effekten, eine geringe Gerätegröße und eine übersichtliche sowie intuitive Bedienoberfläche miteinander verbinden kann. Große Effektboards, die mit verschiedenen Effektpedalen bestückt, fehleranfällig und schwer zu transportieren sind, können durch das MEMI und dessen Control-App ersetzt werden.
Das Poster beschreibt das Konzept und den Aufbau des Prototypen. Eine Demonstration des MEMIs vor Ort ist möglich.
-
Spectral Subtraction is often used for noise reduction and speech enhancement. It is an important tool of digital audio signal processing. But since its introduction in 1979 several problems like the Phase Errors, the Cross-time Errors and the Magnitude Errors make the results disappointing. Beyond these errors there is a fundamental problem by the basic principles of the Spectral Subtraction, which is documented in this publication.
-
Akustische Schallquellenortung und Schallquellentracking werden heutzutage in einem großen Spektrum an Produkten, welche von Konferenztechnik und Sprachsteuerung moderner Smart-Home-Geräte, bis hin zu Pro-Audio reichen, eingesetzt. Ein anwendungsnahes Beispiel eines Trackingalgorithmus, basierend auf drei hochwertigen, koinzident angeordneten Mikrofonkapseln, wird vorgestellt. Neben der energiebasierten Schallquellenortung werden verschiedene Komponenten zur Winkelstabilisierung eingesetzt. Eine Schallfeldauswertung, sowie lernfähige Langzeitgewichtungen und eine auf KI basierende Sprecher-Erkennung erzeugen einen hochreaktiven und stabilen Tracker, welcher in Kombination mit Beamformer-Algorithmen höchstwertige Audiosignale erzeugen kann. Hierzu wurden sowohl Untersuchungen zu Genauigkeit und Winkelstabilität, als auch Hörtests durchgeführt. Die Ergebnisse hierzu werden ebenfalls vorgestellt und diskutiert.
-
Für die Entwicklung eines neuartigen digital prozessierten Mikrofonarrays, haben wir im zur 29. TMT einen Hörversuch zur Untersuchung verschiedener Störgeräusche vorgestellt. Diese dienten dem besseren Verständnis, welchen Faktoren bei der Entwicklung der Algorithmen die größte Beachtung geschenkt werden muss. In diesem Teil werden die Hörversuche, deren Audiodatengenerierung sowie die Ergebnisse zur Einschätzung und Abgrenzung verschiedener Fremd- und Eigenalgorithmen zur Entwicklung des Mehrkapsel-Mikrofonarrays im Haupteinsatzgebiet der Sprache vorgestellt. Hierzu wird das Open Source Tool “WAET” für die menschliche-, sowie die STOI-Methode für die algorithmische Bewertung genutzt.
-
freeDSP ist ein Open-Source-Projekt der Technischen Universität Dresden und bietet preisgünstige und einfach umsetzbar DSP-Technik für DIY-Anwendungen. Verwendet wird ein System-on-a-Chip DSP, dessen integrierte AD- und DA-Wandler von der Performance her jedoch nicht an heutige Studioqualität heranreichen. Zu diesem Zweck wurde ein realHDaudio-Board, ebenfalls als Open-Source-Projekt geplant und entwickelt, welches trotz geringer Baugröße eine Audio-Performance erreicht, die bisher nur großen und vor allem hochpreisigen Studiosystemen (z.B. Signal-to-Noise-Ratio größer 118 dB) vorbehalten war. Das Board lässt sich über einen Erweiterungsslot mit dem freeDSP-Board, aber auch mit jedem anderen DSP/FPGA-System verbinden, sofern entsprechende Schnittstellen zur Verfügung stehen. Das Poster stellt die Entwicklung und einschlägige Messergebnisse vor. Eine Demonstration ist ebenfalls geplant.
-
Ein wichtiges Thema bei der Binauralen Synthese ist die einfache Verwendung personalisierter HRTF-Datensätze. An der Hochschule Düsseldorf wurde ein Binauralrenderer im DAW Plug In-Format entwickelt, der das noch recht unbekannte aber innovative SOFA Dateiformat nutzt, um verschiedene HRTF Datensätze schnell und einfach zu laden, zu analysieren und zu verwenden. Darüber hinaus ist es möglich, eine geladene HRTF auf den Hörer weiter anzupassen: Der individuelle Kopfdurchmesser eines Hörers beeinflusst maßgeblich die ITD (Interaural Time Difference) und hat damit einen maßgeblichen Einfluss auf die individuelle Lokalisationsfähigkeit. Im Renderer wurde ein spezielles Verfahren implementiert, um eine geladene HRTF auf den individuellen Kopfdurchmesser des Hörers einzustellen.
Mit der implementierten Nahfeldsimulation ist es außerdem möglich, auch mit einem im Fernfeld gemessenen HRTF-Datensatz die auftretenden Effekte einer in unmittelbarer Nähe des Kopfes befindlichen Schallquelle zu simulieren.
-
This contribution presents an insight into a position-dynamic binaural synthesis system used in an auditory augmented reality (AR) application. Audio signals from six loudspeakers are reproduced binaurally in a real room. The listener can move freely within an area of approx. 4 m x 4 m surrounded by a virtual loudspeaker setup. The head pose and the listener position are tracked and the corresponding binaural room impulse responses are continuously provided. A setup of five loudspeakers corresponds to a surround setup. One additional loudspeaker is located within the walkable area. A self-created music installation is reproduced with the virtual loudspeaker setup. This study investigates techniques and concepts for creating an interactive musical experience with such a system. Technically, panned audio signals between the surround speakers and discrete audio objects at the several speakers are used to create an acoustic scene. The listener's movements are incorporated as a design element.
-
Fieldworkers in musical acoustics often conduct recordings of ethnological sound sources. Cataloguing musical instruments by means of impulse responses, for instance, demands independence from individual acoustical rooms in the field. A free field would be perfect, however, not while travelling in remote places. To achieve at least some neutrality, a simple plate absorber is suggested to suppress ground reflections. In combination with large rooms, where wall or ceiling reflections are likely to arive late, reflection-free impulse responses should be possible. Conventional molton curtains, otherwise not very absorbing, can be arranged such as to function as plate resonator. After some analytical suggestion and some impedance tube pretests, the absorption of an applicable absorber reaches down to 100 Hz as confirmed by ISO 365 measurements. Stripes of corrugated paper - arranged meander-like and upright on the floor - are strong enough to support some layers of molton curtain. The total weight is less than 1 kg and the volume is roughly 10 l for every m² of absorber, fitting into every travelling bag. But the absorber can also be build ad-hoc anywhere due to the simplicity of material and construction.
-
The contribution presents different approaches to the blind upmixing of 5.1-stereophonic material to 3D-audio systems and proposes a perceptually effective upmixing algorithm. The suggested method focuses on the generation of additional lateral content (using vector decomposition for the extraction of correlated material) as well as on the creation of additional content for the upper listening hemisphere (using blind reverberation extraction based on signal analysis with recurrent neural networks and inverse impulse response estimation for spectral subtraction processes).
An extensive formal expert listening test has been conducted and achieved promising results for the method proposed, showing significant increase in width and depth perception as well
as listener envelopment.
Key words: Blind Upmixing, 3D-Audio,Monopole Synthesis, Reverberation Extraction, 2-to-3 Upmix, Primary Component Analysis
-
Das MEXLE-System (Multimodales EXperimentier- und LErnsystem) ist eine Hard- und Softwareumgebung für die Grundlagenausbildung in Elektrotechnik und Elektronik.
MEXLEaudio stellt hierfür eine anwendungsbezogene Erweiterung für den Einsatz als Lernhilfe im Audio-Bereich dar. Das MEXLEaudio-System besteht aus einem in einem kleinen Koffer untergebrachten Basissystem mit speziellen Modulen für Anwendungen der digitalen und analogen Audiotechnik und dazugehörige Lernmaterialien.
Verfügbare analoge Audio-Module sind:
Mikrofonvorverstärker, Stereo-Eingangsstufen, Klangregelstufen, Notchfilter, Panorama und Summe, Kopfhörerverstärker, Analog-Endstufen, Class-D-Endstufen, Aktivweichen, Delaykompensation, Präzisionsgleichrichter, Pegelanzeige. Damit lässt sich z.B. ein kleines 4-Kanal-Mischpult realisieren.
Als digitale Module stehen zur Verfügung:
AD-Converter (bis 8-Kanal, 192 kHz) mit I²S/TDM-Ausgang, PDM-zu-TDM Eingangsstufe, USB-zu-TDM Converter (USB Audio Class 1), DSP-Module mit ADAU170x DSP, TDM-zu-USB Converter, Class-D-Stereo Endverstärker 2x30W. Die Modulsteuerung erfolgt über einen I²C-Systembus. Der digitale Audio-Bus bietet TDM8 bzw. 4x I²S.
Im Rahmen der Postersessions besteht die Möglichkeit, das MEXLE-Modulsystem kennenzulernen. Es werden konkrete Anwendungen aus dem Audio-Bereich demonstriert.
-
Object-based audio provides many new features for the end-user. The quality of end user experience covers several dimensions. Here the relevant dimensions are identified and specific questions regarding the features are answered by end-users. For this, two different application scenarios (surround loudspeakers reproduction at home and binaural reproduction during transportation) are investigated. The evaluation was conducted in a dialog orientated and interactive form at the open innovation lab JOSEPHS.
-
PROD-4 |
Produktbezogener Beitrag |
R4 |
2018-11-15 |
13:30 - 14:00
-
Unsere neue Recording-Software STAGECAST wurde speziell für Theater, Opernhäuser, Ballettschulen und Konzerthäuser entwickelt. Diese leicht zu bedienende Systemlösung dient der benutzerfreundlichen Aufnahme und Distribution von Videoaufzeichnungen. Hierbei gewährleisten wir neben vielen anderen Vorteilen hohe Datensicherheit, eine schnelle Bearbeitung von Clips sowie individuelle Userrechte.
-
SST-4 |
Studio Szene Talk |
S&R |
2018-11-15 |
14:00 - 15:00
-
Several manufacturers now offer modeling microphones, but understanding the distinctions between the different offerings and what they might mean for the real world application can be hard. This workshop provides a concise overview of the various available systems and how they compare. We will then have a close-up look at the Townsend Labs Sphere L22 mic modeling system and what it’s like working with this solution in the studio. A special focus will be on how to use this technology to achieve great results quickly, solve common recording problems, and developing new creative workflows that would be impossible with traditional microphones.
-
MV-1 |
Jährliche Mitgliederversammlung des VDT |
R2 |
2018-11-15 |
14:00:00 - 16:00:00
Jährliche Mitgliederversammlung des VDT
Alle VDT-Mitglieder sind herzlich eingeladen zu unserer Mitgliederversammlung.
-
PROD-5 |
Produktbezogener Beitrag |
R3 |
2018-11-15 |
14:30 - 15:00
-
Im Zusammenhang des KLING & FREITAG Projektes 'VIDA L/C in der Elbphilharmonie' soll inhaltlich der technische Umgang mit Beam Steering und die Vorteile gezielter Schallimmission erläutert werden.
Agenda:
- Technologie Beam Steering - KLING & FREITAG VIDA
- Beam Steering Hintergründe
- Welcher Weg ist der Richtige?
Projekt Elbphilharmonie - Idee und Fertigstellung
- Der Saal
- Konventionelle Beschallung - Line Array oder Punktschallquelle?
- Beam Steering
Ausblick in die Zukunft
Andre Bauer - KLING & FREITAG - Vertrieb Süddeutschland
Christoph Wöhler - KLING & FREITAG - Technische Leitung
Gastbeiträge:
noch nicht bestätigt (Projektbeteiligte)
-
MU-1 |
Musikalische Aspekte in der Tonmeisterei |
R1 |
2018-11-15 |
15:00 - 16:30
-
Künstlerische Aufnahmeleitung im Bereich klassischer Musik bedeutet permanente Urteilsbildung über die Richtigkeit von Notentext, Balance, Dynamik und – natürlich – Intonation. Doch kann die Frage nach „zu hoch“ oder „zu tief“ wirklich immer zweifelsfrei beantwortet werden? Gibt es definierbare Gründe, wenn sich zwei Musiker nicht auf dieselbe Tonhöhe einigen können?
Der Vortrag soll helfen, spezifische Probleme des Intonierens zu verstehen, sensibel für unterschiedliche Intonations-Moden machen und erläutern, warum Intonation immer ein Kompromiss ist.
-
Bei einer Klavieraufnahme findet man in der Regel einen Konzertflügel vor, der im besten Falle ein sehr großes Spektrum an spielmechanischen und klanglichen Möglichkeiten dem Künstler zur Verfügung stellt. Im Vortrag geht es einleitend um die Qualität dieser Möglichkeiten. Im Kern geht geht der Fokus dann auf die Erweiterung des Spektrums durch den Einbau einer zweiten Mechanik.
-
3DP-1 |
3D Production |
R5 |
2018-11-15 |
15:00 - 17:00
-
Immersive Audio represents a number of different audio formats and viewing modes, including Auro 3D, Dolby Atmos, Ambisonics and VR / AR. 3D audio in terms of a geometric point of view is much more than surround + height or moving audio objects in the 3D space. It is the consistent extension of dimensions: from mono (point) and stereo (line) to surround (area) to 3D (volume). The result is a breathtaking spatiality as well as a naturalness of the sound of instruments, as can not be realized in stereo.
Gregor Zielinsky and Lasse Nipkow present their long-term findings and results with 3D audio in the workshop. Using illustrative examples, they explain how to tap the full potential by loudspeaker and headphone reproduction.
-
More and more music productions in 3D / immersive audio are realized native. In contrast to upmix strategies, thereby the potential of 3D / immersive audio can be fully achieved musically, and it can be used to create new forms of creativity. However, it is not trivial to deal with the large number of audio channels and with new binaural headphone virtualizations meaningfully.
Lasse and Tom are making 3D / immersive audio productions, recordings and presentations since more than a decade on various conventions all over the world. During this new session they will combine their knowledge and experience in 3D / immersive audio to explore main aspects of spatial audio psychoacoustics, production & missing strategies and tools in this comprehensive lecture. The audience will hear samples from new electro artists to famous dance artists like Booka Shade and Grammy awarded Kraftwerk tracks.
-
AT-1 |
Array-Technologie in der Beschallung |
R3 |
2018-11-15 |
15:00 - 17:00
-
A presentation about the remarkable improvement in rear-cancellation for cardioid subwoofer arrays (CSA) by introducing modest "air"-gaps between adjacent enclosures.
-
High resolution horizontal arrays (HRH arrays) intended for high quality live sound application make special demands on array technology. These comprise basic acoustic properties such as sound pressure level, high and low frequency sound reproduction quality, latency, vertical directivity etc. as well as control algorithms and signal processing. Other salient factors include the usability and reliability of the technology used and considerations of size and installation.
Array technology is characterized by several contradictory demands, making practical high quality systems difficult to design. Limiting fields of application is an appropriate method of simplifying array construction. This is common practice with standard line arrays or column speakers. Requirements increase considerably when advanced array functions are to be implemented. To maintain high sound quality, arrays must meet related requirements.
Construction of an HRH array system starts with speaker module design and includes audio electronics, power supply design, digital signal processing on several levels; it ends with the actual user interface and its connection to other audio equipment. The connection with the mixing console, the main tool of a live audio engineer, is critical. This paper gives an overview of concepts and technologies and details the integration of HRH array systems with other commonly used equipment in live sound applications.
-
High resolution horizontal arrays (HRH arrays) are designed to overcome well-known deficits of traditional array systems. They also overcome traditional mono, stereo and multi-channel paradigms and therefore do not share the burden of their inherent problems. Well-designed HRH arrays provide extensive flexibility to adjust to the acoustic environment, remarkable control over sound distribution and exceptional sound quality for every person in the audience.
Mapping option, the process of deploying an audio input signal to the array speakers, is an important factor for the ability of HRH array systems to adjust to the acoustic environment and the audience. This paper deals with sound radiation of different mapping options of advanced HRH arrays and their benefits and drawbacks for live sound.
Application of HRH arrays is especially beneficial for venues hosting performances of critical acoustic and classical music. Small scale systems are also feasible. Due to the ability of HRH arrays to accurately adjust to the acoustical environment they are often a solution for problematic acoustic architecture. Examples of churches in Korea are presented that traditionally have a strong focus on musical performances as part of their services.
-
MA-1 |
Mastering |
R4 |
2018-11-15 |
15:00 - 17:30
-
2018 ist es selbstverständlich, dass Musik mit dem Computer produziert wird. Native Audiobearbeitung, der Einsatz von Plug-Ins, Filetransfers über Internet, die Verwendung von USB-Mikrofonen sind nur einige Merkmale dieser Tatsache. Hat sich das Thema Mastering in diesem Kontext auch verändert? Gibt es neue Anforderungen wenn alle Musikproduktionsprozesse im Computer des Producers verschmelzen? Was heißt eigentlich Online Mastering? Der Autor versucht diesen Fragen nachzugehen und präsentiert die Ergebnisse einiger zuvor geführter Interviews mit Mastering-Kollegen.
-
Götz-Michael Rieth, Mitinhaber der eastside mastering studios berlin gmbh, geht in seinem Vortrag auf Aspekte des Compilation-Masterings durch qualifizierte Engineers ein und setzt diese in Beziehung zu den aktuellen Möglichkeiten der automatischen Angleichung bei der Wiedergabe von Playlists in Streaming-Portalen.
Anhand von Beispielen sollen die Probleme und gegenwärtigen Grenzen der automatischen Anpassung in Wiedergabelisten vergegenwärtigt, sowie ein spekulativer Ausblick in die Zukunft gewagt werden.
-
Rein analoges ReMastering vom originalen Masterband für Vinyl, Tonband, DSD / SACD. Anhand vieler Beispiele erläutere ich meine technische und ästhetische Vorgehensweise bei dieser Aufgabenstellung. Zudem gehe ich auf das Für und Wider dieses puristischen Ansatzes ein. Ist es „modisches Retro“ oder hat es grundsätzliche Relevanz?
-
SST-5 |
Studio Szene Talk |
S&R |
2018-11-15 |
16:00 - 17:00
-
In this workshop we examine the components of the recording chain bridging music and the DAW: transducers, stands and shock mounts, microphone cables, microphone preamplifiers and analog-digital converters. How good is as good as it can get?
-
AC-1 |
Akustik |
R2 |
2018-11-15 |
16:30 - 18:00
-
Die Kultur- und Veranstaltungshalle „kING“ in Ingelheim am Rhein wurde im August 2017 eröffnet. Das Herzstück ist der ca. 800 Plätze fassende Konzertsaal.
Die Bandbreite der Veranstaltungen erstreckt sich vom Kongress über Theater-Produktionen, Pop-, Rock- und Jazz-Konzerten bis hin zu hochkarätigen Klassik-Events. Dabei hebt sich die „kING“ vom Konzept einer herkömmlichen Mehrzweckhalle durch die variable Raumakustik auf allerhöchstem klanglichem Niveau deutlich ab und besitzt damit in Deutschland ein Alleinstellungsmerkmal. Die Variabilität der Raumakustik wird dabei durch ein elektroakustisches Nachhallzeitverlängerungssystem erreicht, welches eine besonders hohe Flexibilität unterschiedlichster akustischer Situationen bietet. Die Nachhallzeit kann auf Kopfdruck verändert werden.
Das Projekt wurde im Februar 2018 auf der Fachmesse Integrated Systems Europe (ISE) in Amsterdam mit dem „InAVation-Award“ als innovativstes Projekt in der Kategorie Kulturbauten ausgezeichnet. Graner+Partner Ingenieure GmbH zeichnete für die Fachplanung und Bauüberwachung in allen Leistungsphasen in den Fachbereichen Raum- u. Bauakustik und Elektroakustik verantwortlich. Der Vortrag verschafft sowohl einen Einblick in innovative akustische Lösungsprinzipien am Beispiel des genannten Projekts, als auch einen generellen Ausblick auf die sich stetig verändernden Anforderungen im Bereich der Kulturbauten.
-
After 7 months of closure and extensive renovation work the Joan Sutherland Theatre which is the Opera in the Sydney Opera House reopened with a gala performance at New Year’s Eve 2017. Besides a whole new theatre machinery and improvements for disabled patrons a central part and aim of this renewal project was to achieve improved acoustic conditions for the musicians in the orchestra pit as well as for the audience. During the project innovative solutions have been developed to reduce the sound levels in the pit that make use of a combination of natural acoustic measures and specialized settings of an electronic enhancement system.
-
Die Robert Schumann-Hochschule Düsseldorf besitzt für Proben, Aufführungen und Aufnahmen einen eigenen Saal, den Partika-Saal. Für den Studiengang Ton und Bild des Instituts für Musik und Medien (IMM) der Musikhochschule ist es zugleich der größte innerhalb der Hochschule zur Verfügung stehende Aufnahmeraum. Dozenten und Studierenden seit Jahrzehnten wohlbekannt, verfügt dieser Saal über eine besondere Architektur und raumakustische Eigenschaften, z. B. dass es innerhalb des annähernd sechseckigen Raums eine Vorzugsrichtung für Musizieren und Aufnahmen zu geben scheint. Im Rahmen einer Bachelorarbeit des Studiengangs Ton und Bild des IMM sollte dem wissenschaftlich auf den Grund gegangen werden, wofür zunächst im unbestuhlten, im bestuhlten, aber unbesetzten, sowie im mit Besetzungssimulation versehenen Zustand des Raums ausführliche raumakustische Messungen inklusive Raumimpulsantworten mit einem Maximalfolgenmesssystem konform DIN EN ISO 3382-1 und gemäß DIN EN ISO 14257 durchgeführt und ausgewertet wurden. Mit Hilfe eines 3D-Computersimulationsmodells konnte nach sorgfältiger Kalibrierung des Bestandsmodells an der messtechnisch erfassten Realität gezeigt werden, dass es eine Vorzugsrichtung gibt, und dass eine Verbesserung der Hörsamkeit im Partika-Saal für die derzeitigen Nutzungen erreicht werden kann. Hierfür werden beispielhafte Maßnahmenprinzipien vorgestellt, die Grundlage für optimierende raumakustische Maßnahmen bilden können. Die sich hier bietenden Optionen sollen in diesem Beitrag vorgestellt und durch Auralisationen hörbar gemacht werden.
-
MU-2 |
Musikalische Aspekte in der Tonmeisterei |
R1 |
2018-11-15 |
17:00 - 18:30
-
A new documentary film (2017) follows the groundbreaking work of a team of researchers, artists, and artisans as they reconstruct Beethoven’s 1817 Broadwood piano and its gigantic Gehörmaschine, and embark on a recording of Beethoven’s last three piano sonatas, Opus 109, 110, and 111. The team explains how Beethoven “deafly composed” at his English piano—hearing, seeing, and mostly feeling the vibrations of his beloved instrument.
Inside the Hearing Machine invites us into the multisensory playground of a deaf composer for whom the Gehörmaschine was more than a hearing aid and who interacted with his instrument through much more than sound. Performed inside the hearing machine, Beethoven’s three last piano sonatas once again reveal themselves as the embodied expressions of a man who had learned to work with rather than against his disability.
After the screening, a discussion will follow that touches on issues of the use of piano lids and the listening perspective from the point of view of the pianist and from that of the Tonmeister.
-
BF-1 |
Barrierefreies Audio |
R2 |
2018-11-15 |
18:00 - 19:00
-
Höranlagen dienen nicht nur schwerhörigen Menschen zur drahtlosen Übertragung des Sprachsignals in die Hörtechnik sondern auch bei mehrsprachigen Veranstaltungen der Übersetzung und Übertragung in die gewünschte Sprache. Eine Verbesserung des Nutz-Störsignal-Abstandes ist dabei das Ziel, um ein leichteres Sprachverstehen zu ermöglichen.
Unabhängig vom verwendeten Anlagensystem muss das Nutzsignal störarm gewonnen werden. Das ist bei einem Vortrag mit Rednermikrofon oder einer Musical-Aufführung mit ausreichend Headset-Mikrofonen keine schwierige, eher eine aufwändige Angelegenheit. Wenn jedoch kein mundnahes Mikrofon verwendet wird oder verwendet werden kann, entstehen die Probleme. Spätestens bei gleichem Nutz-Störsignal-Verhältnis wie im Raumschallfeld am Empfangsort hat sich der Einsatz einer Höranlage erübrigt.
Für kleine Theaterbühnen möchte man gern einfache, übersichtliche Lösungen. Mehrmikrofonanordnungen sind jedoch technisch aufwändig, störanfällig und liefern bei ständig offenen Mikrofonen ein erhebliches Störsignal. Daher wird versucht, Kompaktmikrofone mit Richtwirkung so zu positionieren, dass der gesamte Bühnenbereich erfasst wird ohne übertriebene Laufgeräusche. Im Betrag werden realisierte Projekte zur Mikrofonierung dargestellt und mit Klangbeispielen erlebbar gemacht.
-
Höranlagen dienen nicht nur schwerhörigen Menschen zur drahtlosen Übertragung des Sprachsignals in die Hörtechnik sondern auch bei mehrsprachigen Veranstaltungen der Übersetzung und Übertragung in die gewünschte Sprache. Eine Verbesserung des Nutz-Störsignal-Abstandes ist dabei das Ziel, um ein leichteres Sprachverstehen zu ermöglichen.
Neben den klassischen Systemen (Induktion, Funk, Infrarot) entwickeln sich derzeit eine Vielzahl von alternativen Übertragungssystemen. Meist auf dem Smartphone als individuellem Empfänger basierend versprechen sie bekannte Audioübertragungen aber auch neue Features. Aber was funktioniert gut und zuverlässig? Was steckt noch in den Kinderschuhen? Was ist wo schon nutzbar? Und vor allem: was geht noch nicht?
Die Konferenz "Future Loops" vom Oktober 2017 in Berlin vermittelte einen tiefen Einblick in die internationale Entwicklung der Höranlagen. Entwickler, Anbieter und Nutzer der Systeme konnten sich intensiv austauschen über den Entwicklungsstand, die Möglichkeiten und die Erfahrungen mit klassischen und neuen Systemen.
-
PE-3 |
Wahrnehmung & Ästhetik |
R3 |
2018-11-15 |
18:00 - 19:00
-
Spätestens seit den 2000er Jahren und der Expo in Hannover erfreuen sich aufwendige multimediale Rauminszenierungen in Museen, Messen, Verkaufsräumen oder im öffentlichen Raum wachsender Beliebtheit. Selbstredend spielt dabei auch Klang eine herausragende Rolle. Mit dem Begriff der „Akustischen Szenografie“ scheinen gegenwärtig alle Maßnahmen bezeichnet zu werden, die sich mit der Gestaltung räumlicher Klangnarrative im Sinne einer „expanded scenography“ beschäftigen. Eine Klangszenografie unterliegt ganz spezifischen Konstruktionsprinzipien, beispielsweise einer Zeitlichkeit der Inszenierung, die maßgeblich vom Besucher bestimmt wird. Diese Prinzipien, die damit verbundenen Gestaltungsparameter und das Arbeitsfeld der Akustischen Szenografie sind jedoch noch nicht umfassend definiert worden. Unterscheiden sich beispielsweise Klanginstallation und Akustische Szenografie? Wenn ja, worin? Die präzise Erfassung der Dimensionen des Begriffs ist dabei nicht nur von theoretischer Relevanz, sondern muss in Hinblick auf den effizienten Einsatz und die gezielte Entwicklung von Audiotechnologie verstanden werden. Nur wenn klar ist, wie räumliche Klangnarrative funktionieren, können etwa räumliche Klangwiedergabeverfahren nachhaltig gestaltet werden. Der Workshop möchte anhand von Arbeitsbeispielen eine Definition zur Diskussion stellen und damit einen regen Austausch zum Problemfeld der Akustischen Szenografie initiieren.
-
SST-6 |
Studio Szene Talk |
S&R |
2018-11-15 |
18:00 - 19:00
-
Wir unterhalten uns über den Zustand der digitalen Master, deren Loudness und dem Produktionsverlauf zwischen Ingenieur und Künstler. Wie teilt man Erfahrungen mit Dynamik/Lautheit und Klang? Und was sind die Unterschiede der Plattformen die von allen akzeptiert werden? Erkenne, respektiere und suche nach Alternativen für einen Weg in den Markt.
Swan bietet eine Lösung an.
-
VR-3 |
VR und 360° |
R4 |
2018-11-15 |
18:00 - 19:00
-
Der Vortrag soll zeigen, welche Herausforderungen 360°-Videos unter widrigen Bedingungen für die Ton-Aufnahme und Post-Produktion darstellen, und warum man fast schon dazu gezwungen ist, sich auf 360/VR zu spezialisieren, oder lieber einen großen Bogen herum machen sollte.
Die Arbeit an Virtual-Reality-Produktionen erfordert ein ganz neues, fachübergreifendes Verständnis für alle Beteiligten. Darüber hinaus wird beim Filmemacher der Pioniergeist geweckt, weil es nun wieder die Möglichkeit gibt, Bilder zu erzeugen die so noch niemand gesehen hat, was dazu führt, dass Geschichten gerne an besonders waghalsigen Orten erzählt werden sollen.
Das ist nicht nur für das Kamera- sondern auch für das Sound-Department eine Herausforderung, da schon während der Aufnahme die Post-Produktion in einem anderem Maße berücksichtig werden muss und dem Tonmeister Wissen abverlangt wird, welches über die reine Vertonung hinausgeht.
Welche Details das sind und welche möglichen Herangehensweisen es für derartige Aufnahmen und deren Nachbearbeitung gibt, zeigt Martin Rieger anhand von verschiedenen Projekten, wie Onboard Aufnahmen auf verkehrsuntauglichen Motorrädern in Vietnam; Tiefschnee-Aufnahmen mit Freestyle-Ski- und Snowboardfahrern bis hin zum weltgrößten Flüchtlingscamp in Bangladesch.
-
CP-1 |
3D Audio Production Competition |
R5 |
2018-11-15 |
18:00 - 20:00
-
Enjoy the results of the second Student's 3DAP Competition during the Tonmeistertagung.
For the second time, the Student 3D Audio Competition invites to listen to elaborate, high-quality productions in Ambisonics 3D Audio. This year, the award ceremony is facilitated by the Tonmeistertagung. During the show, the jury presents the nominee productions in an ideal 3D audio listening environment, announce the winners and hand out the awards.
The 3D categories:
1. Contemporary / Computer music
2. Audio drama / Documentary / Soundscapes
3. Music recording / Studio production
-
4 seasons of Bialowieza forest is a contribution by Katarzyna Sochaczewska
This musical piece is based on the fragments of 1st order ambisonic recording of Białowieża forest (UNESCO heritage) and musically composed to bond together acoustical instruments and electronic elements - ideally creating extension of natural soundscape. Three musicians have been invited to take part in the project (double bass, percussions and tenor saxophone players). They have been recorded separately to the prepared stereo demo track, with no influence on each other. On every instrument a stereo technique combined with spot microphones was used, so in the mix there is a lot of natural movement and depth. The mixing process was performed on 16 channels with subwoofer, using IEM ambisonic plugins.
-
AΩ is a contribution by Khatsenka Polina
The idea of the project is to make a short electronic music track with a story in it, using minimized sound input (only 3 types of sound sources), electroacoustic music and minimal music approaches to composition, with a small amount of reference to present-day commercial electronic dance music. The whole track consists of two chapters, which are: electronic music track, with its artifacts (repetitive elements, punching kicks and commercial wobbling base, electronic dance music rhythmic motives) and electroacoustic music part with chaotic changes in rhythm, non-repetitive sound groups, with micro and macro changes in basic-level attributes of sound recordings and audio composition. The mix was created during my summer semester (2018) Erasmus study exchange in Hochschule Düsseldorf at Media faculty, as a part of "3D audio production in new formats" course with Mr. Prof. Dieter Leckschat.
-
De Nedergang is a contribution by Ernst van der Loo
De Nedergang is a piece composed in fifth order ambisonics using both concrete and synthetic material. The title is an antiquated Dutch word having a double meaning: ‘the descent’ but also meaning ‘the decline’ or ‘the downfall’. It this second meaning it is related to the German ‘der Niedergang’. Large parts of the piece have been recorded in a hallway which both in Dutch and Norwegian translates to the word ‘gang’. On top of that the acoustics of a concrete stairwell are extensively featured in some of the used material. The materials that form the basis for this piece are mostly concrete. The synthetic material consists of sounds either driven by or derived from the concrete material. The piece makes use of the acoustic environment the basic material was recorded in. The aim was to create a piece in which ambisonics was used as more than just a panning algorithm, acoustics became a true compositional factor. The piece also deals with human agency. Or better described, false agency: synthesised sounds sounding ‘organic’, as opposed to real agency that is falsified by slowing material down in extreme ways.
-
IT Service is a contribution by Erol Bücherl, Aydin Yeşildağ and Mecnun Langer
When we were confronted with the task of creating a 3D music production, the conclusion to produce a Rapsong was not farfetched. The main focus of this track was to create a coherent, action-packed story line in which the listener should never feel bored. We opted for a classic intro, main section and outro division of the song. The plot is about a bank robbery carried out by 2 people who disguise as technicians and gain access to the vault. The song begins as the two gangsters get out of the car and talk to a bank clerk who brings one of the two to the server rooms, where he disables the alarm systems and cameras. In the mean time the other gangster overwhelms the customers and remaining bank employees in the entrance area and locates the Bank Manager. Both stay in contact with each other during the coup using Walky Talkies. With both of the keycards in their possession they ultimately get access to the safe and their loot. In the end, they split up and one of them does not make it to the getaway car in time and is held at gunpoint by a police officer.
-
Energy Life is a contribution by Valerie Quade
The idea was to be able to hear 3D environments, that we, as humans, are to big for, to get our ears inside. Additionally I designed the piece to show my non-audio working co-humans how exciting (binaural) surroundsound can be. So this radio play can be seen as a ambisonics piece for beginners.
-
The Cave is a contribution by Michael Bernsteiner
My piece „The Cave“ has been exclusively produced for this 3D Audio competition. I recorded some of the tracks, like the foley sounds such as my own breath, a flashlight, footsteps and body sounds particularly for this piece. Others, like most of the ambience sounds, I took from my library. The story idea was to take the listener on a journey through a cave, where unknown things take place. He enters the undiscovered scene from outside, is being attacked by some creatures and has to gather his courage to overcome an obstacle. At the end, everything suddenly dissolves. Was it all just a dream?
-
Artificial Love is a contribution by Clemens Markart and Simon Dolliana
“Artificial Love” is musical composition especially made for Ambisonics by Clemens Markart and Simon Dolliana. The track combines aggressive sound design and a modern electronic music production. These two combonents tell a lovestory of an android and the listener. At first the android seems hostile towards the listener, but gets more and more interested in the listener throughout the track.
-
Franz Liszt: Fantasie und Fuge is a contribution by Ephraim Hahn and Kseniya Degtyareva
The presented recording is an organ recording recorded in an anglican church in Montréal, Canada.
-
3Disco is a contribution by Yannik Weber
3Disco was a University-Project by a group of students at Stuttgart Media University producing different tracks and checking out if 3D-Audio also works for Dance-Music. This particular track was produced by Yannik Weber using an extended Auro 3D-Setup (9.1+5+1).
-
NA-1 |
Vernetzte Audio-Video-Technik |
R3 |
2018-11-16 |
09:00 - 10:30
-
IP has come to be the most beneficial technologiy of the past 40 years, providing flexible and interoperable way of distributing information of any kind both locally and globally. Almost everybody is using it everywhere. Most of the time without feeling it. Just in that moment something does not work seamlessly, IP is the devil inside. What really is IP? What does IP mean? And is it really IP we are talking about? Did anybody ever explain some fundamentals to you? Without talking about those OSI layers for hours?
Migrating from legacy Audio/Video transmission technologies to IP based protocols such as SMTPE, H.264, Dante and more leaves technicians with questions such as how to ensure content synchronization at minimum signal latency. But reading any sticker on any brochure is not giving you that faith you have for known technologies. Did you ever experience collisions and congestions in your network? Well, you did and I do not mean in road traffic.
So here comes the news. IP is just a method of addressing devices in your network. Ethernet is the means of transport at that point. Ethernet started it´s life using Coax cabling more than 40 years ago. Just like SDI, but Thick Ethernet cables were yellow, not green. Some basics and fundamentals are still part of our Gigabit Ethernet we use today. Knowing that and having it heard makes it obvious that IPv6 can not help you in your network infrastructure trouble. Learn more in this session.
-
The current generation of audio network technologies has been around for roughly ten years now. Not only have these technologies lowered the amount of cabling needed, they also allowed convergence of multiple services into one network architecture.
Nonetheless, due to marketing efforts, growing pains and teething problems, a lot of myths about the various protocols and systems have emerged. This talk will try to debunk them as much as possible and provide a unified vocabulary to allow objective discussions.
-
While network streaming standards like AES67 or SMPTE2110 are focussing on the exchange of media data, they are deliberately excluding the control aspect of the network and devices. Separate standards like NMOS or AES70 seem to address the missing bits and may also trigger high expectations in regards to standardised control of devices. Will users be able to experience true plug’n play when adding new devices a network, regardless of its manufacturer?
This talk will have a look at the concept of various control protocols like AES70, Ember+ and NMOS and will try to make a connection to overall device control. It will also explain why there will always be limits to standardisation of device control.
-
RA-1 |
Restauration & Archivierung |
R2 |
2018-11-16 |
09:00 - 11:00
-
Der Beitrag erläutert die Grundlagen des als Vinegar-Syndrom bekannten Schadensbildes analoger Ton- und Filmträger und bietet einen Überblick über den aktuellen Stand der Forschung und der Auswirkung auf verschiedene Tonträger (Wachszylinder, Schallplatten, Tonbänder, Kinofilme). Neben dem Phänomen der Kettenspaltung des Celluloseacetats wird vor allem auch die Problematik des Abdampfens flüchtiger Komponenten, sog. Volatile Organic Compunds (VOCs), diskutiert, dessen Auswirkungen bisher unterschätzt worden sein dürften. Für die Archivwelt, aber auch für die Restaurierung von historischem Tonmaterial bedeutet das eine zunehmende Notwendigkeit der sachgerechten Lagerung aber vor allem einer solchen Digitalisierung, um die Aufnahmen von ihrem sich zersetzenden Träger auszulesen und nutzbar zu machen.
Die Problematik wird mit umfangreichem Beispielmaterial erläutert.
-
Historically, audio Compact Cassettes have been used as a cheap medium for data storage for sound generators and audio equipment such as drum machines and synthesizers. On such "data cassettes", a pseudo-audio signal is employed to encode digital information, for example drum patterns, arrangements, sound programs, patch data, and system memory dumps.
Reliably usable data rates on a data cassette are on the order of a few kilobits per second, requiring a recording time of a few minutes in order to save a typical payload data amount of a few 10 kilobytes. Typical modulation methods that have been used on data cassettes are FSK (frequency shift keying), Manchester code, and Bi-Phase-Mark code. In addition, parity bits or checksums typically provide a rudimentary means of error detection.
Within this contribution, examples of software-defined decoder and encoder tools for such data cassette formats are presented, enabling data recovery and analysis as well as data conversion.
The main goal of this approach is to enable digital preservation and archiving of musically valuable compositions, arrangements, and sound designs of historical drum machines, organs, and synthesizers. The employed multi-platform, open source approach provides an implied documentation of the particular historical storage formats.
-
Dieser Beitrag bietet einen historischen Überblick über die Grundlagen der Informationsübertragungskette mit analoger Signaldarstellung, und erläutert die relevanten Parameter und Probleme.
Beginnend bei akustischen Schnittstellen des Phonographen bis zu den elektrischen Schnittstellen der analogen Ära werden die Grundlagen von Quellen, Senke und Anpassung in Erinnerung gerufen. Neben einem historischen Überblick fließen auch Rückschlüsse für Archivierung und Restaurierung historischer bzw. analoger Audiomaterialien in die Betrachtung ein und werden anhand von Beispielen aus der Praxis erläutert.
-
CLA-1 |
Klassische Musik in 3D |
R5 |
2018-11-16 |
09:00 - 13:00
-
Ästhetische, gestalterische und technische Aspekte der Musikübertragung vorwiegend klassischer Musik in 3D-Audio werden anhand von Aufnahmen und Mischungen gezeigt und diskutiert, die an der Universität der Künste Berlin seit 2012 im Format Auro 3D erarbeitet wurden.
„Darf man das?“ — „Sollte man das?“ — „Muss man das?“ und manchmal auch die Frage „Wie macht man das?“
Seit klassische Musik aufgenommen wird, werden ästhetische und auch ethische Aspekte diskutiert, zwischen Reproduktion, Gestaltung und Erschaffung.
-
At the time, the first classical music recordings in immersive audio formats were made, it was often stated that creating a great sound in 3D audio is much easier compared to conventional stereo or surround formats. Indeed, opening up a 3D main microphone array quickly leads to an exciting and pleasing sound impression, as many acoustical features are recreated in a much more natural way. However, the fine nuances that constitute well known great recordings require still a very detailled work in miking and mixing in order to control the aesthetic intention and musical representation to the very last detail.
As an example, an orchestral recording will be presented by walking in detail through it’s elements and the mixing process.
This work also sums up many of the common conclusions from respected Tonmeisters at the 2018 AES conference on spatial audio - aesthetics and science in Tokyo.
-
3D audio in terms of a geometric point of view is much more than surround + height or moving audio objects in the 3D space.
It is the consistent extension of dimensions: from mono (point) and stereo (line) to surround (area) to 3D (volume). The
result is a breathtaking spatiality as well as a naturalness of the sound of instruments, as can not be realized in stereo.
Gregor Zielinsky and Lasse Nipkow present their long-term findings and results with 3D audio in the workshop. This is a
listening session. A series of impressive classical music 3D audio recordings will be presented.
-
Do 3D audio formats enhance the quality or intensity of musical emotions? This essential question concerning the musical quality and value of the new immersive audio formats was investigated in a study where listeners were presented with classical musical excerpts in Stereo, 5.1 Surround, and Auro-3D 9.1 playback formats. Participants were asked to report their emotional states while listening to two contrasting excerpts of Arnold Schönberg’s string sextet “Verklärte Nacht” op. 5. The results provide evidence that 3D audio can invoke a stronger overall emotional arousal in listeners and therefore has potential to enhance musical aspects in classical music transmission. Listening excerpts are presented during the presentation.
-
3D-3 |
3D-Audio |
R1 |
2018-11-16 |
09:30 - 11:30
-
This work presents the development of a convolution reverb software for 3D audio productions by using object based programming and acoustically simulated hoa ambisonics impulse responses of an existing concert hall. An innovative graphical user interface enables the user to change the position of the listener and different sound sources in the spatial environment with ease. For every possible position exists one individual simulated ambisonics impulse response to create a feeling of realistic depth and accurate localization. The resulting 3D sound field can be played back on hoa ambisonics-systems, in binaural on head tracked headphones, or on every common loudspeaker setup up to Auro 3D. The participants of this workshop will get the chance to hear different sound examples and change their positions with the developed software.
-
Objektbasierte Audioproduktion wird mittlerweile auch in Studios als effiziente Methode für 3D Audio anerkannt und verstärkt eingesetzt. Damit sind viele intuitive Arbeitsschritte möglich die sich beim kanalbasierten produzieren als eine große Herausforderung erwiesen haben. In den IAN Studios wird hauptsächlich objektbasiert auf Basis der Fraunhofer IDMT SSW Software. Ein wichtiges Projekt war die Zusammenarbeit mit dem "Siemens Art Programm" bei dem objektbasiertes Recording und SSW basierte Produktion als Basis für Live Aufführung und Präsentation sowie für verschiedene Standard Ausspieleformate diente. Der Vortrag beleuchtet das Praktische Arbeiten mit SSW am Beispiel der Produktion für das "Siemens Art Programm
-
TA-4 |
TMT Academy |
R4 |
2018-11-16 |
10:00 - 11:00
-
One of the most demanding aspects of sound design is to understand how we identify sounds, and eventually create a surrounding ambience from specific layers of sound, as sound effects for cinema or television. The days of radio drama seem to be far behind us, but the skills associated with this media are still relavent today. We are however very much conditioned by the visual media, and sound tends just to parallel the visual action, but the apprentiship concerning the identity of sound for the student sound engineer can be a major challenge.
Storytelling in sound without using pictures or words, and if possible no music, is an extremely powerful teaching tool. The presentation includes many demos (demos chosen from a menu of about 26 different possibilities), and discussion can cover all the different aspects of creating a story in sound - Synopsis - Scenario - Storyboad - Recording - Editing - Mixing - Listening Test.
-
NA-2 |
Vernetzte Audio-Video-Technik |
R3 |
2018-11-16 |
11:00 - 13:00
-
This presentation will describe how Ethernet AVB is used to distribute sound from Digital Audio Workstation software to Ethernet AVB-capable speaker endpoints. The AVDECC control protocol, an open standard, is used to control a signal processing capability on the endpoints. A particular use for this capability is in the field of immersive sound. The speakers can be connected to POE+ switches, thereby enabling the transmission of audio streams, control and power. This eases the configuration of immersive sound systems. The clocking and stream reservation capabilities of Ethernet AVB ensure that all devices work from the same clock, and that stream transmission is deterministic.
-
The ST2110 standard defines the transport and synchronization of elementary video, audio and ancillary data essence streams in managed IP networks. AES67 uses the same mechanisms and protocols and thus is consequently referenced in ST2110 for the audio essence transport. This presentation dives into the fundamentals of both standards and eplains the commonalities & constraints between ST2110 & AES67. It also touches on inter-stream synchronization, particularly from the audio view point where sample-accurate alignment of signals is a common requirement. The concept of common system time and the differences between network clock, media clocks and stream clocks are explained. The final key element then is a common (time) reference plane.
-
Due to its superior technical capabilities AVB has over years captured attention by many professional manufacturers and users. Being an open IEEE technology standard that enhances Ethernet itself to become a deterministic and synchronized network system AVB has yet not had the required marketing support with regard to its applicability in professional applications. A layer of practical end-to-end interoperability that describes rules for its implementation has been missing so that it was hard to deploy AVB in a way that would facilitate a growing ecosystem of fully compatible products in the ProAV industry.
Leading audio manufacturers - especially Avid, Biamp, d&b audiotechnik, L-Acoustic and Meyer Sound – have since October 2016 closely collaborated and defined an application layer on top of AVB that enables the deployment of AVB in a wide scale of systems and products with guaranteed compatibility while fully enabling all benefits of AVB technology - MILAN. Beside all technical benefits a main motivation for this group of manufacturers was to develop an open standard that ensures a long term perspective for AV networking in a joint initiative together with the IT industry. The involved manufacturers have agreed on developing the topic of open standard AV networking in close long term collaboration and thereby avoiding competitive settings around network solutions. This is a benefit for customers, users and the entire AV industry. The presentation introduces MILAN in detail and leaves time for Q&A.
-
Eine zukunftssichere Broadcast Infrastruktur ist für den Erfolg eines Verkaufsfernsehsenders wie HSE24 mit vorwiegend Live Programm essentiell. Neben dem klassischen TV wächst die Bedeutung von E-Commerce und Social Media im Teleshopping überproportional. Die Produktionsumgebung muss entsprechend flexibel gestaltet werden, damit diese schnell an veränderte Marktbedingungen angepasst werden kann.
Die simultane Produktion für TV und Social Media muss ebenso möglich sein wie das sukzessive Arbeiten für verschiedene Medien und das ohne Zeitverlust durch technische Umbauten. Außerdem sollte der entstehende Content für E-Commerce, Video on Demand und "Rerun" flexibel verwaltet und schnell angepasst werden können.
An eine IP basierte Lösung führt kein Weg vorbei, jedoch müssen aus Gründen der Sendesicherheit auch weiterhin konventionelle Ansätze berücksichtigt werden. Vorgestellt wird eine Konzeption, die versucht diesen Ansprüchen gerecht zu werden. Im Fokus stehen die flexible Einsetzbarkeit der Studiokapazitäten, die damit verbundene übergeordnete Steuerung und Kommunikation sowie das transmediale Content-Management.
-
RA-2 |
Restauration & Archivierung |
R2 |
2018-11-16 |
11:30 - 13:00
-
Folgende Aspekte werden angesprochen: Auffinden und Digitalisieren der Aufnahmen; restaurative Maßnahmen bei Brummstörungen, Rauschen, Kopierechos, Bandschnitten, technisch bedingten sowie akustischen Störgeräuschen; musikalische Korrekturen bei Schnittfehlern und Aufführungsmängeln; Klangbearbeitung und Klangangleichung.
-
One of the main advantages of object-based audio production is its independence of the reproduction system. Ideally, this enables content producers to transport their creative intent in the best quality possible to any device and speaker layout.
In practice, however, it might be beneficial to apply some kind of optimization to an audio scene before encoding it for a specific target system. Examples are end user devices with limited capabilities or legacy systems, where it is vitally important to preserve the creative intent without compromising for the lowest common denominator. But it might also be reasonable to optimize for economic reasons to reduce the required bandwidth as long as the perceived quality of end user experience is not affected.
Ideally, this is an automatic or at least semi-automatic process to preserve one of the original key benefits of object-based audio.
This presentation will give an overview of the general ideas and concepts, introduce main obstacles and potential solutions and give insights to our current research activities.
-
Nowadays, in the digital age, with a high degree of miniaturization and advanced techniques at our disposal, we think that we can easily transform just everything into an accurate series of bits and bytes. For example, looking at the surface of a shellac disc through a microscope, we can clearly see the groove excursions, which correspond to the waveform of the audio signal they represent. So, there must be a simple way to digitize them... or is it less obvious than one may think? This presentation will expose the measurable reality, in an objective way, analyzing and comparing (electro)mechanical vs. optical reproduction systems.
-
TA-5 |
TMT Academy |
R4 |
2018-11-16 |
11:30 - 13:00
-
Die Big Band ist – um mit der Jägersprache zu sprechen – sozusagen der "24-Ender" einer Jazzproduktion. Der Workshop soll die mannigfaltigen Probleme aufzeichnen, mit denen man vor und während einer solchen Produktion zu kämpfen hat, von der Aufnahme bis zur Mischung.
-
3D-4 |
3D-Audio |
R1 |
2018-11-16 |
12:00 - 13:00
-
3D Audio / Spatial Sound can be a game changer for the entertainment industry and beyond - straight out of germany. Variaties of market-leading manufacturers of immersive audio tools invent and produce their hard- and software in germany. With creative power and the usage of these tools we can build a force with an immersive scope.
Future storytelling needs next level audio because: “Audio is the new picture!”
Emotional brand building is not only the key for marketing, it is essential for every production. Music / sound reaches out in the most emotional way and with 3D Audio / Spatial Sound we can enhance that drastically by enfolding the user.
With immersive audio we redefine ways of perception and create new ways of storytelling. Every product needs a good story and with the new possibilities of immersive audio we extend the potential to tell them. The understanding of immersive audio must be given, to be aware what those possibilities are, even among audio professionals.
-
SST-7 |
Studio Szene Talk |
S&R |
2018-11-16 |
12:00 - 13:00
-
Wie sieht der Weg zum erfolgreichen Sounddesign für Bewegtbilder aus? Wie nutze ich tongestalterische Mittel als Teil der Komposition? Welches Equipment bietet sich für welchen Einsatz an und wie setze ich mich vom Einheitsbrei ab? Engineer und Sounddesigner Patrick Leuchter war im Team für einen außergewöhnlich aufwändigen Werbespot in Kroatien unterwegs und nahm dort alle Sounds vor Ort auf. Nach unzähligen Überquerungen von Wiesen, Tälern, Bergen und Flüssen hat er neben O-Tönen auch einige neue Erfahrungen gesammelt. Im Zwiegespräch mit Dirk Heilmann (Sound&Recording) spricht er über seine Erlebnisreise, Erfahrungen und über die Zukunft des Sounddesigns.
-
PROD-6 |
Produktbezogener Beitrag |
R5 |
2018-11-16 |
13:00 - 14:00
-
IZotope presents: machine learning and neural networks allow use to create new possibilities for achieving better results in restoration and signal processing by understanding complex relationships between audio signals. In this workshop we’ll look at a few examples of how this manifests in state of the art tools and products that are created for audio restoration, mixing and mastering and what might be possible in the future.
-
PP-2 |
Poster |
Poster Zone |
2018-11-16 |
13:00 - 15:00
-
Röhren-Leistungsverstärker gelten aufgrund ihres Klirrverhaltens als klangschön. In diesem Beitrag wird die Entwicklung und Umsetzung eines Stereo-Röhrenverstärkers in Gegentaktschaltung vorgestellt. Die Vorstufenarbeitspunkte lassen sich zwischen linearem und nicht-linear verzerrtem Betrieb umschalten und ermöglichen so eine unmittelbare Untersuchung der Auswirkung des Klirrverhaltens auf den Klang des Verstärkers.
Die Schaltung wird in Spice simuliert und durch Messungen am Aufbau überprüft. Dazu werden die verwendeten Bauelemente durchgemessen und mit dem Simulationsmodell abgeglichen. Eigenschaften wie Frequenzgang und Klirrfaktor werden als Simulation und Messung gegenübergestellt. Die Wahrnehmbarkeit der Verzerrungen wird in einem informellen Hörtest bewertet.
-
Akustische Schallquellenortung und Schallquellentracking werden heutzutage in einem großen Spektrum an Produkten, welche von Konferenztechnik und Sprachsteuerung moderner Smart-Home-Geräte, bis hin zu Pro-Audio reichen, eingesetzt. Ein anwendungsnahes Beispiel eines Trackingalgorithmus, basierend auf drei hochwertigen, koinzident angeordneten Mikrofonkapseln, wird vorgestellt. Neben der energiebasierten Schallquellenortung werden verschiedene Komponenten zur Winkelstabilisierung eingesetzt. Eine Schallfeldauswertung, sowie lernfähige Langzeitgewichtungen und eine auf KI basierende Sprecher-Erkennung erzeugen einen hochreaktiven und stabilen Tracker, welcher in Kombination mit Beamformer-Algorithmen höchstwertige Audiosignale erzeugen kann. Hierzu wurden sowohl Untersuchungen zu Genauigkeit und Winkelstabilität, als auch Hörtests durchgeführt. Die Ergebnisse hierzu werden ebenfalls vorgestellt und diskutiert.
-
Für die Entwicklung eines neuartigen digital prozessierten Mikrofonarrays, haben wir im zur 29. TMT einen Hörversuch zur Untersuchung verschiedener Störgeräusche vorgestellt. Diese dienten dem besseren Verständnis, welchen Faktoren bei der Entwicklung der Algorithmen die größte Beachtung geschenkt werden muss. In diesem Teil werden die Hörversuche, deren Audiodatengenerierung sowie die Ergebnisse zur Einschätzung und Abgrenzung verschiedener Fremd- und Eigenalgorithmen zur Entwicklung des Mehrkapsel-Mikrofonarrays im Haupteinsatzgebiet der Sprache vorgestellt. Hierzu wird das Open Source Tool “WAET” für die menschliche-, sowie die STOI-Methode für die algorithmische Bewertung genutzt.
-
freeDSP ist ein Open-Source-Projekt der Technischen Universität Dresden und bietet preisgünstige und einfach umsetzbar DSP-Technik für DIY-Anwendungen. Verwendet wird ein System-on-a-Chip DSP, dessen integrierte AD- und DA-Wandler von der Performance her jedoch nicht an heutige Studioqualität heranreichen. Zu diesem Zweck wurde ein realHDaudio-Board, ebenfalls als Open-Source-Projekt geplant und entwickelt, welches trotz geringer Baugröße eine Audio-Performance erreicht, die bisher nur großen und vor allem hochpreisigen Studiosystemen (z.B. Signal-to-Noise-Ratio größer 118 dB) vorbehalten war. Das Board lässt sich über einen Erweiterungsslot mit dem freeDSP-Board, aber auch mit jedem anderen DSP/FPGA-System verbinden, sofern entsprechende Schnittstellen zur Verfügung stehen. Das Poster stellt die Entwicklung und einschlägige Messergebnisse vor. Eine Demonstration ist ebenfalls geplant.
-
Das Smartphone hat sich in den letzten Jahren als eine Art persönliche Universal-Fernbedienung in unserem Leben etabliert, aber mit dem Einzug in den Effektgerät-Markt tut es sich bis heute schwer. Obwohl der technische Stand es ermöglichen würde eine Vielzahl an Effekten innerhalb eines kompakten Effektgerätes zu erzeugen und die Steuerung auf ein Smartphone zu verlagern, ist dieses Konzept noch nicht weit verbreitet. Deswegen wurde inneralb einer Bachelor-Arbeit der Prototyp eines Multieffektgerätes mit Bluetooth-Steuerung konzipiert und gebaut. Das Gerät trägt den Namen "MEMI" (Musical Effects Mobile Interface) und ist ein Multieffektpedal für elektrische Instrumente.
Das MEMI bildet die Grundlage für ein Effektpedal, das eine hohe Anzahl an Effekten, eine geringe Gerätegröße und eine übersichtliche sowie intuitive Bedienoberfläche miteinander verbinden kann. Große Effektboards, die mit verschiedenen Effektpedalen bestückt, fehleranfällig und schwer zu transportieren sind, können durch das MEMI und dessen Control-App ersetzt werden.
Das Poster beschreibt das Konzept und den Aufbau des Prototypen. Eine Demonstration des MEMIs vor Ort ist möglich.
-
Spectral Subtraction is often used for noise reduction and speech enhancement. It is an important tool of digital audio signal processing. But since its introduction in 1979 several problems like the Phase Errors, the Cross-time Errors and the Magnitude Errors make the results disappointing. Beyond these errors there is a fundamental problem by the basic principles of the Spectral Subtraction, which is documented in this publication.
-
Ein wichtiges Thema bei der Binauralen Synthese ist die einfache Verwendung personalisierter HRTF-Datensätze. An der Hochschule Düsseldorf wurde ein Binauralrenderer im DAW Plug In-Format entwickelt, der das noch recht unbekannte aber innovative SOFA Dateiformat nutzt, um verschiedene HRTF Datensätze schnell und einfach zu laden, zu analysieren und zu verwenden. Darüber hinaus ist es möglich, eine geladene HRTF auf den Hörer weiter anzupassen: Der individuelle Kopfdurchmesser eines Hörers beeinflusst maßgeblich die ITD (Interaural Time Difference) und hat damit einen maßgeblichen Einfluss auf die individuelle Lokalisationsfähigkeit. Im Renderer wurde ein spezielles Verfahren implementiert, um eine geladene HRTF auf den individuellen Kopfdurchmesser des Hörers einzustellen.
Mit der implementierten Nahfeldsimulation ist es außerdem möglich, auch mit einem im Fernfeld gemessenen HRTF-Datensatz die auftretenden Effekte einer in unmittelbarer Nähe des Kopfes befindlichen Schallquelle zu simulieren.
-
This contribution presents an insight into a position-dynamic binaural synthesis system used in an auditory augmented reality (AR) application. Audio signals from six loudspeakers are reproduced binaurally in a real room. The listener can move freely within an area of approx. 4 m x 4 m surrounded by a virtual loudspeaker setup. The head pose and the listener position are tracked and the corresponding binaural room impulse responses are continuously provided. A setup of five loudspeakers corresponds to a surround setup. One additional loudspeaker is located within the walkable area. A self-created music installation is reproduced with the virtual loudspeaker setup. This study investigates techniques and concepts for creating an interactive musical experience with such a system. Technically, panned audio signals between the surround speakers and discrete audio objects at the several speakers are used to create an acoustic scene. The listener's movements are incorporated as a design element.
-
Fieldworkers in musical acoustics often conduct recordings of ethnological sound sources. Cataloguing musical instruments by means of impulse responses, for instance, demands independence from individual acoustical rooms in the field. A free field would be perfect, however, not while travelling in remote places. To achieve at least some neutrality, a simple plate absorber is suggested to suppress ground reflections. In combination with large rooms, where wall or ceiling reflections are likely to arive late, reflection-free impulse responses should be possible. Conventional molton curtains, otherwise not very absorbing, can be arranged such as to function as plate resonator. After some analytical suggestion and some impedance tube pretests, the absorption of an applicable absorber reaches down to 100 Hz as confirmed by ISO 365 measurements. Stripes of corrugated paper - arranged meander-like and upright on the floor - are strong enough to support some layers of molton curtain. The total weight is less than 1 kg and the volume is roughly 10 l for every m² of absorber, fitting into every travelling bag. But the absorber can also be build ad-hoc anywhere due to the simplicity of material and construction.
-
The contribution presents different approaches to the blind upmixing of 5.1-stereophonic material to 3D-audio systems and proposes a perceptually effective upmixing algorithm. The suggested method focuses on the generation of additional lateral content (using vector decomposition for the extraction of correlated material) as well as on the creation of additional content for the upper listening hemisphere (using blind reverberation extraction based on signal analysis with recurrent neural networks and inverse impulse response estimation for spectral subtraction processes).
An extensive formal expert listening test has been conducted and achieved promising results for the method proposed, showing significant increase in width and depth perception as well
as listener envelopment.
Key words: Blind Upmixing, 3D-Audio,Monopole Synthesis, Reverberation Extraction, 2-to-3 Upmix, Primary Component Analysis
-
Das MEXLE-System (Multimodales EXperimentier- und LErnsystem) ist eine Hard- und Softwareumgebung für die Grundlagenausbildung in Elektrotechnik und Elektronik.
MEXLEaudio stellt hierfür eine anwendungsbezogene Erweiterung für den Einsatz als Lernhilfe im Audio-Bereich dar. Das MEXLEaudio-System besteht aus einem in einem kleinen Koffer untergebrachten Basissystem mit speziellen Modulen für Anwendungen der digitalen und analogen Audiotechnik und dazugehörige Lernmaterialien.
Verfügbare analoge Audio-Module sind:
Mikrofonvorverstärker, Stereo-Eingangsstufen, Klangregelstufen, Notchfilter, Panorama und Summe, Kopfhörerverstärker, Analog-Endstufen, Class-D-Endstufen, Aktivweichen, Delaykompensation, Präzisionsgleichrichter, Pegelanzeige. Damit lässt sich z.B. ein kleines 4-Kanal-Mischpult realisieren.
Als digitale Module stehen zur Verfügung:
AD-Converter (bis 8-Kanal, 192 kHz) mit I²S/TDM-Ausgang, PDM-zu-TDM Eingangsstufe, USB-zu-TDM Converter (USB Audio Class 1), DSP-Module mit ADAU170x DSP, TDM-zu-USB Converter, Class-D-Stereo Endverstärker 2x30W. Die Modulsteuerung erfolgt über einen I²C-Systembus. Der digitale Audio-Bus bietet TDM8 bzw. 4x I²S.
Im Rahmen der Postersessions besteht die Möglichkeit, das MEXLE-Modulsystem kennenzulernen. Es werden konkrete Anwendungen aus dem Audio-Bereich demonstriert.
-
Object-based audio provides many new features for the end-user. The quality of end user experience covers several dimensions. Here the relevant dimensions are identified and specific questions regarding the features are answered by end-users. For this, two different application scenarios (surround loudspeakers reproduction at home and binaural reproduction during transportation) are investigated. The evaluation was conducted in a dialog orientated and interactive form at the open innovation lab JOSEPHS.
-
PROD-7 |
Produktbezogener Beitrag |
R4 |
2018-11-16 |
14:00 - 14:30
-
Immersive media such as 360 ° video and 3D audio technology pose new challenges for audio production. Head-mounted displays with head tracking and VR controllers with gesture control offer new possibilities for well-known tasks during a mix.
dearVR SPATIAL CONNECT allows mixing immersive 3D audio directly in VR, eliminating tiresome switching back and forth between the mixing and the playback environment. During the mixing process, the sound engineer wears VR glasses and uses the VR controllers to position audio sources, set their level and control solo/mute and automation modes. With dearVR SPATIAL CONNECT it is possible to control the digital audio workstation, including the 3D audio processing plug-in dearVR PRO.
-
SST-8 |
Studio Szene Talk |
S&R |
2018-11-16 |
14:00 - 15:00
-
Modelling-Mikrofone gibt es zwar inzwischen von mehreren Herstellern, doch es ist eine neue Art von Mikrofonen mit erheblichen Unterschieden, bei denen nicht immer klar ist, was diese für den Praxiseinsatz bedeuten. Dieser Workshop bietet einen schnellen Überblick zu den verschiedenen Systemen und wo die Gegensätze liegen. Anhand des Sphere L22 Mikrofons von Townsend Labs wird dann demonstriert, wie sich die Arbeit mit einem Mikrofon-Modelling-System im Studioalltag genau darstellt. Ein besonderer Schwerpunkt liegt darauf, wie man mit dieser Mikrofon-Technologie schnell zu hervorragenden Ergebnissen kommt, häufige Recording-Probleme meistert und zu ganz neuen kreativen Ansätzen kommt, die mit traditionellen Mikrofonen schwer oder unmöglich wären.
-
PROD-8 |
Produktbezogener Beitrag |
R5 |
2018-11-16 |
14:30 - 15:00
-
Today immersive / spatial / 3D audio is a new important topic you can see everywhere in audio and music production. But what formats are available, how to create and how to deliver? The Spatial Audio Designer (SAD) is a professional software plug-in for digital audio workstations (DAWs). The SAD offers various possibilities to create and export requested immersive audio formats like MPEG-H right in the individual workflows of sound and music producers. The session will give an overview of the SAD, it's workflows and production examples like Kraftwerk 3D, The 5th Element etc.
-
LN-1 |
Loudness im Radio |
R2 |
2018-11-16 |
15:00 - 16:00
-
Sind alle Programmbeiträge einer Hörfunksendung - Wortbeiträge und Musik - nach Lautheit ausgesteuert, entsteht im Sendestudio quasi automatisch ein homogener Programmfluss. Aber ist ein ausgewogenes Sprache-Musik-Verhältnis immer wünschenswert, für alle Sendeformen, vom politischen Magazin bis zur Konzertwiedergabe? Im Kulturradio ist das Sprache-Musik-Verhältnis ein Gestaltungskriterium, um eine gute Hörwirkung zu erzielen. Es muss für jede Sendung individuell gefunden werden.
Ähnlich verhält es sich bei der Dynamik. Im Interesse einer guten Verständlichkeit darf die Dynamik im Radio nicht zu groß sein. Aber lässt sich daraus eine Zieldynamik für alles ableiten? Nein, denn die erforderliche Dynamik ist für Nachrichtenbeiträge, Hörspiele und Musik ist vollkommen unterschiedlich.
Es bedarf daher intelligenter Workflows, die Programmbeiträge individuell anpassen, im Hinblick auf einen bestimmten Kontext, eine bestimmte Sendung.
Um diese Anforderungen in automatisierten Workflows zu realisieren, hat der SWR sogenannte Sendungsbasierte Lautheitsprofile entwickelt. Über diese Profile ist es möglich, Sendungen individuelle Vorgaben für Lautheit und Dynamik zuzuschreiben. Realisiert wird dies im Zusammenspiel von Content Management System, Playout-Steuerung und einer Audioworkstation.
-
“Loudness normalisation is not beneficial to radio and only makes sense for television”, or “loudness is a major competitive disadvantage in the context of FM transmission”. These and many other preconceptions revolve around the subject of loudness normalisation in the field of radio broadcasting. A successful project at Bayerischer Rundfunk shows, that a considerable part of these simply belong in the world of myths and legends. In a joint effort of program areas, technical planning, system technology and production, it was possible to fruitfully introduce loudness normalisation in all of BR's radio stations after several years of planning and realisation. The following paper details the objectives and motives pursued by the project, explains the implementation concept and discusses the experiences gained and results achieved.
-
OB-1 |
Objektbasierte Produktion |
R5 |
2018-11-16 |
15:00 - 16:00
-
Der Eurovision Song Contest (ESC) ist mit 186 Millionen Fernsehzuschauern eine der größten Musikveranstaltungen der Welt. 2018 fand er vor über 10.000 Zuschauern in der Altice Arena in Lissabon statt. Durch seine Kombination aus Musik und Publikumsreaktionen ist er prädestiniert für eine dreidimensionale Audioproduktion. Parallel zum normalen 2.0 und 5.1 Sendeton hat das Fraunhofer Institut für Integrierte Schaltungen (IIS) in Kooperation mit der European Broadcasting Union (EBU) vor Ort eine immersive Tonfassung produziert, welche die Atmosphäre dieses Live-Events eindrucksvoll wiedergibt. Mittels einer MPEG-H Übertragung lassen sich mehrere Kommentare in unterschiedlichen Sprachen innerhalb eines Sendesignals ausstrahlen. Darüber hinaus ist Nutzer-Interaktion möglich, die dem Zuhörer zusätzliche Varianten der Mischung zugänglich macht. Der Beitrag berichtet über die technische Realisierung der Aufnahme, die klangliche Gestaltung, das Authoring und Enkodieren als MPEG-H-Datenstrom.
-
SST-9 |
Studio Szene Talk |
S&R |
2018-11-16 |
15:00 - 16:00
-
It is generally recognized that the mission of an audio monitor is to transform an electrical signal into an acoustic signal as accurately as possible. Among the main disturbances inherent to any electroacoustic device and that need to be controlled, are phase distortion and harmonic distortion. This presentation will discuss the importance having a controlled phase response as well as optimal transducer damping for faithful audio transmission.
-
ST-1 |
Studio & Recording |
R1 |
2018-11-16 |
15:00 - 16:00
-
In this workshop we examine the components of the recording chain bridging music and the DAW: transducers, stands and shock mounts, microphone cables, microphone preamplifiers and analog-digital converters. How good is as good as it can get?
-
AC-2 |
Akustik |
R3 |
2018-11-16 |
15:00 - 17:00
-
Envelopment – the perception of being surrounded by a beautiful acoustic space – is one of the joys of great concert halls. Low frequencies in such spaces swirl around the head of a listener, giving the sound a life of its own. But in many playback rooms, particularly those with a single low frequency driver, low frequency reverberation is flat, frontal, and without motion. In this presentation we will show how with careful placement full range stereo loudspeakers or two independent subwoofers can bring envelopment back to a playback room, while at the same time making bass more uniform across the listening area. Contrary to current practice we choose loudspeaker positions that minimize room modes with high pressure at the listening position while maximizing modes with strong lateral components.
-
Immersive monitoring systems contain a large number of loudspeakers, each strongly and differently influenced acoustically by the room boundaries. This creates uncertainty regarding the actual in-room frequency response, results in large acoustical differences between individual loudspeakers, and can reduce the transparency and reliability of monitoring on such system. The aim of this work is to demonstrate this influence and then study the importance of using multiple measurement microphone positions instead of one measurement microphone position when preforming in-room frequency response calibration and system alignment.
-
For measurements in roomacoustics, loudspeaker sources are required. The most common source is the dodecahedron loudspeaker, with 12 identical transducers in a spherical housing. The resulting sound field is assumed spherical. For building acoustics loudspeakers, with a diameter of 40 to 50 cm, the omnidirectional cutoff frequency is about 1 kHz. When one thinks of measuring a Room Impulse Response (RIR), the reliability of the measurements above that omnidirectional cut-off frequency becomes significantly worse. Even with parameters based on energy decay, the quality of the derived values is strongly affected. Hence, measuring RIRs for auralization is not possible.
Measuring RIRs for auralization requires a flat frequency response curve (magnitude & group-delay) that covers the entire audible frequency range. One single source cannot reproduce the entire frequency range (eg 40 Hz to 15 kHz) in terms of directivity and sound power. For the former, it would have to be small (at high frequencies) but for the latter it would have to be large (at low frequencies). Therefore, the frequency range is divided into several bands, which are reproduced by optimal speaker systems.
The poster features a three-way loudspeaker system fulfilling most of the desired aspects: perfect omnidirectional radiation up to 6 kHz, high output power for sufficient signal to noise ratio, and a flat frequency response for both magnitude and group delay. The latter is the result of the active filter concept of the integrated amplifier system using a compensating crossover filter design with FIR filters.
-
Nachdem die Notwendigkeit spezieller Testsignale für die Evaluierung von Algorithmen der virtuellen Akustik erkannt worden ist, wurde seit 2016 das im Titel genannte Projekt der Deutschen Gesellschaft für Akustik (DEGA) durchgeführt. Nach einer Konzeptphase wurden die nicht trivialen urheberrechtlichen Fragen geklärt, um das Ziel einer Gemeinfrei-Stellung von Audiomaterial und Metadaten zu erreichen. Hierzu wurde ein Mustervertrag erstellt, mit dem Künstler ihre Rechte an die DEGA abtreten. In der Folge wurden Tonaufnahmen mit sehr weitgehenden Dokumentations-Erfordernissen erstellt und ggf. tonmeisterlich nachbearbeitet. Dabei ist z.B. eine hohe Kanaltrennung zwischen Instrumenten erforderlich, da einzelne Quellen in virtuellen Umgebungen prinzipiell beliebig positioniert werden können. Das Material wird in eine Datenbank eingepflegt und durch die DEGA für die allgemeine, freie Nutzung zur Verfügung gestellt. Bereits nutzbare Produktionen umfassen etwa die Bereiche Klassik, Jazz/Funk oder Orgel. Daneben sind einfache Sprecheraufnahmen und synthetische Testsignale verfügbar.
-
VR-4 |
VR und 360° |
R4 |
2018-11-16 |
15:00 - 17:00
-
There is a need for precise and accurate audio spatialization in gaming and Virtual Reality applications. If the sounds of a virtual environment are localized exactly, the user will feel immersed in the environment. Certain software, Audio Middleware, works in cooperation with game engine software to facilitate the audio requirements for virtual environment and game developers. This paper describes the implementation of an enhanced Audio Middleware sound capability for Unity game engine developers. The capability leverages the functionality of a popular Audio Middleware software suite, FMOD, and a speaker-based spatialization system, ImmerGo. Additionally, a sample VR application that employs the capability has been developed. The application provides users with 3D sound control in real-time. Via the use of the Leap Motion controller and Oculus Rift Development Kit 2 Head-Mounted Display (HMD), users are able to select an audio source with a gesture, and then subsequently pan the audio around them in three-dimensional space.
-
VR and 360 are mainly headphone applications. Of course, binaural headphone virtualization, well known since decades, becomes important as never before. Fortunately, current binaural virtualization technologies offer a fantastic new experience far away from creepy low quality ‘surround simulations’ in the past. The presentation will show how to create content for NOKIA’s new 360 audio format OZO Audio and how to create head locked binaural music in common DAWs.
-
Binaural reproduction of 3D audio has become increasingly important due to the rise of virtual reality applications. For example, 3D audio plug-ins for game engines like Unity and Unreal provide HRTF filtering to place sounds anywhere in the virtual space. It was examined whether the feeling of immersion can be strengthened if background music is produced in 3D and which advantages and disadvantages this brings along compared to a normal stereo mix. In a listening test subjects were asked to compare and evaluate several options for implementing three-dimensional music. The results of the experiment will be presented in this lecture.
-
TB-4 |
Talk Back |
R1 |
2018-11-16 |
16:00 - 17:00
-
Der 26. März 2011 war der heimliche Startschuss. An diesem Tag wurden sowohl die älteste Orgel Wiens (Wöckherl-Orgel im Betchor der Franziskanerkirche) als auch die zu diesem Zeitpunkt neueste Orgel Wiens (Rieger-Orgel im Goldenen Saal des Wr. Musikvereins) neu geweiht. Seither hat sich Wien zu einer richtigen Orgel-City entwickelt.
Die Universität für Musik und darstellende Kunst hat 2012 zwei neue und 2018 eine historische Orgel erhalten, die Orgel der Universitätskirche St. Ursula feiert heuer ihr 50 jähriges Bestehen. In einigen Kirchen Wiens wurden neue Instrumente gebaut, in anderen historische aufwändig restauriert. Hören wir Aufnahmen (CD und Rundfunkmitschnitte), die seit diesem Tag entstanden sind, unter anderem von folgenden Instumenten: Wöckherl-Orgel im Betchor der Franziskanerkirche, Rieger-Orgel im Goldenen Saal des Wr. Musikvereins, Rohlf-Orgel in St. Nikolaus/Wien Inzersdorf, Späth-Orgel in der Jesuitenkirche, Mathis-Orgel in der Schottenkirche, Walcker-Orgel in der Votivkirche und Sieber-Orgel in der Michaelerkirche. Interpreten sind Olivier Latry, Luigi Ferdinando Tagliavini, Konstantin Reymaier, Roman Hauser, Zuzana Ferjencikova, Magdalena Hasibeder und Manuel Schuen, ...
-
AA-1 |
Audio in Asia: Leitfäden und Standards |
R2 |
2018-11-16 |
16:30 - 18:30
-
Dr. Zhang Yilong will introduce the process of recording an entire symphony orchestra in a large semi-anechoic chamber in China. The presentation includes the relevant background, the purpose of the endeavour, the process of the recording as well as a presentation of the results of related research.
Author: Dr. Zhang Yilong, Deputy Secretary-General of the Music Committee of CARE (China Association of Recording Engineers) and Master tutor from the Recording Department of the Communication University of China.
-
Together with a group of Chinese audio professionals we present and discuss the state of all things audio in China including education, studio construction, broadcasting and the recording business. Among the guests: Mr. Chen Chen, Deputy Director of the Audio Department of the Technical Production Center of CCTV and Secretary-General of the IFTT and CSMPTE and Dr. Zhang Yilong of CUC Beijing and Deputy Secretary-General of CARE.
-
SE-3 |
Offener Soundcheck |
R5 |
2018-11-16 |
17:00 - 18:00
Offener Soundcheck
Hören Sie zu beim Soundcheck der Sebastian-Müller-Band, die heute Abend während der VDT-Party ein Konzert gibt.
-
SST-10 |
Studio Szene Talk |
S&R |
2018-11-16 |
17:00 - 18:00
-
Mixing audio for immersive media on 2D Displays can be a frustrating job. With dearVR SPATIAL CONNECT Dear Reality founder Christian Sander presents a new workflow that enables an upcoming generation of VR mixing engineers to mix object based audio (Binaural) or scene based audio (Ambisonics) audio directly in VR without leaving the HMD. Starting with an overview of Spatial Audio objects from recording, editing, mixing, platforms and playback the session gives a good overview of upcoming workflows.
-
RD-1 |
Forschung & Entwicklung |
R3 |
2018-11-16 |
17:00 - 19:00
-
Anhand eines Hörversuchs – gem. einer erweiterten Methode nach ITU-R BS.1116 – zur subjektiven/perzeptiven Qualitätsbeurteilung verschiedener Lautheitsalgorithmen werden die Ergebnisse zweier verschiedener Teilnehmer-Gruppen (Panels) gegenübergestellt. Der Hörversuch wurde einerseits als Laborexperiment mit definierten Versuchsbedingungen wie Studioumgebung nebst hochwertigem Audio-Interface und Elektrostat-Kopfhörern und andererseits als Feldexperiment mit entsprechend variablen Abhörbedingungen und einer Browser-basierten Online-Version des Versuchs durchgeführt. Die Erweiterung des Laborexperiments erfolgte unter dem Gesichtspunkt einer Steigerung der Reichweite bzw. der Probandenanzahl. Die Probanden, bestehend aus hörerfahrenen Versuchspersonen, sollten hierbei verschiedene Stimuli, angepasst auf bestimmte vorgegebene Lautheitszielwerte, zu einem unbearbeiteten Referenzsignal unter Zuhilfenahme von ausgewählten Qualitäts-Merkmalen (Attributen) bewerten. Im Vordergrund steht hierbei die direkte Vergleichbarkeit der Ergebnisse aus diesen beiden Versuchsgruppen, um in Ergänzung Aussagen über Reliabilität (resp. Zuverlässigkeit) und ökologischer Validität (in puncto Verallgemeinerung) gewinnen zu können.
-
In this paper MEXLEaudio, a new system for prototyping of mainly digital audio systems is described. It is based on a Lab-in-a-Box tool which was developed for basic education in electrical engineering and electronics. The main strategies and basic concepts for MEXLEaudio are presented. MEXLEaudio is designed as a modular multichannel audio-system with up to 8 channels using standard digital audio interfaces (I²S, TDM). Up to now modules for high-resolution AD-conversion, microphone preamplifiers for electret capsules, inputs for PDM-coded microphone signals, audio DSPs, Class-D power amplifier, USB-to-TDM converter and TDM-to-USB converter are developed. The MEXLEaudio system is available as open source under the Creative Commons licence.
-
The idea behind the Earth Concert Hall is to create a globally distributed portal system for announcing and broadcasting live audiovisual events over the Internet: artists or their management will use the portal to announce concerts to be broadcast across the globe. They stream their live music, available to consumers in various quality levels at different financial conditions. The lowest level would be to offer banner advertising without paying for music, which implies an advertising effect for the Earth Concert Hall itself, that would promote its dissemination. By contrast, registered viewers consume high-resolution ad-free qualities by a billing model. Artists receive a share of revenue to be defined. For this system to operate across borders, well-established cooperation partners are needed to represent artists' rights in the respective countries. These old partners developed by the proliferation of mechanical recordings and have a reliable international distribution of dividend, for example when third party rights are affected. Authors and composers, too, should receive their share of the proceeds of the Earth Concert Hall performances due too existing network of cooperating traditional regional collecting societies worldwide. The high-performance infrastructure of global communication achieves a status that could enable the comprehensive implementation of the abovementioned solutions.
-
In 2009, the European Commission made a Decision on safety requirements to be met for personal music players acquired in the area. Limitations on sound exposure are detailed and compared to state of the art in clinical, post-mortem and animal research.
Current EU and IEC requirements are summarised and evaluated against a new standard, based on sound exposure estimation, under voting in member countries. It is described how WHO have monitored developments in Europe and are soon to also publish standards based on the same methodology.
Finally, it is discussed if prevention of hearing loss is a reasonable obligation to companies making business from placing transducers inside or around peoples' ears.
-
VR-5 |
VR und 360° |
R4 |
2018-11-16 |
17:30 - 18:30
-
Tom Parnell (BBC Radio and BBC Research & Development) presents recent binaural content from the BBC, including a case study and demos from this year's BBC Proms classical music festival. He also discusses the opportunities and challenges in deploying new spatial tools, transferring production knowledge to music balancers and sound designers, and distributing binaural content to different audiences.
-
AC-3 |
Akustik |
R1 |
2018-11-16 |
17:30 - 19:00
-
Um in Aufführungsstätten raumakustische Bedingungen bei der Aufführung von Musik zu untersuchen, werden in den letzten Jahren zunehmend virtuelle Orchester-Aufstellungen verwendet, insbesondere beispielsweise in der Auralisation von Hörbeispielen in der Planung von Konzertsälen. Weil die Signale des virtuellen Orchesters nach Möglichkeit keine Eigenschaften des Aufnahmeraums enthalten sollen um das Hör-Resultat nicht zu verfälschen, werden meist Aufnahmen aus reflexionsarmen Räumen verwendet. Dies bringt jedoch das Risiko mit sich, dass Instrumente unnatürlich klingen, denn Aufnahmen im reflexionsarmen Raum erfassen häufig nur eine Abstrahlrichtung eines Instruments, wogegen im realen Konzertsaal alle Abstrahlrichtungen zum Klang beitragen können.
In diesen Untersuchungen sollen deshalb unter reflexionsarmen Bedingungen erstellte Aufnahmen im Vergleich zu nah mikrofonierten Aufnahmen aus Konzertsälen oder Studios hinsichtlich ihrer Vor- und Nachteile und die Eignung bei der Wiedergabe als virtuelles Orchester verglichen werden. Für die Experimente wurden die am ETI / HfM Detmold vorhandenen WFS-Einrichtungen genutzt. Als Ausgangsmaterial wurden ein Live-Mitschnitt einer Mahler-Sinfonie und eine 'anechoic'-Aufnahme (Beethoven) verwendet. Bei beiden Aufnahmen wurde der WFS-Wiedergabe aller einzelnen Quellen zum Vergleich auch ein 3-kanaliger Mix (LCR) mit virtuellen Hauptmikrofonen (VMM-Mixer) gegenübergestellt. Alle Varianten wurden binaural aufgezeichnet für geplante Hörvergleiche und als Basis für eine Diskussion über die Eignung der verschiedenen Aufnahmequellen.
-
Room Acoustics is one of the most critical factors of a recording studio, as is spatialization for VR productions. For the VR showcase of the Hamburg-based vintage analogue studio Clouds Hill, our goal was to capture the acoustic properties of its diverse recording rooms as convincingly and honestly as possible. In order to achieve that, we had to find answers to the following key questions: 1. Recording: which microphone array delivers the most convincing room responses of the studios and what should we use it for – the recording of a signal (i. e. a musician playing) or the production of impulse responses? 2. Production and delivery formats: fixed mixes (channel-based or ambisonics) or just objects to be re-recorded by the audio engine in real-time (signals and impulse responses) – accuracy, versatility or control? 3. Reproduction: which audio engine sounds best for our needs?
I would like to give an insight into how we balanced the interdependencies of these questions, how the recording and post-production of the 3D audio contents was actually done, and present listening examples showing the transformation of sound from recording to delivery.
-
SE-4 |
VDT-Festabend / Konzert |
R5 |
2018-11-16 |
19:00 - 22:00
VDT-Festabend / Konzert
Kommen und feiern Sie mit uns die 30. Tonmeistertagung! Der VDT lädt zu Drinks und Finger-Food ein. Begleitet wird der Abend von der glamourösen Sebastian-Müller-Band.
-
3DL-1 |
3D Hörsession |
R1 |
2018-11-17 |
09:00 - 10:00
-
3D audio in terms of a geometric point of view is much more than surround + height or moving audio objects in the 3D space.
It is the consistent extension of dimensions: from mono (point) and stereo (line) to surround (area) to 3D (volume). The
result is a breathtaking spatiality as well as a naturalness of the sound of instruments, as can not be realized in stereo.
Lasse Nipkow present his long-term findings and results with 3D audio in the workshop. This is a listening session. A series
of impressive 3D audio recordings will be presented.
-
3DP-2 |
3D Production |
R5 |
2018-11-17 |
09:30 - 11:30
-
MPEG-H is still the TV broadcast standard in Korea. Recently also China decided to use MPEG-H as the standard broadcast audio format. Major end user device manufacturers like Samsung and LG implemented it. So it’s very likely that MPEG-H will be available soon on a lot of devices in the marked worldwide what will certainly increase the demand for MPEG-H content very soon. The presentation will show how to create, edit and export MPEG-H content for broadcast applications quick and easy in common production workflows with any DAW.
-
2017 hat das Team von Stephan Thyssen und Georg Burdicek als Testlauf die "Last Night of the Proms" aus dem Kuppelsaal in Hannover als Immersive-Audio Produktion aufgezeichnet.
2018 wurde nun das Konzert live als Immersive Audio Produktion in zahlreiche Atmos-fähige Kinos Niedersachsens live übertragen.
Wir geben eine Übersicht über den Produktionsworkflow, Mikrofonierung in Zusammenarbeit mit dem NDR, Live-Mischung, Monitoring sowie Decodierung und Wiedergabe vor Ort.
-
NA-3 |
Vernetzte Audio-Video-Technik |
R3 |
2018-11-17 |
09:30 - 11:30
-
IT Komponenten in der Signalkette sind kein Trend der wieder verschwindet.
Die Vorteile gegenüber antiquiert wirkender analoger oder digitaler 1:1 Direktverbindungen sind ein Grund dafür. So ist z.B. die physische Verbindung nicht mehr gleich der logischen Verbindung, einmal eingerichtet spielt der Anschlussort von Geräten keine Rolle mehr. Redundanzen können kostengünstig realisiert werden und benötigte Bandbreiten für den Mischbetrieb verschiedener Gewerke sind skalierbar. Ethernet Netzwerke unterliegen einem schnellen technologischen Fortschritt, sind hoch verfügbar und Planungskompetenzen international selbstverständlich. Als medienschaffender Anwender muss man die Grundzüge der Technologie beherrschen um eine sichere Inbetriebnahme und Fehlersuche zu gewährleisten. Häufig wird die Offenheit und Kompatibilität von IEEE Ethernet propagiert doch in der Praxis stößt diese heile Welt der Kompatibilität schnell an ihre Grenzen.
Grenzen die der Teilnehmer des Workshops ebenso kennenlernt wie funktionierende Lösungen für gemischte Produktionsnetzwerke zu verstehen.
Hierbei sollen verschiedene Gewerke über VLANs getrennt und über gemeinsame Backbone Leitungen transportiert werden. Zur Erhöhung der Bandbreite zwischen den verschiedenen Netzwerkpositionen werden Link Aggregation Gruppen eingerichtet und mittels Quality of Service unterschiedlich wichtige Daten priorisiert. Es werden typische Bandbreiten von Audio-, Licht- und Videosignalen in einer IP Welt diskutiert sowie ein Ausblick auf die sich ändernden Anforderungen mit SDVoE (Software Defined Video over IP) gegeben.
-
IP environments using AES67 compliant technologies are getting real, be it Dante, RAVENNA, Q-LAN or Livewire+. Equipment which was previously connected via simple cables is now using a reasonably sophisticated IP network to send audio/video from A to B. Therefore audio/video manufacturers are no longer able to give guarantees for working interconnections and need to delegate this responsibility to network administrators or even end users. Support calls for networking problems are easily getting inefficient due to the increased complexity of IP environment. It is therefore necessary to build up some level of common knowledge amongst users as to how to trace simple issues on a network.
This presentation gives some practical hints how to setup simple audio/video networks and how to trace problems using widely available tools. It is assumed that the audience already has an understanding of the requirements of AES67 based networks.
-
Since its publication in 2013, AES67 has received a wide support from virtually all AoIP device manufacturers. Although it outlines all compulsory protocols and mandates for a very narrow yet useful operating point with respect to PTP, QoS and payload formats, achieving smooth interoperability among AES67 devices from various manufactures still requires some deeper knowledge about underlying concepts as well as on specific constraints related to individual products or the AoIP family they belong to.
If you plan to deploy an AES67 network with devices adhering to different AoIP technologies, like RAVENNA, Dante or Livewire, this tutorial will provide some useful insight helping to avoid some common (and maybe uncommon) pitfall with respect to general network configuration, PTP deployment, multicast and QoS configuration. It will also briefly explain various methods of stream discovery and connection management.
-
OB-2 |
Objektbasierte Produktion |
R4 |
2018-11-17 |
09:30 - 11:30
-
Object-based audio offers advantages over channel-based approaches such as format agnostic reproduction to improve the listening experience. An audio scene comprises of a number of objects each consisting of audio content and additional information which is affixed in the shape of metadata. This metadata is interpreted by a renderer, which creates the audio signals, according to the target reproduction system.
In an artistic context, recent work focused more on the use of audio objects played back through loudspeaker systems, while the influence of an object-based approach for binaural reproduction has been understudied.
This paper shows aspects of an object-based production, while using the example of an immersive, binaural audio play. In an object-based context, reconsiderations of the production process for binaural reproduction is required. Usually, audio plays consist of different elements such as dialog, music and effects, which were typically produced in multichannel-based formats. The results show, that correlated multichannel signals are not feasible for binaural reproduction due to coloration, localization and externalization issues. Furthermore, technical aspects as well as creative challenges are discussed and the developed production workflow is presented.
-
The demand for personalised, interactive, scaleable and immersive audio is on the rise and pushes the fixed channel-based approach on its limits. Object-based audio makes it possible to use all these features effectively. In order to do that the individual tracks are not – as with channel-based audio – mixed together for a certain loudspeaker setup, but rather transmitted to the consumer as distinct audio-objects accompanied by metadata. On the consumer side the individual audio objects are then rendered for the desired playback system. Of course these additional possibilities can only be implemented with an increased complexity.
To preserve thereby the creative intent of the audio engineer involves new challenges. Only with open standards like the "Audio Definition Model" (ADM) and the "EBU ADM Renderer" (EAR) it can be ensured that even after a long time a production can be played back as the audio engineer intended. Whereas in some cases even open standards can leave room for interpretation, an open-source reference implementation can potentially resolve also the last ambiguities.
This talk gives an overview about the current open standards for the production of object-based audio, their spread on the market and presents open source projects, which can be already used today.
-
To date, object-based spatial audio has been subject to much research, and a few production tools have entered the market. The main difference to the channel-based audio paradigm is that object-based spatial audio enables engineers to create three-dimensional audio scenes regardless of any particular loudspeaker setup. To playback audio scenes, a separate rendering process calculates all loudspeaker signals in real time, based on the meta data of audio objects in a scene. While the authoring process of an audio scene can be easily connected to conventional audio recording and mixing processes, possibilities for mastering audio scenes are still very limited. The main limitation stems from the aspect that compared to channel-based mastering, no loudspeaker channels can be altered. However, instead of always altering audio objects individually, the meta data part of audio objects can be used to provide engineers with convenient tools for object-based spatial mastering as well. Beyond solely mastering the audio data of a scene, new tools can also alter the meta data of audio objects on a global level for meta data mastering. These new object-based spatial mastering techniques are presented.
-
Immersive, object audio based systems typically require the rendering of multiple audio tracks to multiple speakers. This rendering is processor intensive, and often is required to co-exist with Digital Audio Workstation (DAW) processing. A common solution is to dedicate a separate unit with a powerful processor to perform the rendering. This paper describes an alternative solution, the distribution of the rendering to the speakers, where each speaker contains rendering capability appropriate to its position in the system configuration. This capability is enabled by the incorporation of an XMOS processor and SHARC DSP into each speaker. A range of rendering algorithms have been implemented on the XMOS processor - Distance Based Amplitude Panning, Vector Based Amplitude Panning, Wave Field Synthesis, as well as Ambisonic decoding. CPU processing load tests are described, where the relative CPU load for centralized and distributed rendering is highlighted for each algorithm.
-
RD-2 |
Forschung & Entwicklung |
R2 |
2018-11-17 |
09:30 - 11:30
-
Wireless earphones require a tremendous degree of integration: In addition to the electroacoustic transducer at least the power supply and a radio module have to be accommodated, supplemented by several microphones for hands-free applications or for noise reduction, as well as position and bio sensors, memory and CPU. With increasing integration, the pressure on the individual components increases in terms of size, energy efficiency and costs. In the field of microphones, MEMS technology has enjoyed great popularity for almost 10 years, and due to their characteristics (size, cost, integration) MEMS microphones were able to almost completely supersede other microphone technologies within a few years and opened up new fields of application.
For MEMS speakers, a similar development is expected as for the MEMS microphones. However, the development of MEMS-based loudspeakers for earphones is much more challenging due to the large mechanical deflection required. In this presentation, an overview of MEMS actuator technologies will be given and the work of the Fraunhofer IPMS in Dresden on a novel actuator will be presented. The actuator works according to the electrostatic principle and uses a bimorph-like mechanism to transfer an electrostatic force acting perpendicular to a beam into a bending movement. Several actuators can be grouped and optimized for specific frequency ranges according to the application. The use of this technology is particularly suitable for in-ear applications such as Hearables, earphones, IEMs and hearing aids due to its small size and high efficiency.
-
Der überwiegende Teil der heute im Einsatz befindlichen Studiomonitore ist mit integrierten Endstufen ausgestattet. Viele Hersteller setzen dazu Class-D Endstufen ein, die eine Reihe von Vorzügen bei den Themen Wirkungsgrad, Gewicht und Kosten bieten. Wie ist es aber um deren Audioqualität bestellt? Dieser Beitrag vergleicht verschiedene Class-D Konzepte aus messtechnischer Sicht und im Hörtest. Als Referenz werden je eine klassische Class-AB und eine Class-H Endstufe mit in die Testreihe aufgenommen. Der Vergleich erfolgt neutral ohne Bezug zu den Herstellern.
-
Eine hohe Sprachverständlichkeit führt in offenen Büroumgebungen zu Problemen, da sie sich durch den Irrelevant Speech Effekt nachweislich negativ auf die kognitive Leistungsfähigkeit auswirkt. Raumakustische Maßnahmen allein können unter Beibehaltung einer offenen Bürostruktur keine ausreichenden Verbesserungen bringen. Ziel dieser am Fraunhofer IBP durchgeführten Probandenstudie war zu untersuchen, wie sich die Sprachverständlichkeit in Großraumbüros durch psychoakustische Maßnahmen reduzieren lässt. Mehrere Studien belegen einen Zusammenhang zwischen Sprachpegel und Hintergrundgeräusch sowie Sprachpegel und der aktiven, verstärkten Einspielung der eigenen Sprache über Kopfhörer als sogenannten Sidetone. Bei lauterem Hintergrundgeräusch steigt der Sprachpegel, bei Einspielung eines Sidetones sinkt dieser wieder. Die Interaktionen wurde in dieser Studie erstmalig im Bürokontext untersucht. Die Probanden lasen im Hörversuch Sätze des HSM-Satztests vor, Kopfhörertyp, Sidetone-Pegel und Hintergrundgeräusch wurden variiert. Die Untersuchungen zeigen, dass auch im Büro die Mitarbeiter ihren Sprachpegel an die akustischen Gegebenheiten anpassen, dieser in der höchsten Sidetone-Einstellung jedoch wieder um bis zu 3 dB reduziert werden kann. Das System kann Anwendung in Headsets für Großraumbüros finden und damit die große akustische Belastung für Mitarbeiter reduzieren, sowie zu deren Gesundheit beitragen.
-
In 2016 wurde eine neue subjektive Versuchsmethodik zur Beurteilung von neuartigen Audio-Systemen, die ”Multiple Stimulus Ideal Profile Method” (MS-IPM) vorgestellt. Mit dieser Methodik können mehrere Wiedergabesysteme direkt miteinander verglichen werden, auch wenn keine explizite Referenz vorhanden ist. Evaluiert werden die Systeme in Bezug auf ihre subjektive Gesamtqualität und die Qualität verschiedener zur Fragestellung passender Attribute. Zusätzlich gibt jeder Proband für jedes Attribut einen Idealwert an, der nach eigener Ansicht einem hypothetischen idealen System entspricht.
Da das IRT an der Standardisierung solcher Methoden beteiligt ist, wurden die Besonderheiten der MS-IPM genauer untersucht. Dafür wurde ein Hörversuch entworfen, in dem die Wiedergabequalität von Soundbars beurteilt werden sollte.
Soundbars erfreuen sich seit einigen Jahren im Home-Entertainmentbereich steigender Beliebtheit. Diese kompakten Wiedergabegeräte, die mehrere Lautsprecher in einem Gehäuse vereinen, werden häufig damit beworben, dem Konsumenten echten Surround-Sound bieten zu können. Es sollte daher untersucht werden, ob Soundbars bei der Heimanwendung eine brauchbare Alternative zu einem Surround-System darstellen und die Audiowiedergabequalität von TV-Geräten verbessern können.
In mehreren Hörversuchen wurde mithilfe der MS-IPM die Wiedergabequalität von acht Soundbars, einem TV-Gerät und einem diskreten Mehrkanalsystem verglichen. Die dabei gewonnenen Erkenntnisse über die untersuchten Soundbars und die neue Versuchsmethodik werden im Vortrag beide dargestellt.
-
TA-6 |
TMT Academy |
R1 |
2018-11-17 |
10:00 - 11:30
-
Planung und Bau eines der weltweit größten und bekanntesten Musiktonstudiokomplexes in Sydney, Australien. Der Tonstudiokomplex der legendären 301 Studios in Sydney wurde auf 1600m² (reine Studiofläche) neu errichtet. In dem Vortrag werden die Konzeptionierungsphase, die Planungsphase, die Bauphase und die Fertigstellungsphase vorgestellt. Ziel ist es, einen Einblick in die Entscheidungsfindung, die Entwicklung und in viele Details eines solchen Projektes zu geben. Die Themengebiete sind Raumakustik, Bauakustik, Schwingungstechnik und raumbildender Ausbau, sowie angrenzende Gewerke.
-
SST-11 |
Studio Szene Talk |
S&R |
2018-11-17 |
11:00 - 12:00
-
Profi-Schlagzeuger schwören auf den realisischen Sound Ihrer Instrumente. Viele Audio-Producer schwören auf den Sound und die Vorteile ihrer Software-Instrumente. Ich zeige in diesem Vortrag die verschiedenen Arbeitsweisen aus der Sicht des Tonmeisters und stelle praktische Beispiele vor: Aufnahmen mit verschiedenen Mikrofonierungen; Optimierung der DAW in der Vorbereitung; verschiedene Mischungsvarianten; Ersetzung und Doppelung durch Software-Triggerung; Einsatz und Vergleich von Softwareinstrumente.
-
PROD-9 |
Produktbezogener Beitrag |
R4 |
2018-11-17 |
11:30 - 12:00
-
The MPEG-H TV Audio System offers new features for the consumer such as advanced user interactivity, immersive sound and optimized reproduction across different classes of playback devices. All of these features strongly depend on additional information. Describing metadata that contain all information e.g. position in space, loudness or user interactivity ranges need to be generated during the production process.
After introducing the fundamentals of the MPEG-H TV Audio System, this presentation outlines the requirements and challenges for an immersive and interactive content creation workflow, focusing broadcast productions for live and offline applications. It is demonstrated, how new tools can be integrated into well-established production workflows and how they ensure full control of produced mixes in anticipation of the end user's experience. Results of immersive and interactive audio broadcast production trials using MPEG-H Audio are presented by examples of an international music competition, as well as major tennis and athletics events.
-
PROD-10 |
Produktbezogener Beitrag |
R5 |
2018-11-17 |
12:00 - 13:00
-
What is the d&b Soundscape and how will it change the thinking behind soundreinforcement. An entertaining and educating presentation about why a soundscape system will improve the perception of sound. The journey goes from established reproduction methods to an example of a complex production realized in soundscape utilizing En-Scene and En-Space.
-
RD-3 |
Forschung & Entwicklung |
R2 |
2018-11-17 |
12:30 - 13:30
-
Vorgestellt wird ein neues Verfahren zur verbesserten Wiedergabe tiefer Frequenzen bei Lautsprechersystemen. Geschlossene Systeme zeichnen sich gegenüber Bassreflexsystemen durch ein besseres Impulsverhalten aus. Demgegenüber steht eine tiefer liegende Grenzfrequenz des Reflexsystems bei gleichbleibendem Gehäusevolumen. Das neue Verfahren vereint die Vorzüge beider Systeme. Es ermöglicht eine tiefreichende Basswiedergabe bei verhältnismäßig geringem Gehäuse-Volumen und bietet zudem ein optimiertes Zeitverhalten.
-
Um eine binaurale Wiedergabe über Lautsprecher zu ermöglichen, wird konventionell das Verfahren der Cross Talk Cancellation verwendet. Bei dieser Methode wird der Hörer allerdings in seiner Bewegungsfreiheit beeinträchtigt, da bereits kleine Kopfbewegungen den Höreindruck erheblich verschlechtern, sofern kein Trackingsystem verwendet wird. Durch die verwendeten Lautsprecher ist zudem oftmals das Sichtfeld eingeschränkt. Das Projekt „Personal WFS“ – Wiedergabe binauraler Schallsignale durch ein Individuum-bezogenes Wellenfeldsynthese-System“ zeigt einen Lösungsansatz, um die Wiedergabe binauraler Signale über Lautsprecher mithilfe der Wellenfeldsynthese (WFS) zu verbessern. Anstatt eines Sweetspots wird mit Hilfe der WFS und einer geeigneten Lautsprecheranordnung eine „Sweetarea“ geschaffen, in welcher der Hörer mehr Bewegungsfreiheit besitzt und zudem sein Sichtfeld kaum beeinflusst wird. Der kompakte Aufbau hält die sogenannte Personal WFS außerdem mobil und kostengünstig.
Eine Demonstration des neuen Systems ist geplant.
-
TB-5 |
Talk Back |
R4 |
2018-11-17 |
12:30 - 13:30
-
"Das Duett" ist das offiziell erste Hörspiel in Dolby Atmos. Es entstand ursprünglich als studentisches Experiment und bietet eine neue Erfahrung mit Dolby Atmos im Kino. Die Geschichte wurde speziell für das Abhörformat Dolby Atmos entwickelt und auf die "experience" zugeschnitten. Volker Armbruster und Markus Rebholz geben detaillierte Einblicke in die Entwicklung und Produktion des Hörspiels und laden ein, selbst in die immersive Welt von "Das Duett" einzutauchen.
"Das Duett" ist: Alternativer Content fürs Kino, ein spannendes Forschungsfeld, ein Neuaufleben des Hörspiels.
-
TA-7 |
TMT Academy |
R1 |
2018-11-17 |
12:30 - 14:00
-
Der Vortrag gibt Einblicke in die Produktion der Musik der Sendung "Sing meinen Song". Es wird das technische Setup vorgestellt sowie ein Einblick in die Postproduktion gegeben. Es werden Mixingansätze besprochen, sowie Probleme und Lösungen auf Grund von Übersprechen aufgezeigt.
-
NA-4 |
Vernetzte Audio-Video-Technik |
R3 |
2018-11-17 |
12:30 - 15:00
-
The research project fast-music investigates the requirements of an infrastructure for 60 musicians of a conducted orchestra to do rehearsals via the public internet. Since a single server would not be able to handle the required amount of interleaved audio and video streams, process and distribute them again in a reasonable amount of time, a scalable cloud concept is more promising. The design of the realtime audio and video signal processing cloud, at the heart of a distributed live music session in the public internet, is operating on an Audio Video Bridging network segment. Such a realtime processing cloud requires a proper resource management for network resources. In this paper we present the concept for the processing cloud, evaluate on the resource management and discuss a troubleshooting strategy for the stream reservation in Audio Video Bridging networks.
-
MILAN is the name of a set of implementation choices for AVB/TSN that a group of Pro Audio manufacturers have agreed upon. It defines technical profiles for audio streams, media clock synchronization, and redundancy based on the existing AVB IEEE standards to ensure interoperability between devices from different manufacturers and allow for seamless failover. MILAN compliance will be certified by the Avnu Alliance.
The IEEE standards that make up AVB provide a way to move audio and video over Ethernet with synchronous delivery at all end points and low latency. The standards support a number of options, which created a challenge for users as not all makers supported the same options. For a long time there was no single standard audio format used for AVB networks. This led to problems when distributing signals between devices from different manufacturers. There was also no common agreement for redundant connections, all of which put a burden on the end users. MILAN addresses that problem with a solution driven by end users.
The presentation will give a short overview of MILAN followed by a hands-on demonstration of how to setup an MILAN AVB network for a typical live situation.
-
Transporting realtime audio and media data over ethernet and IP networks is quite common nowadays. Consequently it's a hot topic when planning a new system, for small recording studios as well as for large live venues. On the other hand, not all users are confident using IT-based systems when they are used to rely on point-to-point technologies for realtime data.
In this session we will bring experts in various fields - ranging from underlaying infrastructure to open standard device control - together on one stage, so you can unload all the questions you have.
-
SST-12 |
Studio Szene Talk |
S&R |
2018-11-17 |
13:00 - 14:00
-
Das anbrechende Zeitalter selbstlernender Maschinen reflektiert sich auch in der Software RX 7 von iZotope. Neue Restaurationsprozesse, die mit Hilfe selbstlernender neuraler Netzwerke entwickelt werden, können Dialogstimmen vollständig erkennen und von beliebigen Geräuschen separieren. Mit RX 7 kann mit Hilfe dieser Technologie nun auch durch eine Stimme hervorgerufener Nachhall einfach und effektiv reduziert werden. Das RX Modul ‚Music Rebalance‘ nutzt diese Source Separation Technologie um innerhalb einer fertigen Musikmischung mit vier Pegelstellern nachträglichen Einfluss auf Stimme, Bass, Schlagwerk und alle verbleibenden Elemente zu nehmen. In diesem Vortrag wird der iZotope Produktspezialist Jürgen Wirtz die Technologien und weitere Möglichkeiten der Audiobearbeitung in RX 7 vorstellen und gleichzeitig Anhand von Praxisbeispielen verdeutlichen.
-
BI-1 |
Business-Themen |
R2 |
2018-11-17 |
13:30 - 14:30
-
In diesem Tutorial wird erläutert, wie Entspannung, Empathie und die mentale Kraft wesentliche Veränderungen in Ihnen, Ihrem Berufsalltag und Ihrer Umwelt erzeugen können. Es wird die Beziehung von Angst und emotionalen Verletzungen erläutert und auf die emotionalen Verletzungen im speziellen eingegangen. Zudem werden grundsätzliche Mechanismen zur Selbstreflektion aufgeführt.