In diesem Beitrag geht es um Tatsachen, Ansichten und Vorurteile zu alten und neuen Aufnahmetechniken. Die Audioqualität ist kein Kriterium mehr, mit der man analoge oder digitale Aufnahmen beurteilen könnte. Eine Aufnahme ist heutzutage nicht besser oder schlechter, weil sie analog oder digital produziert wurde. Am Ergebnis ist das nicht hörbar.
Inhalt dieses Beitrags
Die Analog-Digital-Diskussion ist schon so alt wie die ersten digitalen Aufnahmetechniken. Trotzdem möchte ich auch hier noch einmal darüber nachdenken und das Thema mit dem aktuellen Stand der Technik und mit meiner über 30-jährigen Erfahrung persönlich bewerten. Anlass dazu gibt mir die unüberschaubare Zahl von Software-Emulationen analoger Klangbearbeitungsgeräte und Analog-Synthesizern, die für die Hersteller von Musikproduktionssoftware eine großes Geschäft sind.
Gegenstand meiner Betrachtung zu analog oder digital produzieren sind vor allem vormals analoge Prozesse, die nun in der digitalen Domäne substituiert werden (können). Hier erhitzen sich die Gemüter und es ist ein Kampf zweier Welten, geprägt durch unterschiedliche Musiker-Generationen und ihre Gewohnheiten.
Wie klingt analog oder digital?
Die Beschreibungen der Klangunterschiede zwischen einer digital verarbeiteten und aufgenommenen Aufnahme und einer vollständig analogen Signalverarbeitung und Tonaufzeichnung stammen aus den Anfängen der kommerziell verbreiteten digitalen Aufnahmeverfahren (PCM) seit den 70er Jahren. Bis mindestens in den 80er Jahren war die digitale Aufnahmetechnik (ADC) der analogen deutlich unterlegen, so dass digitale Aufnahmen objektiv deutlich schlechter klangen.
Damals wurden Digitalaufnahmen als harsch, hart und rau beschrieben. Sie hatten weniger Tiefenstaffelung, eine geringere Lautheit und eine engere Stereobreite. Auch mit der heutigen, weit fortgeschrittenen Digitaltechnik glauben das noch einige.
Früher waren digitale Aufnahmen schlechter als analoge
1971 war Denon die erste Firma, die kommerzielle Digitalaufnahmen im PCM Verfahren produzierte. Als Aufnahmemedium dienten Schallplatten und später digitale Videobänder (VTR). 1981 stellte Sony/Phillipps auf der Funkausstellung in Berlin die erste Audio Compact Disc vor.
Analog-Digital-Converter (ADC) wandeln das elektrische Tonsignal in zwei Kenngrößen um: die Abtastrate (Sampling Rate) und Wortbreite (Bittiefe). Mit diesen Kennzahlen lässt sich die Präzision und infolgedessen die Klangqualität der Aufzeichnung neutral beschreiben. Das Format war 32kHz/13Bit. Durch das Abtasttheorem von Nyquist, entspricht der wiedergegebene Frequenzumfang der halben Abtastrate. 32kHz repräsentieren also ein Frequenzspektrum bis zu 16 kHz.
Durch diesen verminderten Dynamik- und Frequenzumfang und weitere technische Unzulänglichkeiten (z. B. Aliasing), konnte die Digitaltechnik den Umfang des menschlichen Gehörs noch nicht ausnutzen. Im Gegensatz dazu war die analoge Audiotechnik auf dem Höhepunkt der technischen Entwicklung angelangt. Die Abbildung des Klangs durch Frequenz, Dynamik und Phasenlage war der Digitaltechnik weit überlegen. Das bewiesen die technischen Daten und das konnte man hören.
Schöner Klang durch analoge Fehler
Es gibt aber noch einen andern Grund, warum analoge Aufnahmen angenehmer klangen: Der Grund sind die technischen Unzulänglichkeiten der Analogtechnik. Also das Gegenteil von perfekter Abbildung. Analoge Bauteile haben Verzerrungen, Übersprechen von Frequenzen, Rauschen und sind nicht immer exakt phasentreu. Verzerrungen fügen dem Signal zusätzliche Obertönen hinzu, die ein ganzzahliges Vielfaches des Grundtons sind. Phasendifferenzen führen zu Frequenzanhebungen und Frequenzabsenkungen und können das Stereobild beeinflussen. Sättigungseffekte entstehen durch das Abrunden von Signalspitzen (Transienten). Sie machen das Klangbild weicher und voller.
An diese Verschönerung des Klangs durch die Manipulation analoger Technik hat sich das menschliche Ohr im Laufe der Zeit gewöhnt. Erst als man den Vergleich zu digitalen Aufnahmen hatte, wurde man sich bewusst, wie wichtig diese „schönen Fehler“ der Analogtechnik für das Hörempfinden von populärer Musik sind.
Das Ziel der Entwicklung analoger Aufnahme- und Signalverarbeitungsgeräte war es natürlich, Verzerrungen und Rauschen immer weiter zu vermindern. Klangneutral, ohne Verzerrung, phasenstarr, weniger Rauschen und mehr Dynamik wurde angestrebt. Also das, was die Digitaltechnik heute bietet. Keineswegs war es das Ziel der Entwickler, Verzerrung und Sättigung zu produzieren und das Klangbild künstlich „wärmer“ klingen zu lassen, etwa durch Vakuum Röhren, diskrete Schaltungen, Übertrager, Tonbandmaschinen und das Pressen auf Vinyl.
Klingen moderne digitale Aufnahmen natürlicher?
Mit der aktuellen Digitaltechnik ist es möglich, Töne in Frequenz und Dynamik exakt so aufzunehmen, wie sie in der Natur vorkommen. Es wird kein physikalischer Klang-Bestandteil im hörbaren Bereich durch die Aufzeichnung verändert. Für populäre Musik mit ihrer sehr geringen Dynamik (Verhältnis von leisen zu lauten Signalen) genügt schon das 1982 eingeführte und weltweit verbreitete Consumer Audioformat der Compact Disc von Sony und Phillips. Der Standard wird Red Book Standard genannt und ermöglicht Aufnahmen in 44,1-kHz und 16-Bit, um damit alle Nuancen unverfälscht darzustellen, sofern sie in der Aufnahme vorhanden sind.
Die Website Loudness-War zeigt, wie wenig Dynamik Aufnahmen der Popmusik nutzen. Eine geringe Zahl besitzen eine Dynamik von 12 dB. Durchschnittlich sind es etwa 8 dB maximale Dynamik. Zum Vergleich: der Redbook-Standard, das „alte“ CD-Format bietet rechnerisch 96 dB Dynamik. Frequenzen werden theoretisch bis 22,05 KHz übertragen. Damit wird der Umfang des menschlichen Hörvermögens voll ausgeschöpft.
Die Grenzen des menschlichen Gehörs
Das aktuell hochwertigste digitale Audioformat, das unkomprimierten Flac-Format für das Streaming, erreicht 24-Bit/48-kHz. Das sind 144 dB Dynamik. Also mehr als das menschliche Ohr mit maximal 130 dB überhaupt wahrnehmen kann. Genauso bei der Tonhöhe: Töne bis zu 24 kHz werden mit der Samplerate von 48-KHz übertragen. Der Mensch kann aber nur Frequenzen bis maximal 18 kHz wahrnehmen und sehr hohe Töne sowieso nur ab einem bestimmten Schalldruck. Verdeckungseffekte sind dabei noch nicht berücksichtigt. Das heißt, selbst wenn diese hohen Frequenzen im Audio-Analyzer sichtbar sind, werden sie leicht von tieferen Frequenzen mit mehr Energie überdeckt.
Natürlich gibt es in der Natur Schall jenseits dieser Hörgrenze – z. B. die ganzzahligen Obertöne von Instrumenten, diese können wir aber nicht hören und wahrscheinlich auch nicht wahrnehmen. Jedenfalls gibt es darüber keine wissenschaftlichen Erkenntnisse.
Zusammenfassend kann man sagen, dass schon das Aufnahmeformat einer Audio-CD im Redbook-Standard das komplette Hörspektrum ohne hörbare Einbußen widergeben kann. Selbst günstige Analog-Digitalwandler in der Massenproduktion ermöglichen heute Aufnahmen in 24-Bit/96-kHz. Das heißt, es können Frequenzen bis 48 kHz! aufgenommen werden.
Frequenzen jenseits der Hörgrenze
Hochwertige Analogtechnik war schon lange vor der Digitaltechnik in der Lage, Frequenzen bis 100 kHz messbar wiederzugeben, aber nicht aufzunehmen. Die wohl beste und in allen Mastering-Studios der Welt benutze Bandmaschine, Studer A820 von 1982, nahm Frequenzen theoretisch von 30 Hz bis 20 kHz +/- 2dB auf (Datenblatt Studer). Von diesen Master-Tonbändern wurden dann die Schallplatten gepresst.
Auch wenn analoge Schaltungen Frequenzen jenseits von weit über 20 kHz verarbeiten konnten, kommerziell vertriebenen Schallplatten übertrugen nur Frequenzen von etwa 40 Hz bis 12,5 kHz über einem maximalen Dynamikbereich von ca. 40 dB. Das hatte mechanische Gründe. Die von Plattenliebhabern vielgelobte Wärme ist also nichts anderes als eine Reduzierung des Frequenz- und Dynamikumfangs des Originalklangs und eine Anreicherung mit Obertönen, die aus Sättigungen und Verzerrungen der analogen Bauteile stammen. Ebenso wurden Stereoinformationen unter 500 Hz entfernt/reduziert, um das Springen der Nadel durch Phasenmodulation zu verhindern. Das ist also die Essenz des analogen Klangs mit dem Nachkriegsgenerationen aufwuchsen und für den sich Analog-Liebhaber heute noch begeistern.
Diese Klangästhetik kann man heute in der digitalen Domäne problemlos nachempfinden. Alle Tools sind vorhanden, es liegt nur am Vermögen des Produzenten(und seinen Ohren), das umsetzen zu können, wenn es analog klingen soll.
Was bringen 48 kHz wenn ein Mensch nur bis ca. 18 kHz hören kann?
Das Problem ist die Grenzfrequenz des Nyquist Theorems. Das ist z. B. bei einer CD die halbe Abtastrate von 22,05 kHz. Digital/Analog-Wandler verhindern mit einem speziellen, sehr steilflankigen Filter an der Grenzfrequenz auftretende Störgerausche und unharmonische Frequenz-Spiegelungen (Aliasing) an der Nyquist-Frequenz durch Obertöne und Geräusche jenseits des Hörspektrums, die in das hörbare Frequenzspektrum hineinreflektieren. Wird die Grenzfrequenz weiter in den unhörbaren Bereich verschoben, benötigt man keine Korrekturfilter am Ende des hörbaren Frequenzspektrums, um digitale Artefakte und Störgeräusche zu unterdrücken. Diese tummeln sich ja im Bereich jenseits des menschlichen Hörvermögens. Dadurch ist der Klang weicher und natürlicher. Das gilt vor allem für Musikrichtungen mit akustischen Instrumenten.
„Hey Alter! Was geht ab über 20 kHz?“
Warum kling der gleiche Ton mit der gleichen Frequenz nach einer Trompete und nicht nach einer Geige? Das hat fast ausschließlich mit den Obertönen zu tun. Die Obertöne, die ein ganzzahliges Vielfaches des Grundtuns sind, bestimmen den Charakter des Instruments. Beschneidet man den Ton einer Trompete aller Obertöne und auch noch die Attack-Phase der Hüllkuve, dann nähert sich dieser einem Sinuston an. Genauso bei einem Geigenton oder einem Saxophonton. Ein Sinuston ist der reinste Ton, ohne Obertöne. Er kommt in der Natur nicht vor und kann nur künstlich erzeugt werden.
Die Obertöne eines akustischen Instruments erklingen bis weit über die Hörgrenze. Genau das gibt Anlass für Diskussionen, ob Schallereignisse über der Hörgrenze vielleicht doch den Klang unterhalb der Hörgrenze beeinflussen. Nur weil wir jenseits von z. B. 16 kHz Einzeltöne nicht mehr hören können, gibt es sie trotzdem massenweise und diese modulieren sich „da oben“ auch noch gegenseitig. Vor allem, wenn mehrere akustische Instrumente zusammen spielen.
Macht es einen Klangunterschied, wenn wir Schallereignisse jenseits der Hörgrenze weglassen? In wieweit verändert sich dadurch der hörbare Klang? Ich glaube, das muss jeder für sich beantworten. Für die meisten Menschen wird das keine Relevanz haben.
Bei der Produktion von EDM, Hip-Hop, Trance, Techno, Rap und allen Stilen, die ausschließlich mit elektronischen Instrumenten produziert werden, spielt ein erweitertes Frequenzspektrum jedenfalls keine Rolle. Auch bei Rock, Metal und Musikstilen, die mit elektrischen Instrumenten und akustischem Schlagzeug eingespielt werden, ist ein erweitertes Frequenz- und Dynamikspektrum sinnlos. Selbst wenn das akustische Schlagzeug Obertöne über dem hörbaren Frequenzspektrum produziert, können es die meisten Mikrofone nicht aufnehmen. Stark klangmanipulierende Produktionstechniken und Verdeckungseffekte unterdrücken zudem die leisen und energiearmen hohen Frequenzen und Obertöne. Allerdings spielen harmonische Verzerrungen in der Pop- und Rockmusik eine wichtige Rolle. Besonders bei Verzerrungen von analogen Bauteilen entstehen viele der gewünschten Obertöne, aber leider auch der ungewünschten, nichtproportionalen Obertöne. Diese entstehen jenseits der Grenzfrequenz und reflektieren in den hörbaren Bereich: das Aliasing. In der elektrischen oder elektronischen Musik geht es darum, diese Aliasing-Effekte durch eine hohe Samplingrate oder durch Upsampling im Produktionsprozess zu vermeiden, so dass der hörbare Frequenzbereich bis maximal 20 kHz im Tonträger oder Distributionsmedium „sauber“ bleibt.
„CD-Qualität“ reicht zum Hören. Zum Produzieren aber nicht.
Für das Produzieren und Manipulieren des Klangs ist eine eine hohe Samplingrate (96 kHz und höher) in der Digital Audio Workstation (DAW) oder ein mehrfaches Oversampling bei Plugins sinnvoll, genauso wie eine höhere Bit-Rate von 32-Bit Floating-Point. Warum ist das so? Weil in der Klangmanipulation durch Kompressoren, Limiter, Equalizer, Clipper und Verzerrer viele gewollte und ungewollte Verzerrungen, Obertöne und hohe Lautstärkespitzen entstehen können. Die Obertöne im unhörbaren Bereich reflektieren an der Nyquist-Frequenz als unharmonische Geräusche zurück in den hörbaren Bereich. Das klingt hart, unnatürlich und ganz und gar nicht „analog“. Verlegt man die Sampling Rate (Nyquist Frequenz) also weit in den unhörbaren Bereich, finden auch die unharmonischen Reflektionen an der Grenzfrequenz im unhörbaren Spektrum statt. Das klingt natürlicher.
Den analogen Klang hochwertiger diskret aufgebauter Analogtechnik muss man sich in der digitalen Domäne mit Plugins erst erarbeiten. Das Nachempfinden des analogen Klangs hochwertiger Geräte geht mittlerweile sehr gut in der digitalen Domäne. Dazu muss man aber die richtigen Plugins kennen und wissen, was den analogen Klang ausmacht.
Analoge Ästhetik im digitalen Raum
Auch die Klangerzeugung und die Klangbearbeitung analoger, nichtlinearer Prozesse ist heute in der rein digitalen Ebene in einer Authentizität möglich, die sich fast nicht vom Original unterscheidet. Das „fast“ bezieht sich auf analytische Klangvergleiche außerhalb der Musikmischung. Im dichten Musik-Mix wird jeder Klang eines Instruments fast immer deutlich mit Equalizern und Kompressoren bearbeitet, um für jedes Instrument Platz zu schaffen. Dadurch werden Klangunterschiede vom analogen Original zu seiner digitaler Emulation unhörbar.
Die analoge Klangästhetik ist bis heute in der Musikproduktion ein so starkes Ideal mit hoher Nachfrage, dass sich neue Entwicklungen von Plugins bis jetzt zum größten Teil mit der Nachahmung analoger Prozesse beschäftigen. Und da ist kein Ende in Sicht. Derart viele Entwicklungsressourcen und ein starker Wettbewerb haben natürlich die Qualität enorm gesteigert.
Deswegen ist es heute möglich, für einen Bruchteil der früheren Investition in Hardware die gleiche Klangqualität der Hardware-Originale zu bekommen. Darüber hinaus sind mit innovativen Plugin-Entwicklungen Klangbearbeitungen möglich, die die Möglichkeiten analoger Hardware in Flexibilität, Präzision und Kreativität weit übersteigen.
Was ist denn jetzt besser – analog oder digital?
Wenn – wie hergeleitet – die Qualität kein Thema mehr ist und digital wie analog klingen kann, dann müssen wir andere Kriterien zur Beurteilung heranziehen. Diese sind:
- Gewohnheit und Workflow
- Spaß bei der Arbeit
- Budget und Ökonomie
Gewohnheit und Workflow
Wer mit Hardware groß geworden ist, viel Geld in seine Geräte investiert hat und diese heute noch den Qualitätsansprüchen genügen, der wird weiter analog Musik produzieren. Schließlich behält analoge Markentechnik ihren Wert für ein Leben lang – im Gegensatz zu Software. Der Workflow ist bei analoger Hardware viel intuitiver. Alles ist haptischer und macht dadurch mehr Spaß. Aber analoge Geräte waren nicht nur in der Anschaffung viel teurer als Software, sie sind es auch in der Wartung, der Pflege und im Unterhalt. Und nur weil man mit teuren analogen Geräten produziert, bekommt man deswegen nicht mehr Geld für seinen Mix oder seine Produktion. Wer viel Hardware hat, sich diese noch leisten kann, der kann auf die digitale Ebene nicht verzichten. Bestenfalls nutzt er beides. Und das ist die gängige Praxis.
Spaß bei der Arbeit
Analog produzieren heißt mit allen Sinnen zu arbeiten. Wer die Arbeit mit Hardware und Software kennt, der weiß, wie viel mehr Spaß es macht, an echten Reglern zu drehen und Fader zu schieben. Natürlich macht auch Software Spaß, z. B. wenn sie einem „den Arsch“ gerettet hat oder Stunden an Arbeit erspart. Hier ein Beispiel:
Du hast einen Gitarrist in deinem Studio. Er spielt einen Song ein. Nach zwei Stunden Aufnahmen verlässt er das Studio. Am anderen Tag – mit „frischen Ohren“ – stellst du fest, dass die Spuren alle etwas verstimmt klingen. Die Gitarre war nicht sauber gestimmt. Und jetzt?! Kein Problem. Es gibt ja die Software Melodyne. Das Plugin eingeladen, die Gitarrenspuren in Melodyne analysiert und dann einen „Knopf“ drücken. Wow – alle 6 Seiten einer jeden Gitarrenspur sind plötzlich perfekt gestimmt. Das ist das Wunder von Software!
Wenn Kreativität das Wichtigste ist, dann ist Spaß bei der Arbeit das Zweitwichtigste. Es bleibt also jedem selbst überlassen, wie er das Ziel erreicht. Das Budget für Technik spielt jedenfalls kaum noch eine Rolle.
Budget und Ökonomie
Hier gewinnt die Software ganz klar. Sie ist schneller, Ergebnisse sind perfekt reproduzierbar, sie ist flexibler und sie ist günstiger. Deswegen arbeiten Postproduction-Studios alle nur noch mit Software.
Ich wünsche dir viel Spaß beim Produzieren. Mach’s auf deine Art. Alles ist möglich. Auch mit kleinen Budgets. Es hängt nur von dir ab.
2 Antworten zu “Analog oder digital produzieren – was ist besser?”
Das sehe ich auch so. Sehr informativ. Habe es mit großem Interesse gelesen.