<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>sound-design Archive &#8211; SystMus</title>
	<atom:link href="https://systmus.blogs.uni-hamburg.de/tag/sound-design/feed/" rel="self" type="application/rss+xml" />
	<link>https://systmus.blogs.uni-hamburg.de/tag/sound-design/</link>
	<description>Online-Magazin des Instituts für Systematische Musikwissenschaft</description>
	<lastBuildDate>Fri, 09 Jan 2026 21:03:14 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2019/04/logoImg-150x150.jpg</url>
	<title>sound-design Archive &#8211; SystMus</title>
	<link>https://systmus.blogs.uni-hamburg.de/tag/sound-design/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Python Audio — Datei erhalten</title>
		<link>https://systmus.blogs.uni-hamburg.de/python-audio-datei-erhalten/</link>
		
		<dc:creator><![CDATA[Matthis Nachtmann]]></dc:creator>
		<pubDate>Wed, 21 Jan 2026 07:00:37 +0000</pubDate>
				<category><![CDATA[Tutorials: Musikwissenschaft]]></category>
		<category><![CDATA[Akustik]]></category>
		<category><![CDATA[audio]]></category>
		<category><![CDATA[musikpsychologie]]></category>
		<category><![CDATA[signalverarbeitung]]></category>
		<category><![CDATA[sound-design]]></category>
		<guid isPermaLink="false">https://systmus.blogs.uni-hamburg.de/?p=5969</guid>

					<description><![CDATA[<p>Das Speichern und Abspielen von Arrays als Audiodateien in Python kann für Musikwissenschaftler&#8217;innen äußerst wertvoll sein. Neben der Sound-Synthese spielt auch die Weiterverarbeitung in anderen Programmen eine wichtige Rolle in der Forschung. Auch als Sound-Designer ist der Blick über den... <a class="more-link" href="https://systmus.blogs.uni-hamburg.de/python-audio-datei-erhalten/">Weiterlesen &#8594;</a></p>
<p>Der Beitrag <a href="https://systmus.blogs.uni-hamburg.de/python-audio-datei-erhalten/">Python Audio — Datei erhalten</a> erschien zuerst auf <a href="https://systmus.blogs.uni-hamburg.de">SystMus</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Das Speichern und Abspielen von Arrays als Audiodateien in Python kann für Musikwissenschaftler&#8217;innen äußerst wertvoll sein. Neben der Sound-Synthese spielt auch die Weiterverarbeitung in anderen Programmen eine wichtige Rolle in der Forschung. Auch als Sound-Designer ist der Blick über den Tellerrand der klassischen Programme eine gute Übung für die Kreativität. Lernen Sie hier, wie Sie Ihre Kreationen oder Forschungsprojekte als WAV-Datei speichern können.</p>
<h2 id="was-ist-eine-wav-datei">Was ist eine WAV-Datei</h2>
<p>Die WAV-Datei, auch Wave oder Wave-Datei genannt, ist ein Audio-Dateiformat, welche bis zu 4 GB groß sein kann. Während MP3-Dateien verlustbehaftet komprimiert sind, kann ein WAV.Kontainer unkomprimierte PCM-Rohdaten enthalten.</p>
<div id="attachment_7131" style="width: 310px" class="wp-caption aligncenter"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-7131" class="size-medium wp-image-7131" src="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/02/wave-1951973_1280-300x169.jpg" alt="Drei übereinander geschichtete Wellen. Auf englisch „waves“. Sie können mit Python Audio Dateien im WAV-Format erstellen." width="300" height="169" srcset="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/02/wave-1951973_1280-300x169.jpg 300w, https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/02/wave-1951973_1280-1024x577.jpg 1024w, https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/02/wave-1951973_1280-768x432.jpg 768w, https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/02/wave-1951973_1280-945x532.jpg 945w, https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/02/wave-1951973_1280-600x338.jpg 600w, https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/02/wave-1951973_1280.jpg 1188w" sizes="(max-width: 300px) 100vw, 300px" /><p id="caption-attachment-7131" class="wp-caption-text">Der Name der WAV-Datei ist vom englischen Begriff „wave“ abgeleitet und bedeutet „Welle“. Sie können mit Python Audio Dateien im WAV-Format erstellen. Quelle: <a href="https://pixabay.com" target="_blank" rel="noopener">Pixabay</a></p></div>
<h2>Python Audio Datei erhalten (3 Methoden)</h2>
<p>Drei der praktischsten Methoden um aus einem Array eine WAV-Datei zu erstellen sind:</p>
<ul>
<li><strong>Scipy</strong> ist für den wissenschaftlichen Gebrauch konzipiert. Die Bibliothek glänzt durch ihre Einfachheit und Genauigkeit.</li>
<li>Das <code class="language-python">wave</code>Modul ist bereits in Python enthalten und benötigt keine zusätzlichen Bibliotheken.</li>
<li><strong>Soundfile </strong>ist ebenfalls schnell, einfach und vielseitig.</li>
</ul>
<h2>Python Audio — Sinus erstellen</h2>
<p>Um eine WAV-Datei zu erhalten, benötigen Sie zunächst ein NumPy-Array. In diesem sind mehrdimensional Daten gespeichert. Die Daten in einem Array lassen sich als Graph darstellen oder als Audio abspielen. Ein Ton kann entstehen, wenn die Daten sich in gleichmäßigen Abständen wiederholen. Das nennt man Periodizität. Nicht-periodische Daten können auch als Audio abgespielt werden, klingen für das menschliche Ohr allerdings wie Rauschen.</p>
<pre><code class="language-python">import numpy as np 

samplerate = 44100

def signal(f=440, s=1, A=1, fileformat=np.int16):
    t = np.linspace(0, s, int(s*samplerate), endpoint=False) 
    amplitude = (np.iinfo(fileformat).max)*A
    sine = amplitude * np.sin(2*np.pi*f*t)
    return sine.astype(fileformat)
</code></pre>
<p>Dieser Quelltext definiert die Funktion <code>signal()</code>. Diese können Sie mit beliebigen Werten aufrufen. Die Funktion gibt ein Array mit den Werten eines Sinus zurück. Die wichtigsten Werte sind:</p>
<ul>
<li><code>f</code> die Frequenz und somit Tonhöhe des Sinus.</li>
<li><code>s</code> die Länge des Sinus in Sekunden.</li>
<li><code>A</code> die Amplitude, sie beeinflusst wie die Lautstärke des Signals vom Computer gelesen wird. <code>A=1</code> ist in diesem Fall der höchstmögliche Wert des Dateiformates und <code>A=0</code> wäre Stille.</li>
<li><code>fileformat</code> die Art der Enkodierung beziehungsweise die Bit-Tiefe. Geben Sie hier <code>np.int16</code> für 16-Bit PCM, <code>np.int32</code> für 32-Bit PCM oder <code>np.uint8</code> für unsignierte 8-Bit PCM Enkodierung an.</li>
</ul>
<p>In einem eigenen Artikel erklären wir ausführlich, wie Sie in <a href="https://systmus.blogs.uni-hamburg.de/python-sinus-sinuskurve-plotten-mit-numpy-und-matplotlib/" target="_blank" rel="noopener">Python einen Sinus plotten und abspielen</a>.</p>
<h2 id="python-audio--datei-erhalten-mit-scipy">Python Audio — Datei erhalten mit SciSciPy</h2>
<p>SciPy ist eine Python Bibliothek. Sie ist für die Anwendung im wissenschaftlichen Bereich gedacht und hat viele nützliche Funktionen. Eine davon ist die <code>write</code> Funktion aus dem Modul <code>scipy.io.wavfile()</code>. Mit diesem Modul können Sie Eingangsdaten erstellen und Ausgangsdaten auslesen.</p>
<pre><code class="language-python">from scipy.io.wavfile import write
sine=signal(f=440, s=1, A=0.5, fileformat=np.int16)
write('python_audio.wav', samplerate, sine.astype(np.int16))
</code></pre>
<p>Importieren Sie zunächst das Modul mit <code>from scipy.io.wavfile import write</code>.<br />
Rufen Sie dann <code>sine=signal(f=440, s=1, A=0.5)</code> mit den gewünschten Werten auf. Geben Sie im Anschluss einen Namen für die Datei ein. Beachten Sie, den Namen in Anführungszeichen zu setzen und mit <code>.wav</code> zu beenden. Fügen Sie die Variable für die <code>samplerate</code> hinzu und geben Sie mit <code>sine.astype(np.int16)</code> die Enkodierungsform an — in diesem Fall 16-bit PCM.<br />
Die Funktion sollte dann eine Datei mit dem gewählten Namen im gleichen Ordner abspeichern, in dem das Programm gelaufen ist.</p>
<h2 id="python-audio--wave-modul">Python Audio — <code class="language-python">wave</code>Modul</h2>
<p>Sollten Sie keine Lust haben weitere Bibliotheken zu installieren ist hier ein weiterer Weg in Python eine Audio-Datei zu erhalten: Das in Python eingebaute <code>wave</code>-Modul.</p>
<pre><code class="language-python">import wave 

sine=signal(f=440, s=1, A=0.5, fileformat=np.int16)

filename = 'python_audio.wav' 

with wave.open(filename, 'wb') as wf:
    wf.setnchannels(1)  
    wf.setsampwidth(2) 
    wf.setframerate(samplerate)
    wf.writeframes(sine.tobytes())
</code></pre>
<p>Importieren Sie zuerst das <code>wave</code> Modul. Legen Sie im Anschluss den Namen der Datei in der Variable <code>filename</code> fest.<br />
Nutzen Sie die <code>wave.open()</code> Funktion:</p>
<ul>
<li>Um mit <code>wf.setnchannels(1)</code> die Menge der Ausgangs-Kanäle festzulegen. Wenn Sie einen einzelnen Kanal einstellen, wie in diesem Fall, wird die Datei in Mono gespeichert.</li>
<li>Legen Sie mit <code>wf.setsampwidth(2)</code> die Bit-Tiefe fest. Ein Wert von <code>2</code> bedeutet eine Bit-Tiefe von 16, <code>4</code> wären 32 Bit. Da das Sinus-Array auch mit 16-Bit gespeichert wurde, bietet sich 16 Bit hier an.</li>
<li>Bei <code>wf.setframerate()</code> reicht es, wenn Sie die vorher festgelegte <code>samplerate</code> Variable angeben.</li>
<li>Schreiben Sie dann mit <code>wf.writeframes(sine.tobytes())</code> das Sinus-Array auf eine WAV-Datei.</li>
</ul>
<h2 id="python-audio--das-soundfile-modul">Python Audio — Das Soundfile Modul</h2>
<p>Die <code>write</code> Funktion des Soundfile Moduls eignet sich ebenfalls, um in Python Audio-Dateien zu erhalten.</p>
<pre><code class="language-python">import soundfile as sf

sine=signal(f=440, s=1, A=0.5, fileformat=np.int16)

filename = 'python_audio.wav'
sf.write(filename, sine, samplerate)
</code></pre>
<p>Installieren Sie dafür zuerst das Modul. Importieren Sie es dann mit <code>import soundfile as sf</code>. Legen Sie den Dateinamen fest und speichern Sie ihn in der Variable <code>filename</code>.<br />
Schreiben Sie nun mit <code>sf.write()</code> unter Angabe der<code>samplerate</code> das Sinus-Array als WAV-Datei. Das Modul übernimmt die Enkodierung von 16 Bit PCM aus dem Array. Diese haben Sie beim Aufrufen der Funktion <code>signal()</code> festgelegt.</p>
<p>Wie Sie sehen gibt es viele verschiedene Wege eine WAV-Datei in Python zu erzeugen. Je nach Anwendungsbereich können manche davon praktischer sein als andere. In einem weiteren Artikel zeigen wir Ihnen, wie Sie <a href="https://systmus.blogs.uni-hamburg.de/python-sound-abspielen-so-gehts/">in Python Audio abspielen</a>.</p>
<p>Der Beitrag <a href="https://systmus.blogs.uni-hamburg.de/python-audio-datei-erhalten/">Python Audio — Datei erhalten</a> erschien zuerst auf <a href="https://systmus.blogs.uni-hamburg.de">SystMus</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Python Sinus – Sinuskurve plotten mit NumPy und Matplotlib</title>
		<link>https://systmus.blogs.uni-hamburg.de/python-sinus-sinuskurve-plotten-mit-numpy-und-matplotlib/</link>
		
		<dc:creator><![CDATA[Matthis Nachtmann]]></dc:creator>
		<pubDate>Mon, 24 Mar 2025 07:00:36 +0000</pubDate>
				<category><![CDATA[Tutorials: Musikwissenschaft]]></category>
		<category><![CDATA[audio]]></category>
		<category><![CDATA[signalverarbeitung]]></category>
		<category><![CDATA[sound-design]]></category>
		<guid isPermaLink="false">https://systmus.blogs.uni-hamburg.de/?p=3934</guid>

					<description><![CDATA[<p>In Python einen Sinus erstellen, plotten und abspielen können ist in den Musikwissenschaften und der Signalverarbeitung sehr hilfreich. Die Sinusfunktion ist eine mathematische Funktion, die sich mit einer gleichbleibenden Frequenz und Amplitude bis ins unendliche wiederholen kann. Hier erklären wir,... <a class="more-link" href="https://systmus.blogs.uni-hamburg.de/python-sinus-sinuskurve-plotten-mit-numpy-und-matplotlib/">Weiterlesen &#8594;</a></p>
<p>Der Beitrag <a href="https://systmus.blogs.uni-hamburg.de/python-sinus-sinuskurve-plotten-mit-numpy-und-matplotlib/">Python Sinus – Sinuskurve plotten mit NumPy und Matplotlib</a> erschien zuerst auf <a href="https://systmus.blogs.uni-hamburg.de">SystMus</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="wp-block-paragraph">In Python einen Sinus erstellen, plotten und abspielen können ist in den Musikwissenschaften und der Signalverarbeitung sehr hilfreich. Die Sinusfunktion ist eine mathematische Funktion, die sich mit einer gleichbleibenden Frequenz und Amplitude bis ins unendliche wiederholen kann. Hier erklären wir, wie Sie möglichst einfach mit Python einen Sinus plotten und abspielen können.</p>



<h2 class="wp-block-heading">Python, NumPy und Matplotlib</h2>



<p class="wp-block-paragraph">Um in Python eine Sinus-Kurve zu definieren, zu plotten und anhören zu können brauchen Sie die folgenden Dinge:</p>



<ol class="wp-block-list">
<li>Die Programmiersprache <em>Python</em>. Sie glänzt durch ihre Vielseitigkeit und ihre große Auswahl an Bibliotheken. Die <a href="https://systmus.blogs.uni-hamburg.de/musik-studieren-systematische-musikwissenschaft/" target="_blank" rel="noopener">Systematische Musikwissenschaft</a> verwendet Python zur Datenanalyse, als Basis für „Machine Learning“ oder zum Lösen von komplexen Rechenaufgaben.</li>



<li>Die Python-Bibliothek <a href="https://numpy.org/" target="_blank" rel="noopener">NumPy</a> dient als Grundlage für Berechnungen. Sie bietet eine Vielzahl an mathematischen Operationen, die in Python nicht enthalten sind. Ein gängiges Kürzel für numpy ist <code>np</code>.</li>



<li><a href="https://matplotlib.org/" target="_blank" rel="noopener">Matplotlib</a> ist ebenfalls eine Python-Bibliothek und dient zum Darstellen von Grafiken und Diagrammen. Die Dimensionen und Seitenverhältnisse der Darstellung sind in Matplotlib sehr leicht anzupassen. Wir verwenden das Matplotlib-Modul <code>pyplot</code>, im Folgenden abgekürzt als <code>plt</code>.</li>



<li><a href="https://ipython.org" target="_blank" rel="noopener">IPython</a> ist ein Interaktives Command-Line Interface und Teil der Entwicklungsumbgebung Jupyter. Es wird oft in der Datenanalyse verwendet und kann Audio abspielen.</li>
</ol>
<div id="attachment_7499" style="width: 310px" class="wp-caption aligncenter"><a href="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/03/Python-Sinus-Matplotlib-Graph.jpg"><img decoding="async" aria-describedby="caption-attachment-7499" class="wp-image-7499 size-medium" src="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/03/Python-Sinus-Matplotlib-Graph-300x169.jpg" alt="Ein Sinus in Python erstellt. Die Achsen sind beschriftet. " width="300" height="169" srcset="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/03/Python-Sinus-Matplotlib-Graph-300x169.jpg 300w, https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/03/Python-Sinus-Matplotlib-Graph-768x432.jpg 768w, https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/03/Python-Sinus-Matplotlib-Graph-945x532.jpg 945w, https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/03/Python-Sinus-Matplotlib-Graph-600x338.jpg 600w, https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/03/Python-Sinus-Matplotlib-Graph.jpg 960w" sizes="(max-width: 300px) 100vw, 300px" /></a><p id="caption-attachment-7499" class="wp-caption-text">Ein Python Sinus bei 440 Hz. Quelle: Matthis Nachtmann</p></div>





<h2 class="wp-block-heading">Python Sinus — Funktion definieren</h2>



<pre class="wp-block-code has-black-color has-white-background-color has-text-color has-background has-link-color has-regular-font-size wp-elements-7085d86f4edbdf8860742bedc8b04dbd"><code>import numpy as np 
import matplotlib.pyplot as plt 
from IPython.display import Audio 

samplerate = 44100 

def signal(f = 440, s = 1, A = 1, phi = 1, cycles = 1):</code></pre>



<p class="wp-block-paragraph">Um den Python Sinus zu definieren  öffnen Sie zunächst Python in der Entwicklungsumgebung <a href="https://jupyter.org/" target="_blank" rel="noopener">Jupyter Lab</a>. Natürlich können Sie auch andere Umgebungen verwenden.  Stellen Sie sicher, dass Numpy und Matplotlib installiert sind. IPython ist bei Jupyter Lab bereits enthalten. Importieren Sie nun Numpy, Matplotlib und IPython. Legen Sie die <code>samplerate</code> fest und definieren Sie dann eine Funktion mittels <code>def signal</code>. Die Funktion kann später mit beliebigen Werten aufgerufen werden. Hier sind die ersten Zeilen zu sehen — den gesamten Quelltext finden Sie weiter unten.</p>



<h2 class="wp-block-heading">Python Sinus — Parameter</h2>



<p class="wp-block-paragraph">Die Funktion haben Sie nun definiert, aber wofür sind die einzelnen Variablen zuständig? Die wichtigsten Werte für den Python Sinus sind:</p>



<ul class="wp-block-list">
<li>Der Parameter <code>samplerate</code> beschreibt die gleichnamige <em>Samplerate</em>. Diese bestimmt, wie viele Punkte pro Sekunde berechnet werden. Das ist entscheidend für die Auflösung der Funktion. Standard CD-Qualität ist <em>44.100</em> Hz. Nach dem <a href="https://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem">Nyquist-Theorem</a> liegt die höchste darstellbare Frequenz bei der Hälfte der <code>samplerate</code> , also in diesem Fall <em>22.050 </em>Hz. Im Graphen ist die <code>samplerate</code> relevant für die Auflösung der Funktion, also wie akkurat sie dargestellt wird.</li>



<li>Die <em>Frequenz</em> <code>f</code> bestimmt die Tonhöhe. Meistens wird die <em>Frequenz</em> in Hz (also Wiederholungen pro Sekunde) angegeben. Der für Menschen hörbare Bereich befindet sich etwa zwischen <em>20 </em>Hz und <em>20.000 </em>Hz.</li>



<li>Die <em>Zeit in Sekunden</em> <code>s</code>: Dieser Parameter beschreibt die Dauer der Funktion in Sekunden. Die Zeit bestimmt außerdem die absolute Länge der <em>x-Achse</em> unseres Graphen.</li>



<li>Die <em>Amplitude</em> <code>A</code> beschreibt die höchste Auslenkung des Sinus vom Nullpunkt und bestimmt die Lautstärke. Viele digitale Audio-Systeme erwarten einen Wert von null bis eins. Zum Anhören ist <code>A = 1</code> deshalb die höchste sinnvolle <em>Amplitude</em>. <code>A = 0</code> wäre Stille.</li>



<li>Die <em>Nullphase</em> <code>phi</code> gibt an, in welcher Phase die Funktion anfängt. Wenn wir beispielsweise <code>phi = 0.5</code> angeben, verschiebt sich der Anfang der Funktion um einen halben Zyklus.</li>



<li>Die angezeigten <em>Zyklen</em> <code>cycles</code>: Bei einer Frequenz von <em>440 </em>Hz durchläuft der Sinus in einer Sekunde 440 Zyklen. Um den Sinus aus der Nähe betrachten zu können, ohne die Gesamtlänge des Arrays zu reduzieren, gibt es den Parameter <code>cycles</code>. Wenn <code>cycles = 1</code> ist, wird genau ein <em>Zyklus</em> des Sinus angezeigt.</li>
</ul>



<h2 class="wp-block-heading">Python Sinus — Rechnungen</h2>



<p class="wp-block-paragraph">Die wichtigsten Parameter der Funktion für den Python Sinus sind nun geklärt. Fügen Sie nun in den nächsten Zeilen die nötigen Formeln hinzu:</p>



<pre class="wp-block-code has-black-color has-white-background-color has-text-color has-background has-link-color has-regular-font-size wp-elements-9e335e4839fa6637b123e976efb2eeef"><code>t = np.linspace(0, s, int(T*samplerate), endpoint=False)</code></pre>



<p class="wp-block-paragraph">Benutzen Sie <code>np.linspace</code>, um ein Array zu erzeugen. Diese NumPy-Funktion erzeugt Punkte mit gleichem Abstand zwischen dem <em>Startpunkt</em> <code>(0)</code> und dem<em> Endpunkt</em> <code>(s)</code>. Wie viele Punkte erzeugt werden, ist abhängig von der <code>samplerate</code>, welche Sie bereits am Anfang definiert haben. Nehmen Sie mit <code>endpoint=False</code> den <em>Endpunkt</em> heraus, damit er nicht selbst mitgezählt wird.</p>



<pre class="wp-block-code has-black-color has-white-background-color has-text-color has-background has-link-color has-regular-font-size wp-elements-40e1d592c5cd8f63d9b700782d723899"><code>sine = A * np.sin(2 * np.pi * f * t - 2 * np.pi * phi)</code></pre>



<p class="wp-block-paragraph">Hier kommen die Parameter von oben wieder ins Spiel. Die <em>Amplitude</em> <code>A</code> steht als Faktor vor dem Rest der Funktion. Verwenden Sie die NumPy-Funktion <code>np.sin</code>, um den Sinus zu erzeugen. Für <em>π</em> (pi) gibt es die Funktion <code>np.pi</code>. Die Variable <code>f</code> ist die <em>Frequenz</em>. Die Variable <code>t</code> repräsentiert das Array von der Zeile darüber. Alles hinter dem Minus ist für die <em>Phasenverschiebung</em> zuständig: Der Sinus verschiebt sich entlang der <em>x-Achse</em> um einen <em>Zyklus</em> nach rechts, wenn in der Klammer <code>2*np.pi</code> abgezogen wird. Dahinter steht der Faktor zur Phasenverschiebung <code>phi</code>, den Sie oben in der Funktion definiert haben.<br />Die Variable <code>sine</code> repräsentiert nun ein Numpy-Array in Form einer Sinusfunktion mit allen nötigen Parametern und kann als Graph dargestellt, abgespielt oder zu einer Audio-Datei umgewandelt werden.</p>



<h2 class="wp-block-heading">Den Graphen erstellen</h2>



<p class="wp-block-paragraph">Inzwischen haben Sie ein Array, welches alle nötigen Daten für den Python Sinus enthält. Um dieses Array in einen Graphen zu verwandeln benötigen Sie einige Funktionen von Matplotlib.</p>



<pre class="wp-block-code has-black-color has-white-background-color has-text-color has-background has-link-color has-regular-font-size wp-elements-7910713f9e3392f859665f2584a195f1"><code>
plt.figure(figsize=(10, 6))
    plt.plot(t, sine)
    plt.title(f'Signal:{f} Hz, Amplitude:{A}, Nullphase:{phi}')
    plt.xlabel('Zeit (s)')
    plt.ylabel('Amplitude')
    plt.grid()
    plt.xlim(0, 1/(f/cycles))
    plt.ylim(-A-0.5, A+0.5)
    plt.axhline(0, color='black', lw=0.5, ls='--')
    plt.show() 

    return sine
</code></pre>



<ul class="wp-block-list">
<li><code>plt.figure</code> ruft den Graphen auf. Verwenden Sie im Anschluss <code>figsize</code>, um die Größe des Graphen festzulegen.</li>



<li><code>plt.plot</code> legt die Achsen fest, in diesem Fall symbolisiert die <em>x-Achse</em> die Zeit. Auf den durch <code>t</code> festgelegten Punkten, also der <code>samplerate</code>, wird dann der Sinus abgebildet.</li>



<li><code>plt.title</code> bestimmt den Titel. Im Titel stehen alle Werte, die Sie beim Aufrufen der Funktion bestimmt haben.</li>



<li><code>plt.xlabel</code> und <code>plt.ylabel</code>: Legen Sie hiermit die jeweiligen Beschriftungen für die Achsen fest. Die <em>x-Achse</em> stellt die Zeit dar und die <em>y-Achse</em> die Auslenkung zum jeweiligen Zeitpunkt.</li>



<li><code>plt.grid</code> aktiviert die Hilfslinien. Damit lässt sich die Auslenkung besser ablesen.</li>



<li><code>plt.xlim</code> legt fest, wie viel vom Graph gezeigt wird. Mit der Rechnung <code>1/(f/cycles)</code> können Sie einfach beim Aufrufen der Funktion entscheiden, wie viele Zyklen gezeigt werden sollen. Aus diesem Grund haben Sie vorher in der Funktion <code>cycles</code> eingebaut.</li>



<li><code>plt.ylim(-A-0.5, A+0.5)</code>: Lassen Sie die Limitierung der <em>y-Achse</em> relativ zur <em>Amplitude</em> <code>A</code> anzeigen.</li>
</ul>



<p class="wp-block-paragraph">Der Befehl <code>plt.axhline</code> vereinfacht die Visualisierung und <code>plt.show</code> ist nötig um den erstellten Graphen anzuzeigen. In der nächsten Zeile symbolisiert <code>return sine</code> das Ende der Funktion <code>signal</code>. Diese können Sie danach mit selbst gewählten Parametern aufrufen.</p>



<h2 class="wp-block-heading">Den Python Sinus erstellen und als Audio abspielen</h2>



<figure class="wp-block-audio"><audio src="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/02/sine.wav" controls="controls"></audio>
<figcaption class="wp-element-caption">So könnte sich ihren Python-Sinus anhören.</figcaption>
</figure>



<pre class="wp-block-code has-black-color has-white-background-color has-text-color has-background has-link-color has-regular-font-size wp-elements-3f6b6f1547342e423a82693c813dac97"><code>sine = signal(f = 440, s = 1, A = 0.8, phi = 0, cycles = 2)

Audio(sine, rate = samplerate)
</code></pre>



<p class="wp-block-paragraph">Zuerst haben Sie die nötigen Bibliotheken importiert und den Teil der Funktion definiert, mit dem das Array bestimmt und erstellt werden kann. Danach haben Sie die Werte für den Graphen bestimmt, welcher am Ende den Sinus anzeigt. Zu guter Letzt rufen Sie in der vorletzten Zeile die erstellte Funktion mit den gewünschten Werten auf. Für diesen Schritt haben Sie am Anfang das <em>IPython-Modul</em> <code>display</code> importiert. Mit <code>Audio</code> rufen Sie dieses auf und geben im Anschluss die <code>sine</code> Variable und die <code>samplerate</code> an. Im Anschluss gibt Python dann einen Graphen und eine Schaltfläche zum Abspielen des Sinus aus. Das Abspielen einer Funktion als Sound nennt sich übrigens <a href="https://systmus.blogs.uni-hamburg.de/sonifikation-daten-hoerend-verstehen/" target="_blank" rel="noopener">Audifikation</a>.</p>



<h2 class="wp-block-heading">Der gesamte Quelltext</h2>



<p class="wp-block-paragraph">Wenn Sie alle hier beschriebenen Schritte befolgt haben könnte ihr Quelltext am Ende so aussehen:</p>



<pre class="wp-block-code has-black-color has-white-background-color has-text-color has-background has-link-color has-regular-font-size wp-elements-276f64214cf5ab02ead58394209a6156"><code>import numpy as np
import matplotlib.pyplot as plt
from IPython.display import Audio

samplerate = 44100

def signal(f = 440, s = 1, A = 1, phi = 1, cycles = 1):
    t = np.linspace(0, s, int(s*samplerate), endpoint=False)
    sine = A * np.sin(2 * np.pi * f * t - 2 * np.pi * phi)

    plt.figure(figsize=(10, 6))
    plt.plot(t, sine)
    plt.title(f'Signal: {f} Hz, Amplitude: {A}, Nullphase: {phi}')
    plt.xlabel('Zeit (s)')
    plt.ylabel('Amplitude')
    plt.grid()
    plt.xlim(0, 1/(f/cycles))
    plt.ylim(-A-0.5, A+0.5)
    plt.axhline(0, color = 'black', lw = 0.5, ls='--')
    plt.show() 

    return sine

sine = signal(f = 440, s = 1, A = 0.8, phi = 0, cycles = 2)

Audio(sine, rate=samplerate)</code></pre>



<p class="wp-block-paragraph">In weiteren Artikeln plotten wir einen <a href="https://systmus.blogs.uni-hamburg.de/matlab-sinus/" rel="noopener">Sinus in Matlab</a>. Außerdem erklären Ihnen, wie Sie mittels eines <a href="https://systmus.blogs.uni-hamburg.de/spektrogramm-erstellen-was-ist-es-und-wie-man-es-macht/">Spektrogramms</a> jede Zeitreihe in ihre Sinuskomponenten zerlegen können.</p>



<h2 class="wp-block-heading">Quellen</h2>



<p class="wp-block-paragraph">NumPy. (n.d.). *NumPy*. [Wissenschaftliche Bibliothek für Python]. <a href="https://numpy.org/doc/stable/" target="_blank" rel="noopener">https://numpy.org/doc/stable/</a></p>



<p class="wp-block-paragraph">Hunter, J. D. &#8222;Matplotlib: A 2D Graphics Environment&#8220;, Computing in Science; Engineering, vol. 9, no. 3, pp. 90-95, 2007. <a href="https://doi.org/10.1109/MCSE.2007.55" target="_blank" rel="noopener">https://doi.org/10.1109/MCSE.2007.55</a></p>



<p class="wp-block-paragraph">Fernando Pérez, Brian E. Granger, IPython: A System for Interactive Scientific Computing, Computing in Science and Engineering, vol. 9, no. 3, pp. 21-29, May/June 2007. <a href="https://ipython.org" target="_blank" rel="noopener">https://ipython.org</a></p>

<p><!-- /wp:post-content --></p>
<p><!-- wp:paragraph --></p>
<p><!-- /wp:paragraph --></p><p>Der Beitrag <a href="https://systmus.blogs.uni-hamburg.de/python-sinus-sinuskurve-plotten-mit-numpy-und-matplotlib/">Python Sinus – Sinuskurve plotten mit NumPy und Matplotlib</a> erschien zuerst auf <a href="https://systmus.blogs.uni-hamburg.de">SystMus</a>.</p>
]]></content:encoded>
					
		
		<enclosure url="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2025/02/sine.wav" length="308744" type="audio/wav" />

			</item>
		<item>
		<title>Audio Mastering — Definition und Einführung</title>
		<link>https://systmus.blogs.uni-hamburg.de/audio-mastering-definition-und-einfuehrung/</link>
		
		<dc:creator><![CDATA[Sebastian Behrendt]]></dc:creator>
		<pubDate>Thu, 08 Feb 2024 13:24:16 +0000</pubDate>
				<category><![CDATA[Definitionen ‒ Musik]]></category>
		<category><![CDATA[DIY ‒ Tonstudio]]></category>
		<category><![CDATA[mastering]]></category>
		<category><![CDATA[Mixing]]></category>
		<category><![CDATA[sound-design]]></category>
		<guid isPermaLink="false">https://systmus.blogs.uni-hamburg.de/?p=1587</guid>

					<description><![CDATA[<p>Damit Ihr selbstproduzierter Song professionell klingt, ist Audio Mastering essenziell. In diesem Artikel erfahren Sie, was genau Audio Mastering bedeutet, warum Mastering für den Sound wichtig ist und was die Rolle eines Mastering-Studios und dem Stem-Mastering ist. Zudem gehen wir... <a class="more-link" href="https://systmus.blogs.uni-hamburg.de/audio-mastering-definition-und-einfuehrung/">Weiterlesen &#8594;</a></p>
<p>Der Beitrag <a href="https://systmus.blogs.uni-hamburg.de/audio-mastering-definition-und-einfuehrung/">Audio Mastering — Definition und Einführung</a> erschien zuerst auf <a href="https://systmus.blogs.uni-hamburg.de">SystMus</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div aria-label="">Damit Ihr selbstproduzierter Song professionell klingt, ist Audio Mastering essenziell. In diesem Artikel erfahren Sie, was genau Audio Mastering bedeutet, warum Mastering für den Sound wichtig ist und was die Rolle eines Mastering-Studios und dem Stem-Mastering ist. Zudem gehen wir auf die einzelnen Mastering-Schritte und Tools ein, und lösen einige Mythen rund ums Mastering auf.</div>
<div aria-label="">
<h2><strong>Das ist Audio Mastering</strong></h2>
<p>Das Audio Mastering ist der letzte Schritt und folgt nach den Aufnahmen, der Produktion und dem Mixing. Es holt das Maximum<!-- notionvc: 184d3eca-f989-4360-898d-564de34f6333 --> aus dem Song heraus und hebt den Mix auf ein professionelles Niveau<!-- notionvc: 023f92b2-bd2b-4b3e-9663-96c4c050a7d6 -->. Im Mastering wird die Dynamik optimiert, in dem die Lautstärken zueinander angeglichen bzw. komprimiert werden. Außerdem wird die Balance der Frequenzen verbessert und wenn nötig die Räumlichkeit bzw. die Stereo Breite bearbeitet. Dieser Prozess sorgt dafür, dass der Track auf verschiedenen Abspielgeräten gut klingt, sei es über Kopfhörer, im Auto oder auf großen Lautsprechersystemen.</p>
</div>
<div aria-label="">
<div class="keyword-text _ngcontent-hqa-105" aria-label="">
<h2><strong>Warum ist Mastering wichtig?</strong></h2>
<p>Mastering ist ein zentraler Schritt in der professionellen Musikproduktion, der den fertigen Song marktreif macht. Dabei werden die letzten Details verfeinert, um die wahrgenommene Lautstärke zu erhöhen und die klangliche Tiefe sowie Breite zu optimieren. Besonders wichtig beim Mastering ist die Konsistenz, vor allem bei Alben oder EPs, um sicherzustellen, dass alle Tracks in Bezug auf Lautstärke, Klangfarbe, Stereo-Bild und Dynamik einheitlich sind. Dies sorgt für ein nahtloses Hörerlebnis über das gesamte Album oder die EP hinweg und erhält die künstlerische Vision des Projekts. Wie in der Grafik zu sehen, reizt das Mastering Pegel voll aus, ohne verzerrt zu klingen:</p>
<p><div id="attachment_2388" style="width: 310px" class="wp-caption aligncenter"><a href="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2023/12/Waveform-vor-und-nach-dem-Mastering.jpg"><img decoding="async" aria-describedby="caption-attachment-2388" class="wp-image-2388 size-full" src="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2023/12/Waveform-vor-und-nach-dem-Mastering.jpg" alt="Die Waveform vor und nach dem Mastering. Nach dem Mastering verringert sich der Dynamikbereich und die Waveform sieht optisch mehr ausgefüllter aus." width="300" height="169" /></a><p id="caption-attachment-2388" class="wp-caption-text">Wellenform vor (oben) und nach dem Mastering (unten). Screenshot: Sebastian Behrendt</p></div></p>
<h2><strong>Mixing vs. Mastering:</strong></h2>
<p>Das Mixing des Songs bezieht sich auf das Balancieren und Bearbeiten von Einzelspuren. Hier wird sichergestellt, dass jedes Instrument und Sound je nach Bedarf im Zusammenspiel durchsetzt, oder unterstützend wirkt. Dazu werden die Lautstärke, der Dynamikumfang, die spektrale Balance und die <a href="https://systmus.blogs.uni-hamburg.de/lautsprecher-richtig-aufstellen-zum-musikmischen/" target="_blank" rel="noopener">räumliche Position</a> aufeinander abgestimmt, und einzelne Instrumente oder Instrumentengruppen mit Audioeffekten versehen. Beim Mastering hingegen geht es um die Bearbeitung des gesamten Mixes in einem, als letztem Schliff vor der Veröffentlichung. Wenn Sie selber mastern, können Sie Effekte auf den Master Out Channel anwenden. Eine weitere Methode besteht darin, die gemischte Stereo-Datei (den Mixdown), zu exportieren und in einem neuen Projekt zu Mastern. Externe Mastering Engineers arbeiten oft auf diese Weise. Aber Vorsicht, nicht jedes klangliche Problem kann durch Mastering behoben werden. Ein guter Mix und Produktion des Songs sind die Grundvoraussetzung, um im Schritt des Masterings die gewünschten Ergebnisse erzielen zu können.</p>
</div>
<h2><strong>Mastering Studios und Stem Mastering</strong></h2>
<p>In der Welt der Audioproduktion spielt das Mastering Studio eine entscheidende Rolle. Ein Mastering Studio ist nicht nur ein Raum voller hochwertiger Ausrüstung; es ist auch ein kreativer Spielraum, in dem erfahrene Mastering-Ingenieure mit feinem Gehör und technischem Know-how arbeiten. Mastering beinhaltet verschiedene Prozesse, um die Klangqualität eines Musikstücks zu verbessern. Dazu gehören:</p>
<ol>
<li>Anpassung der Lautstärke (nur beim Stem Mastering möglich)</li>
<li>Ausbalancieren der Frequenzen</li>
<li>Bearbeitung der Dynamik</li>
<li>Anpassung des Stereobildes.</li>
</ol>
<p>Ein Mastering Studio verfügt über spezialisierte Geräte und Software, um diese Anpassungen mit höchster Präzision vorzunehmen. Ein relativ neuerer Ansatz im Bereich des Masterings ist das „<!-- notionvc: 023f92b2-bd2b-4b3e-9663-96c4c050a7d6 -->Stem Mastering“. Im Gegensatz zum herkömmlichen Mastering, bei dem mit einem einzigen Stereomix gearbeitet wird, bietet Stem Mastering die Möglichkeit, mit mehreren Submixen oder „<!-- notionvc: 023f92b2-bd2b-4b3e-9663-96c4c050a7d6 --><a href="https://systmus.blogs.uni-hamburg.de/was-sind-stems-definition-und-anwendung/">Stems</a>“ zu arbeiten. Ein Stem könnte beispielsweise nur die Drums, nur die Gitarren oder nur die Vocals eines Tracks enthalten. Diese Methode erlaubt es dem Mastering-Ingenieur, detailliertere Anpassungen an spezifischen Elementen des Tracks vorzunehmen, ohne die anderen Teile zu beeinflussen.</p>
<div class="keyword-text _ngcontent-hqa-105" aria-label="">
<h2><strong>Hauptkomponenten im Audio-Mastering</strong></h2>
<p>Jeder einzelne Schritt des Audio-Masterings spielt eine wesentliche Rolle, um die Qualität und Konsistenz des finalen Audiomaterials zu gewährleisten.</p>
<ol>
<li><strong>EQ (Equalization):</strong>
<ul>
<li>Anheben oder Absenken spezifischer Frequenzen</li>
<li>Herausbringen von Klarheit und Definition</li>
</ul>
</li>
<li><strong>Kompression</strong>
<ul>
<li>Glätten von Lautstärkeschwankungen</li>
<li>Erhöhung der Gesamtlautstärke</li>
</ul>
</li>
<li><strong>Stereo-Image-Verbesserung:</strong>
<ul>
<li>Justieren der Stereobreite</li>
<li>Verbesserung der räumlichen Verteilung</li>
</ul>
</li>
<li><strong>Dynamik-Anpassung:</strong>
<ul>
<li>RMS- und Peak-Lautstärke bearbeiten</li>
<li>Standards für Streaming-Dienste</li>
</ul>
</li>
<li><strong>Dithering (Beim Exportieren in verlustbehaftete Audioformate): </strong>
<ul>
<li>Anwendung bei Reduzierung der Bit-Tiefe</li>
<li>Rauschzufügung zur Reduzierung von Quantisierungsfehlern</li>
</ul>
</li>
</ol>
<p>Diese fünf Schritte machen Sie nicht rein nach Gehör. Audio Analyzing Tools unterstützen Sie dabei:</p>
</div>
</div>
<ol>
<li style="list-style-type: none;">
<ol>
<li style="list-style-type: none;">
<ol>
<li>Lautheitsmesser — LUFS-Meter (Loudness Units Full Scale):
<ul>
<li><strong>Zweck:</strong> Messung der Lautstärke eines Tracks.</li>
<li><strong>Einsatzgebiet:</strong> Hilft bei der Einhaltung von Branchenstandards wie der <a href="https://tech.ebu.ch/docs/r/r128_2011_DE.pdf">EBU R128</a> oder <a href="https://www.itu.int/dms_pubrec/itu-r/rec/bs/R-REC-BS.1770-3-201208-S!!PDF-E.pdf">ITU-R BS.1770</a> für den Rundfunk und Abgleichung der Lautstärkenormen für die Streaming-Dienste.
<p><div id="attachment_2402" style="width: 310px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-2402" class="wp-image-2402 size-full" src="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2023/12/Lautstaerke-Messung.jpg" alt="Essenziell fürs Mastering: Ein Loudness Meter Tool zeigt empfundene Lautstärke in LUFS." width="300" height="169" /><p id="caption-attachment-2402" class="wp-caption-text">Loudness Meter, um die LUFS zu messen. Screenshot: Sebastian Behrendt</p></div></li>
</ul>
</li>
<li>Spektrumanalysator (Spectrum Analyzer):
<ul>
<li><strong>Zweck:</strong> Visualisierung des Frequenzspektrums eines Audiosignals.</li>
<li><strong>Einsatzgebiet:</strong> Identifizierung von Frequenzspitzen, Imbalancen und <a href="https://systmus.blogs.uni-hamburg.de/absorber-selber-bauen-so-gehts/" target="_blank" rel="noopener">Raumresonanzen</a>.
<p><div id="attachment_2985" style="width: 310px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-2985" class="wp-image-2985 size-full" src="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2024/01/Frequenzanalyse.png" alt="Ein Frequenzanalyse-Tool zeigt die tonale Energie-Verteilung." width="300" height="169" /><p id="caption-attachment-2985" class="wp-caption-text">Frequenzanalyse, um die Tonalität zu visualisieren. Screenshot: Sebastian Behrendt</p></div></li>
</ul>
</li>
<li>Phase Scope/Goniometer:
<ul>
<li><strong>Zweck:</strong> Überwachung der Phasenbeziehungen zwischen den Stereokanälen.</li>
<li><strong>Einsatzgebiet:</strong> Sicherstellung, dass die Mischung in Stereo schön räumlich und in Mono spektral ausgewogen klingt.
<p><div id="attachment_2405" style="width: 310px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-2405" class="wp-image-2405 size-full" src="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2023/12/Stereo-Analyser.jpg" alt="Stereo-Mastering: Ein Stereo Analyser zeigt Lautstärke, Stereo-Breite und Phasenlage dar." width="300" height="169" /><p id="caption-attachment-2405" class="wp-caption-text">Stereo Analyse, um die Stereo Breite des Songs grafisch darstellen zu lassen. Screenshot: Sebastian Behrendt</p></div></li>
</ul>
</li>
<li>Stereo-Bild Analyse über das Frequenzspektrum (Stereo Imaging Analyzer):</li>
</ol>
</li>
</ol>
</li>
</ol>
<ul>
<li style="list-style-type: none;">
<ul>
<li style="list-style-type: none;">
<ul>
<li style="list-style-type: none;">
<ul>
<li><strong>Zweck:</strong> Visualisierung der Stereobreite über das gesamte Frequenzspektrum hinweg.</li>
<li><strong>Einsatzgebiet:</strong> Optimierung der Stereoverteilung und Vermeidung von Phasenproblemen.
<p><div id="attachment_2403" style="width: 310px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-2403" class="wp-image-2403 size-full" src="https://systmus.blogs.uni-hamburg.de/wp-content/uploads/2023/12/Frequenz-Analyse.jpg" alt="Multiband-Mastering: Dieses Tool zeigt die Kanal-Korrelation, und somit die Stereo-Breite, je Frequenzband." width="300" height="169" /><p id="caption-attachment-2403" class="wp-caption-text">Analyse der Stereo Information über das gesamte Frequenzspektrum hinweg. Screenshot: Sebastian Behrend</p></div></li>
</ul>
</li>
</ul>
</li>
</ul>
</li>
</ul>
<div aria-label="">
<div class="keyword-text _ngcontent-hqa-105" aria-label="">
<p>Unsere Forschung hat gezeigt, dass eine künstliche Intelligenz anhand dieser vier Audio-Analyzer vorhersagen kann, welcher DJ welchen Song spielt <a href="#section">(Ziemer et al. 2020)</a>. Unterschätzen Sie niemals die Relevanz vom Sound, neben konventionellen Elementen, wie Melodie, Harmonie, Instrumentierung und Arrangement.</p>
<h2><strong>Mythen rund ums Mastering</strong></h2>
<p>Es ranken sich viele Mythen um das Thema Mastering. Vor allem „Analog vs. Digital“. Vor der Zeit der Digitalisierung wurden Songs immer analog gemischt und gemastert. Heutzutage ist es jedoch möglich dies „In the box“, also mit einem einzigen Computer zu bewerkstelligen. Die Unterschiede zwischen analogem Mastering und digitalem Mastering sind in der Regel nicht so drastisch wie von einigen Personen beschrieben und viele Chartsongs werden heutzutage rein digital gemastert. Auch diverse bekannte Mastering Engineers aus dem analogen Zeitalter wechseln laut <!-- notionvc: 385b32b0-da13-4d3c-8ec2-404551db9ff6 --><a href="https://www.sweetwater.com/insync/is-in-the-box-the-best-way-to-mix-these-grammy-winners-say-yes/" target="_blank" rel="noopener">Sweetwater</a> mehr und mehr zur digitalen Lösung. Ein weiterer Mythos ist „Laut ist immer besser“. Natürlich wirken laute Dinge häufig kräftiger und durchsetzungsfähiger gegenüber leiseren Songs. So entstand Ende der 1980er der sogenannte „Lautheitskrieg“. Durch die Etablierung der Streamingdienste ebbt der Lautheitskrieg ab, da die Songs auf diesen Plattformen auf eine Einheitslautstärke normiert werden.</p>
</div>
</div>
<h2><strong>Audio Mastering in Kürze<br />
</strong></h2>
<p>Das Mastering gewährleistet einen professionellen Klang und erfüllt nach guter Anwendung den Marktstandard. Es hat eine ästhetische sowie technische Bedeutung. Mit ausreichend Kenntnis und Übung lässt sich ein gelungenes Audio Mastering selber umsetzten. Wer möchte, kann aber auch diesen finalen Schritt an ein Mastering Studio abgeben. Die Masteringkosten sowie die klanglichen Ergebnisse können zwischen den verschiedenen Anbietern stark variieren. Daher kann es sich lohnen, über die Zeit verschiedene Anbieter auszuprobieren.</p>
<div aria-label="">
<p>Eine Voraussetzung für einen professionellen Sound durch Mastering ist ein guter Mix. In unserem Artikel lernen Sie, Ihre <a href="https://systmus.blogs.uni-hamburg.de/lautsprecher-richtig-aufstellen-zum-musikmischen/">Lautsprecher zum Musikmischen richtig aufzustellen</a>.</p>
<h3>Quellen</h3>
<ul>
<li>Mores, Robert (2018), „<a href="https://link.springer.com/chapter/10.1007/978-3-662-55004-5_12" target="_blank" rel="noopener">Music Studio Technology</a>“, in: Rolf Bader (Hrsg.): <a href="https://link.springer.com/book/10.1007/978-3-662-55004-5" target="_blank" rel="noopener">Springer Handbook of Systematic Musicology</a>, Springer: Cham</li>
<li id="section">Ziemer, Tim, Kiattipadungkul, Pattararat &amp; Karuchit, Tanyarin, „Acoustic features from the recording studio for Music Information Retrieval Tasks“, <a href="https://doi.org/10.1121/2.0001363" target="_blank" rel="noopener">Proceedings of Meetings on Acoustics 42</a>, 2020</li>
<li>Ziemer, Tim (2023), „Goniometers are a Powerful Acoustic Feature for Music Information Retrieval Tasks“. <a href="https://pub.dega-akustik.de/DAGA_2023/data/articles/000600.pdf" target="_blank" rel="noopener"><i>DAGA 2023 — 49. Jahrestagung für Akustik</i></a></li>
</ul>
</div>
<p>Der Beitrag <a href="https://systmus.blogs.uni-hamburg.de/audio-mastering-definition-und-einfuehrung/">Audio Mastering — Definition und Einführung</a> erschien zuerst auf <a href="https://systmus.blogs.uni-hamburg.de">SystMus</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
