Künstliche Intelligenz stellt die Musikproduktion auf den Kopf
KI verändert die Art und Weise, wie wir Musik machen, radikal. Richtig eingesetzt, können KI-Tools wertvolle Assistenten für Künstschaffende sein, die sich auf die kreativsten Aufgaben der Musikproduktion konzentrieren können. Auf der PRISM-Konferenz im Mai stellte Matteo Sorci, Account Executive bei Dell Technologies, die wichtigsten Fortschritte in diesem Bereich vor und demonstrierte, wie generative KI die Musikproduktion revolutionieren wird.
Matteo Sorci erinnerte zunächst an die enormen Auswirkungen der künstlichen Intelligenz in verschiedenen Bereichen. «Im Gesundheitssektor kann KI bestimmte Krebsarten besser erkennen als der Mensch. Im Finanzwesen erkennen KI-Algorithmen zu 95 % und innerhalb von Millisekunden betrügerische Transaktionen», erläuterte er.
Auch der Einfluss auf den Unterhaltungssektor ist nicht zu unterschätzen. «80% der Netflix-Inhalte werden beispielsweise dank künstlicher Intelligenz empfohlen», betonte der Experte. Diese Allgegenwart breitet sich weiter aus, insbesondere im künstlerischen Schaffen. Und ist auch der Musikbereich nicht unberührt geblieben.
Ein Partner für Kreative, kein Ersatz
Entgegen den Befürchtungen mancher Menschen sieht Matteo Sorci die KI als einen Mitarbeitenden, der die menschlichen Fähigkeiten erweitert. «KI ersetzt nicht die Kreativität, sondern verändert den kreativen Prozess selbst.» Dieses Phänomen konkretisiert sich in der Praxis. «Im Jahr 2024 setzten mehr als 45% der professionellen Musikproduzenten KI in ihrer täglichen Arbeit ein. Und dieser Anteil steigt rapide an.»
In seiner Präsentation verdeutlichte Matteo Sorci eine wichtige Unterscheidung. «Traditionelle KI frisst Daten und erkennt wiederkehrende Muster, um Vorhersagen zu treffen. Generative KIs sind kreativer. Sie nehmen Daten und generieren etwas anderes oder Neues. Im künstlerischen Bereich, wo Emotionen eine zentrale Rolle spielen, macht Kreativität den Unterschied. Und diese Kreativität bleibt dem Menschen vorbehalten, auch wenn die KI dabei helfen oder inspirieren kann.»
Eine lange Geschichte, rasante Fortschritte
Generative Musik ist kein neues Konzept. Es war Mozart, der bereits 1787 mit seinem «Würfelspiel» als Vorreiter fungierte. «Der Komponist hat vorab Takte kreiert, die zusammenpassen. Je nachdem, welche Würfel das Orchester zog, ergab dies ein anderes Stück mit zueinander passenden Takten», erklärte Matteo Sorci.
Die Entwicklung beschleunigte sich, als 1957 die erste Komposition mithilfe eines Computers entstand. In den Jahren 2010 bis 2016 entstanden mehrere Start-ups in diesem Bereich, bevor ab 2017 die «Transformers» von Google und Apple eingeführt wurden. Seitdem haben Modelle und Algorithmen begonnen, sich in den Dienst der Musik zu stellen. Ab 2023 tauchten schliesslich Anwendungen wie Suno und Co. auf.






Aktuell vier Arten von Musik-KI
Matteo Sorci identifiziert vier grosse Familien von KI-Tools für Musik, nämlich solche, …
- … die auf «Text to music» basieren und somit Musik aus Keywords oder einem Prompt erstellen (Suno, MusicLM oder Udio).
- … die es ermöglichen, Stimmen zu bearbeiten, um ihnen eine andere Tonlage oder einen anderen Stil zu geben (ACE Studio, Audimee oder Kits AI).
- … die automatisch Begleitmusik aus einem Gesang generieren (AIVA, SingSong oder Mubert).
- …. die synthetische Klänge von A bis Z erstellen, zum Beispiel Geräusche oder Umgebungsklänge (ElevenLabs, MyEdit oder optimizer AI).
«Es macht mir Spass, mit diesen Werkzeugen zu komponieren, aber man muss sie auch richtig einsetzen. Wenn das der Fall ist, schaffen diese Tools mehr Zeit für reine Kreativität.» KI ist also sehr nützlich, um die mühsamste Arbeit zu erledigen, etwa das Hinzufügen von Hintergrundmusik und Geräuschen zu Videos.
Zum Abschluss eine Live-Demonstration
Zum Abschluss seiner Präsentation auf der PRISM-Konferenz führte Matteo Sorci ein partizipatives Experiment durch, bei dem er gemeinsam mit dem Publikum Musik erstellte. Jeder Anwesende konnte über das Thema, den Ton, den Ort, den Stil, das Tempo und die Instrumente abstimmen, die in das Musikstück integriert werden sollten.
Das Publikum konnte auch Keywords vorschlagen, die in den Text aufgenommen werden sollten. Nachdem er die Tools Claude für die Texterzeugung und Suno für die Komposition verwendet hatte, demonstrierte er die kreative Kraft der heutigen KI-Tools mit zwei etwa dreiminütigen Kreationen, die Rock und R’n’B vermischte und das anwesende Publikum beeindruckte.
Abgesehen von diesen überzeugenden Demonstrationen ist die Frage nach den Urheberrechten für diese Art von Musik noch nicht geklärt. «Im Moment ist das ein juristisches Niemandsland. Bis zur rechtlichen Klärung, die sicherlich kommen wird, sollte man nicht zögern, diese Technologien zu nutzen», so Matteo Sorci.
Interview aufgezeichnet am 13. Mai 2025 in Monthey während der PRISM-Konferenz.