Der Gänsehaut-Effekt

Worum geht es bei der Musik? Auf der Suche nach einer Antwort auf diese Frage, werden zur Zeit ganze Bücher verfasst. Trotzdem werde ich hier ein kurze Antwort wagen: Es geht um Kohärenz, also um Verbundenheit. Das kann sowohl die Einheit von Denken, Fühlen und Handeln in einem selbst als auch die Verbundenheit mit der Welt bedeuten. Musik ist das Medium, das uns nach einem anstrengenden Tag wieder mit uns selbst verbindet, synchronisiert und in der Wirkung harmonisiert, uns aber gleichzeitig auch mit dem Außen verbindet. Die Besonderheit der Verbindung liegt in der Qualität. Denn es ist eine emotionale Qualität, die über die Musik transportiert wird.

Durch den musikalischen Ausdruck meiner Befindlichkeit kann ich die Gefühle anderer ansprechen. Das funktioniert über die so genannten Spiegelneurone. Wir kennen das Phänomen als Empathie. Vielleicht kennen Sie auch den Gänsehaut-Effekt, der beim Hören bestimmter Sequenzen von Musik auftritt. Nur wenn ich ausdrucksstark da gefühlvoll musiziere, geht meine Musik dem Zuhörer unter die Haut. Und nur wenn meine Musik unter die Haut geht, bekomme ich die Rückmeldung, dass ich gute Musik machen würde. Gut heißt dann ehrlich, authentisch, gefühlvoll.

Ausdrucksstark und gefühlvoll kann man aber nicht auf jedem Instrument spielen. Ist beim Klavier

  • die Spielart schwer,
  • die Mechanik ungleichmäßig reguliert,
  • der Klang nicht gleichmäßig intoniert und/oder
  • bleiben möglicherweise sogar Tasten hängen,

sind das eine Vielzahl von widrigen Gründen, die mich davon abhalten werden, eine authentisch gefühlvolle Performance leisten zu können.

So sieht die Negativseite aus. Natürlich gibt es auch eine Positivseite. Hier geht es um das Maximum an Möglichkeiten, Musik so intensiv wie möglich ausdrücken zu können. Unbestritten sind die Vorteile der Klaviatur für das 10-Finger-Spiel. Doch das Handicap der Klaviatur, die den möglichen emotionalen Ausdruck einschränken, werden als schmerzlich empfunden. Darüber spricht man nicht offen. Doch der Drang, die Beeinträchtigung ändern zu wollen, ist stärker als man glaubt! Tatsächlich existieren schon längst erste Lösungen wie man zum Beispiel Effekte in das Spiel auf den Tasten integrieren kann - allerdings nur für das Spiel mit einer Hand, da die zweite Hand benötigt wird, um die Effekte zu initiieren. Im folgenden stelle ich Ihnen den Pianist und Organist Cory Henry vor. Er spielt auf einer Orgel sowie auf einem Moog-Synthesizer. Lehnen Sie sich zurück, genießen das Stück, bei dem ab Minute 5:40 nicht nur für die Ohren von Tasteninstrumentespielern wunderbare Klänge ertönen. Das Solo kulminiert circa bei Minute 6:10 bis 6:20.

Was ist hier geschehen? Warum konnte dieses Solo unsere Stimmungslage so beeindrucken? Cory Henry hat scheinbar nur mit einer Hand die Tasten des Moog-Synthesizers gespielt. Von der Aufnahmeregie für unser Auge unsichtbar spielt die zweite Hand jedoch mit. Sie bediente entweder das Pitch-Wheel, einen Regler zum stufenlosen Verändern der Tonhöhe des gerade gespielten Tons, oder ein Modulation-Wheeel, mit dem man den Klang des soeben gespielten Tons modulieren kann. Das heißt, wir haben einen Musiker gehört, der auf einem Tasteninstrument schnelle Sequenzen mit Tonartwechseln spielt. Die Besonderheit eines solchen Wechsels der Tonart lag für unser Ohr darin, dass der Wechsel nicht wie auf einem Tasteninstrument üblich stufenweise sondern im Sinne der Intonation (Anheben oder Senken der Tonhöhe) stufenlos erfolgte. Bewusst konnten wir das gar nicht wahrnehmen. Dafür hat uns dieser Effekt des stufenlosen Wechsels in eine andere Tonart unterbewusst umso stärker beeindruckt: Er ging uns unter die Haut!

Effekte mit dem 10-Finger-Spiel am historischen Tasteninstrument gestalten

Moment mal, war das nicht früher schon möglich, Effekte zu gestalten - und zwar mit beidhändigem 10-Finger-Spiel? Ja, tatsächlich konnten wir das schon sehr früh, nämlich auf dem Clavichord. Von diesem Instrument wissen wir ja bereits, dass man damit nicht nur das 10-Finger-Spiel sondern auch Effekte wie

  • die Intonation,
  • ein Vibrato sowie
  • die Variation des Anschlags (im Charakter sanft oder einen peitschend Klang erzeugend)

realisieren kann. Aber im Wettbewerb mit anderen Tasteninstrumenten leidet das historische Tasteninstrument unter dem Handicap, sehr leise zu sein. Der Pianist Friedrich Gulda hat das Clavichord trotzdem für Konzerte ausgewählt und es für sein Publikum mittels Mikrofon verstärkt. Ihm war die Verfügbarkeit der Effekte zur Tongestaltung wichtiger als die Lautstärke eines Flügels, der ja eigentlich für einen Pianisten das angemessenere Werkzeug ist. Tatsächlich war es eine Äußerung Friedrich Guldas über die Begrenztheit der Tongestaltung am Klavier nach dem Anschlagen der Saiten, die mich für die Thematik sensibilisierte. Oder treffender formuliert: Die Feststellung Guldas, dass man den Ton des Klaviers nach dem Anschlagen nicht mehr beeinflussen kann, traf in mir auf eine (unbewusste) Resonanz.

Kennen Sie das Clavinet?

Das Clavinet ist ein Saiteninstrument mit einer im Vergleich zum Original abgewandelten Art der Tonerzeugung, die mit einem Tonabnehmer verbunden ist. Lautstärke und Charakter des Tons können durch die Stärke des Anschlags beeinflusst werden. Es ist genau genommen eine moderne Version des Clavichords. Das Clavinet erzeugt einen einmaligen Sound, der zum Beispiel zur eindeutigen Identifikation eines Songs wie Superstition von Stevie Wonder beiträgt:

Das Clavinet wurde übrigens von Hohner in Deutschland entwickelt und gebaut. Bei Hohner gab es den Ingenieur und Musiker Ernst Zacharias, der für Hohner ein ganze Reihe zeitgemäßer Varianten von Barockinstrumenten entwickelte.

Das Streichklavier

Vermutlich kannten Sie weder das Clavichord noch das Clavinet. Mit Sicherheit ist Ihnen das Streichklavier unbekannt. Es handelt sich dabei um ein Tasteninstrument, mit dem man Streicherklänge erzeugen konnte. Von diesem Instrument wurden ab dem 15. Jahrhundert verschiedene Versionen gebaut. Das Modell, von dem ich Ihnen berichten möchte, wurde erstmals im 17. und dann wieder im 20. Jahrhundert gebaut, aber von Leonardo da Vinci circa 1470 konstruiert.

Davon erzähle ich an dieser Stelle, da bereits Leonardo da Vinci von den Einschränkungen der Möglichkeiten des umfassenden emotionalen Ausdrucks über die Klaviatur gehört haben muss. Er lies sich von der scheinbaren Unlösbarkeit des Problems herausfordern und folgte dem MEM des Strebens nach der bestmöglichen Lösung. Seine Aufgabe lautete: Wie ermöglicht man Intonation an einem Tasteninstrument? Er überlegte, welches Instrument zu dem für die Musik als Ausdrucksform von Gefühlen besonderen Effekt der Intonation imstande ist, und entschied sich für ein Streichinstrument. So entstand der Entwurf eines zur Intonation fähigen Tasteninstruments mit Streicherklängen. Im folgenden Video sehen und hören Sie den polnischen Erbauer Tygodnik Powszechny mit englischen Untertiteln.

Unbegrenzte Möglichkeiten der Tongestaltung jenseits der Klaviatur

Die natürlichen Einschränkungen der Klaviatur haben dazu geführt, dass in den letzten Jahren zahlreiche Entwickler nach Möglichkeiten jenseits der Klaviatur gesucht haben. Gefunden wurde eine Vielzahl von kreativen Lösungen. Das erstaunt grundsätzlich immer wieder aufs Neue, da bislang kaum ein öffentliches Wehklagen über die Mängel der Tasteninstrumente zu hören war. Doch tatsächlich gibt es dazu sogar eine Wunschliste der Pianisten, die man jedoch nur entdeckt, wenn man zwischen den Zeilen liest. Nun wollen wir aber den Blick nicht mehr nach hinten, sondern nach vorne auf die teils ausgefallen Entwürfe von neuen Musikinstrumenten mit der Intention der Verbesserung der emotionalen Ausdrucksmöglichkeiten richten:

Der Musiker Jordan Rudess hat ein feines Händchen für außergewöhnliche Bedienoberflächen:

All die oben aufgeführten Beispiele nennt man Controller. Das heißt, es handelt sich um unterschiedliche Bedienoberflächen, die mit Sensoren neue Möglichkeiten zur Datenerfassung besitzen. Die ermittelten Daten werden als Kommandos interpretiert, die einen externen Klangerzeuger über eine Schnittstelle namens MIDI steuern.

MIDI = Musical Instrument Digital Interface

Den kompliziert klingenden Titel übersetzt Wikipedia in den besser verständlichen Satz:

Digitale Schnittstelle für Musikinstrumente.

Über diese Schnittstelle können zusätzlich zur Tonhöhe und Lautstärke der gerade gedrückten Tasten, also zu den rein musikalischen Daten wie sie in der Notenschrift festgehalten werden, Informationen zur Steuerung wie zum Beispiel Ton an oder Ton aus übertragen werden. Außerdem lässt sich über diese Schnittstelle der Klang verändern, Effekte zu- und abschalten. MIDI wurde bereits 1982 entwickelt.

Die zeitgemäßen Möglichkeiten bieten uns eine Bedienoberfläche, die aktuell nur in Ausnahmefällen in Zukunft vermutlich aber als Standard mit Sensoren ausgestattet ist, ein umfassendes Datenformat namens MIDI und eine externe Klangquelle. In der digitalen Welt ist die externe Klangquelle ein Synthesizer oder eine Klangbibliothek aus Samples. Das haben wir auf unserem Rechner in einer so genannten Digital Audio Workstation (DAW) organisiert und verpackt. In einer DAW können wir Musik einspielen, aufzeichnen sowie nachträglich bearbeiten. Die DAW enthält Synthesizer und/oder Samples als Klangerzeuger, mit denen man Presets (voreingestellte Klangkombinationen) erstellen, speichern und nach Belieben aufrufen kann.

In dem zuletzt vorgestellten Video eines Controllers (Jordan Rudess spielt den Soundplane Encounter) haben Sie aber nicht nur MIDI erlebt, sondern zusätzlich ein neues Datenerfassungsformat, nämlich Multidimensional Polyphonic Extression (MPE), von dem man sagt, es sei die Zukunft von MIDI. Die Abkürzung MPE wird übrigens auch mit MIDI Polyphonic Expression übersetzt.

MIDI 2.0

Worum geht es nun bei der Aktualisierung des MIDI-Standards von 1.0 auf 2.0? Grundsätzlich geht es um das Bestreben, aus dem bisherigen Schmalspur-Angebot ein zur Akustik wettbewerbsfähiges Breitbandpotenzial zu ermöglichen. Mit anderen Worten: MIDI soll zur analogen Welt des Akustischen vollwertige werden! Das bedeutet konkret,

  1. MIDI 1.0 hatte 128 Differenzierungsstufen. MIDI 2.0 soll ein hochauflösendes Angebot erzeugen und bekommt daher 64.000 Stufen.
  2. MIDI 2.0 soll ausdrucksstärker werden. Und zwar soll es nicht nur mehr Ausdruck als bei MIDI 1.0 erlauben, sondern das Spektrum der Ausdrucksmöglichkeiten vollständig erfassen und zugänglich machen. Konkret geht es hier unter anderem um Effekte. Diesbezüglich waren Tasteninstrumente bislang traditionell extrem limitiert. Das ändert sich jetzt mit dem bereits in MIDI 2.0 integrieren neuen Standard MPE (MIDI Polyphonic Expression) grundlegend.

Sehen Sie eine Einführung in MIDI 2.0:

Ausdrucksstark da gefühlvoll Klavier spielen

MPE = Multidimensional Polyphonic Expression

Das Datenformat MPE ermöglicht es, mittels neuer Sensoren Fingerbewegungen auf einer Oberfläche zu erfassen, und in beliebig programmierbare Effekte zu transformieren. In Verbindung mit der digitalen Klangerzeugung kann man also festlegen, welche Klangmuster von welchen Fingerbewegungen ausgelöst werden. Damit bekommt das Bedienen von sensiblen Oberflächen eine neue Dimension. Wir kennen diese Möglichkeiten bereits vom Touch-Screen unserer Smartphones und Tablets. Neu ist der Transfer auf Bedienoberflächen von Musikinstrumenten.

Was bedeutete diese Erweiterung des Spielraums für die Musik? Babies kommen mit einer starken musikalischen Veranlagung auf die Welt. Wenn sie uns Erwachsene Reden hören, dann verstehen sie unser Gebrabbel als Musik. Denn Sprache setzt sich zusammen aus der

  • Betonung,
  • Sprachmelodie,
  • dem Sprachrhythmus,
  • Sprechtempo sowie
  • der Tonlage.

Intuitiv wissen wir Erwachsene, dass dieser Prozess des Sprechens von Kleinkindern als Musik verstanden wird. Daher sprechen wir auch nicht mit den Babies, so wie wir Erwachsene uns untereinander unterhalten. Nein, wir singen eher, wenn wir die Kleinen ansprechen, d.h., wir übertreiben die Sprachmelodie. Kleinkindern gelingt es über diese musikalischen Strukturen in das Sprechen der Erwachsenen ein Muster zu bekommmen, aus dem Schritt für Schritt Kindersprache entsteht.

Wenn die Kinder dann zunehmend fit im Umgang mit den sprachlichen Mitteln werden und als Jugendliche oder Erwachsene ihre Emotionen mittels Sprache ausdrücken, dann gelingt das, indem sie wieder diese musikalischen Sprachelemente entsprechend gestalten:

  • Die Betonung,
  • Tonlage (Stimmlage vergleichbar mit der Tonart A-, H-, C-, D-Dur/Moll,...),
  • Klangfarbe (dunkel - hell, warm - kalt,...),
  • Sprechgeschwindigkeit.

Wollen wir nun in der Musik besonders gefühlvoll und ausdrucksstark spielen, dann müssen wir also z.B. die

  • Tonlage,
  • Akzentuierung (Betonung),
  • Klangfarbe und/oder
  • Rhythmus und Tempo

verändern bzw. variieren. Doch z.B. bei den analogen Tasteninstrumenten wie dem Klavier konnte man bislang die Tonlage nur in Halbtonschritten verändern. Die musikalische Intonation, also das geringfügige Erhöhen und Erniedrigen von Tönen war bislang nicht möglich. Unmöglich ist am Akunstikpiano weitgehend auch die Veränderung der Klangfarbe. Anmerkung: Geringfügig kann die Klangfarbe vor allem am Flügel durch Betägigen des Una-Corda-Pedals verändern, bei dem eine Saite weniger pro Ton angeschlagen wird. Auch in Verbindung mit der Anschlagsintensität verformt sich geringfügig die Auftrefffläche Filz auf den Saiten des Akustikpianos. Doch der Effekt ist relativ gering. All die explicit genannten Elemente zur Gestaltung eines gefühlvolleren Ausdrucks in der Musik werden nun über die Beteiligung der digitalen Elemente z.B. in der Kombination aus Akustik- und Digitalpiano im Hybridpiano möglich, indem die Tasten mit Sensoren ausgestattet werden und somit mittels des neuen Standards für Ausdruck MIDI Polyphonic Expression (MPE) diese Effekte für einzelne Taste getrennt zur Verfügung stehen.

Dank des besonders engagierten Designers, Unternehmers und Musikers Roland Lamb erfuhr das neue Format MPE in der Defintiion als MIDI Polyphonic Expression anlässlich der NAMM 2018 höchste Anerkennung. Denn die MIDI Manufacturers Association (MMA) fasste am 28. Januar 2018 den Beschluss, das MPE-Format als Standard zu übernehmen.

MPE triggert die Keyvolution

Mit der Erweiterung des MIDI-Standards durch MPE, hat man das ausdrucksstarke und somit gefühlvolle Musizieren als ein Ziel definiert. Man hatte beschlossen, die Technologie auf dieses Ziel hin auszurichten. Das war eine Neuigkeit, die nachfolgend Wesentliches veränderte. Die Entwicklung unseres Akustikpianos endete genau genommen 1870. Nachfolgend bestimmte vor allem die Entwicklung der Elektronik sowie der Digitalisierung die weitere Entwicklung der Tasteninstrumente. Entsprechend dem eingangs erläuterten MEM der Hersteller von Tasteninstrumenten, fand die Erweiterung der bisherigen Möglichkeiten in Bezug auf den Klang statt. Die neuen Keyboards waren nicht mehr auf einen Klang festgelegt. Zuerst entwickelte man das synthetische Klangpotenzial. Mit der schneller werdenden Datenverarbeitung wuchs die Bedeutung von Samples, den digitalisierten Aufnahmen des Originalklangs. Aktuell gewann eine neue Klang-Kategorie an Bedeutung, nämlich die Hybridsounds, eine Mischung aus akustischem Klang mit digitalen Sounds, die unseren Ohren Mehr-Wert liefert.

Für Hybridsounds gibt es vielfältige beeindruckende Beispiele. Z.B. die amerikanische Band Snarky Puppy arrangiert gerne Auftritte in Verbindung mit dem holländischen Metropole Orkest. Das folgende Beispiel ist besonders beeindruckend, da ein Synthesizer-Solo von Cory Henry integriert ist, in dem dieser ganz neue musikalische Elemente einsetzt. Die Komposition heißt The Curtain:

Hybridsounds sind meiner Ansicht nach gerade für unser Akustikpiano eine äußerst interessante Erweiterung des klanglichen Spektrums und somit des Umfangs der Ausdrucksmöglichkeiten. Gerade ein variabler Klang ist im Rahmen des emotionalen Ausdrucks ein höchst interessantes Element, das uns bekanntlich bislang am Akustikpiano nicht zur Verfügung steht. Das wird erst im Zusammenhang mit dem Hybridpiano möglich! Zum einen kann man dort individuelle Sounds gestalten. Zum anderen kann ich damit die Sounds - wir erinnern uns, das war im Rahmen der stärkeren Gestaltung des gefühlvollen Ausdrucks die Komponente Klangfarbe - passend zum jeweiligen musikalischen Kontext innerhalb der Entwicklung einer Komposition differenziert anpassen und so eben den Ausdruck meiner Performance, meines Vortrags, wesentlich verstärken. Dafür verwendet man den Fachbegriff Sounddesign, der bereits heute nicht mehr statisch, sondern dynamisch ist, wie man an dem gesamten Einsatz des Synsthesizers von Cory Henry in dem oben verlinkten Video von Snarky Puppy mit dem Song The Curtain intensiv ab Minute 7:45 nachvollziehen kann. Danach folgt ein wunderbares Piano-Solo, das die Funktion hat, mittels schlichter Melodie und dem ungestörten Pianoklang entspannend zu wirken. Hatte der Synthesizer vorher einen zum Piano kontrastreichen, regelrecht aufwühlenden Klang, so kehrt der Synthesizer ab Minute 12:15 mit einem zum Piano passenden Sound zurück und begleitet den Klavierklang noch ein Stück. Dieses Element des dynamischen Sounddesigns ist für den typischen Klavierspieler neu. Und die Gefahr besteht, dass man sich diesem Fortschritt mit der Begründung verweigert, dass Beethoven dieses Feature nicht zur Verfügung stand, es daher in den Noten auch nicht notiert und somit überflüssig ist. Das ist aber nur ein Teil der Wahrheit. Denn Beethoven konnte ja von der Rolle des Pianisten, also von der Rolle des Musikers in die Rolle des Komponisten wechseln. Dort angekommen stand ihm das gesamte Spektrum der Musikinstrumente zur Auswahl. Und so konnte er z.B. ein Konzert für Orchester komponieren und hier dann eben auch ein dynamisches Sounddesign integrieren. Grundsätzlich gehe ich davon aus, dass die Begeisterung über diese neu entstehenden Möglichkeiten viel größer als die möglichen Widerstände sein wird. Spätestens, wenn die ersten Vorbilder Ohrwürmer produziert haben, die man klanglich nur mit diesen neuen Technologien des gefühlvollen und ausdrucksstarken Spiels performen kann, werden alle diese neuen und umfassenden Werkzeuge des emotionalen Ausdrucks nutzen wollen.

Der Einsatz von Sensoren auf und in den Tasten erweitert das Spektrum des bislang vorstellbaren musikalischen Ausdrucks erheblich. Schon heute geht man davon aus, dass diese Entwicklung die Musik komplett neu ausrichten wird. Gleichzeitig erwarten vor allem die Platzhirsche, dass die Entwicklung mangels ihrer aktiven Beteiligung langsam gehen wird. Doch die Erwartungen an die Entwicklung sind aus Sicht der Musiker so stark, da es im Kern um Gefühle geht, und Musik DAS Medium für Gefühlsausdruck ist, dass schon jetzt wichtige Schritte in der Entwicklung der Tasteninstrumente beobachtbar sind. Es handelt sich um nicht weniger als die Evolution des Keyboards beziehungsweise der Klaviatur, und somit um die Keyvolution.

Im Rahmen der Keyvolution geht es um die Entwicklung der besten Bedienoberfläche. Welcher Hersteller von Klaviaturen wird den besten Weg finden, um die Sensoren zu integrieren, die wiederum dem Musiker erlauben, auf komfortable und sichere Weise dieses neue Ausdrucksspektrum zu beherrschen? Schon heute existieren unterschiedliche Lösungen bzw. sind kurz vor der Markreife, die ich Ihnen auf den folgenden Seiten vorstellen werde, um Ihnen einen Überblick über den aktuellen Ist-Stand in dieser interessanten Entwicklung zu ermöglichen.

Nach unserem Ausflug in die Welt jenseits der Klaviatur auf dieser Seite kommen wir nun auf der nächsten wieder zurück zur Klaviatur. Der bereits im vorigen Kapitel erwähnte Erfinder Roland Lamb hat nämlich einen Controller entwickelt, der immerhin schon einen so genannten Klaviatur-Form-Faktor enthält: Das Seaboard.