Der Gänsehaut-Effekt

Worum geht es bei der Musik? Auf der Suche nach einer Antwort auf diese Frage, werden zur Zeit ganze Bücher verfasst. Trotzdem werde ich hier ein kurze Antwort wagen: Es geht um Kohärenz, also um Verbundenheit. Das kann sowohl die Einheit von Denken, Fühlen und Handeln in einem selbst als auch die Verbundenheit mit der Welt bedeuten. Musik ist das Medium, das uns nach einem anstrengenden Tag wieder mit uns selbst verbindet, synchronisiert und in der Wirkung harmonisiert, uns aber gleichzeitig auch mit dem Außen verbindet. Die Besonderheit der Verbindung liegt in der Qualität. Denn es ist eine emotionale Qualität, die über die Musik transportiert wird.

Durch den musikalischen Ausdruck meiner Befindlichkeit kann ich die Gefühle anderer ansprechen. Das funktioniert über die so genannten Spiegelneurone. Wir kennen das Phänomen als Empathie. Vielleicht kennen Sie auch den Gänsehaut-Effekt, der beim Hören bestimmter Sequenzen von Musik auftritt. Nur wenn ich ausdrucksstark da gefühlvoll musiziere, geht meine Musik dem Zuhörer unter die Haut. Und nur wenn meine Musik unter die Haut geht, bekomme ich die Rückmeldung, dass ich gute Musik machen würde. Gut heißt dann ehrlich, authentisch, gefühlvoll.

Ausdrucksstark und gefühlvoll kann man aber nicht auf jedem Instrument spielen. Ist beim Klavier

  • die Spielart schwer,
  • die Mechanik ungleichmäßig reguliert,
  • der Klang nicht gleichmäßig intoniert und/oder
  • bleiben möglicherweise sogar Tasten hängen,

sind das eine Vielzahl von widrigen Gründen, die mich davon abhalten werden, eine authentisch gefühlvolle Performance leisten zu können.

So sieht die Negativseite aus. Natürlich gibt es auch eine Positivseite. Hier geht es um das Maximum an Möglichkeiten, Musik so intensiv wie möglich ausdrücken zu können. Unbestritten sind die Vorteile der Klaviatur für das 10-Finger-Spiel. Doch das Handicap der Klaviatur, die den möglichen emotionalen Ausdruck einschränken, werden als schmerzlich empfunden. Darüber spricht man nicht offen. Doch der Drang, die Beeinträchtigung ändern zu wollen, ist stärker als man glaubt! Tatsächlich existieren schon längst erste Lösungen wie man zum Beispiel Effekte in das Spiel auf den Tasten integrieren kann - allerdings nur für das Spiel mit einer Hand, da die zweite Hand benötigt wird, um die Effekte zu initiieren. Im folgenden stelle ich Ihnen den Pianist und Organist Cory Henry vor. Er spielt auf einer Orgel sowie auf einem Moog-Synthesizer. Lehnen Sie sich zurück, genießen das Stück, bei dem ab Minute 5:40 nicht nur für die Ohren von Tasteninstrumentespielern wunderbare Klänge ertönen. Das Solo kulminiert circa bei Minute 6:10 bis 6:20.

Was ist hier geschehen? Warum konnte dieses Solo unsere Stimmungslage so beeindrucken? Cory Henry hat scheinbar nur mit einer Hand die Tasten des Moog-Synthesizers gespielt. Von der Aufnahmeregie für unser Auge unsichtbar spielt die zweite Hand jedoch mit. Sie bediente entweder das Pitch-Wheel, einen Regler zum stufenlosen Verändern der Tonhöhe des gerade gespielten Tons, oder ein Modulation-Wheeel, mit dem man den Klang des soeben gespielten Tons modulieren kann. Das heißt, wir haben einen Musiker gehört, der auf einem Tasteninstrument schnelle Sequenzen mit Tonartwechseln spielt. Die Besonderheit eines solchen Wechsels der Tonart lag für unser Ohr darin, dass der Wechsel nicht wie auf einem Tasteninstrument üblich stufenweise sondern im Sinne der Intonation (Anheben oder Senken der Tonhöhe) stufenlos erfolgte. Bewusst konnten wir das gar nicht wahrnehmen. Dafür hat uns dieser Effekt des stufenlosen Wechsels in eine andere Tonart unterbewusst umso stärker beeindruckt: Er ging uns unter die Haut!

Effekte mit dem 10-Finger-Spiel am historischen Tasteninstrument gestalten

Moment mal, war das nicht früher schon möglich, Effekte zu gestalten - und zwar mit beidhändigem 10-Finger-Spiel? Ja, tatsächlich konnten wir das schon sehr früh, nämlich auf dem Clavichord. Von diesem Instrument wissen wir ja bereits, dass man damit nicht nur das 10-Finger-Spiel sondern auch Effekte wie

  • die Intonation,
  • ein Vibrato sowie
  • die Variation des Anschlags (im Charakter sanft oder einen peitschend Klang erzeugend)

realisieren kann. Aber im Wettbewerb mit anderen Tasteninstrumenten leidet das historische Tasteninstrument unter dem Handicap, sehr leise zu sein. Der Pianist Friedrich Gulda hat das Clavichord trotzdem für Konzerte ausgewählt und es für sein Publikum mittels Mikrofon verstärkt. Ihm war die Verfügbarkeit der Effekte zur Tongestaltung wichtiger als die Lautstärke eines Flügels, der ja eigentlich für einen Pianisten das angemessenere Werkzeug ist. Tatsächlich war es eine Äußerung Friedrich Guldas über die Begrenztheit der Tongestaltung am Klavier nach dem Anschlagen der Saiten, die mich für die Thematik sensibilisierte. Oder treffender formuliert: Die Feststellung Guldas, dass man den Ton des Klaviers nach dem Anschlagen nicht mehr beeinflussen kann, traf in mir auf eine (unbewusste) Resonanz.

Kennen Sie das Clavinet?

Das Clavinet ist ein Saiteninstrument mit einer im Vergleich zum Original abgewandelten Art der Tonerzeugung, die mit einem Tonabnehmer verbunden ist. Lautstärke und Charakter des Tons können durch die Stärke des Anschlags beeinflusst werden. Es ist genau genommen eine moderne Version des Clavichords. Das Clavinet erzeugt einen einmaligen Sound, der zum Beispiel zur eindeutigen Identifikation eines Songs wie Superstition von Stevie Wonder beiträgt:

Das Clavinet wurde übrigens von Hohner in Deutschland entwickelt und gebaut. Bei Hohner gab es den Ingenieur und Musiker Ernst Zacharias, der für Hohner ein ganze Reihe zeitgemäßer Varianten von Barockinstrumenten entwickelte.

Das Streichklavier

Vermutlich kannten Sie weder das Clavichord noch das Clavinet. Mit Sicherheit ist Ihnen das Streichklavier unbekannt. Es handelt sich dabei um ein Tasteninstrument, mit dem man Streicherklänge erzeugen konnte. Von diesem Instrument wurden ab dem 15. Jahrhundert verschiedene Versionen gebaut. Das Modell, von dem ich Ihnen berichten möchte, wurde erstmals im 17. und dann wieder im 20. Jahrhundert gebaut, aber von Leonardo da Vinci circa 1470 konstruiert.

Davon erzähle ich an dieser Stelle, da bereits Leonardo da Vinci von den Einschränkungen der Möglichkeiten des umfassenden emotionalen Ausdrucks über die Klaviatur gehört haben muss. Er lies sich von der scheinbaren Unlösbarkeit des Problems herausfordern und folgte dem MEM des Strebens nach der bestmöglichen Lösung. Seine Aufgabe lautete: Wie ermöglicht man Intonation an einem Tasteninstrument? Er überlegte, welches Instrument zu dem für die Musik als Ausdrucksform von Gefühlen besonderen Effekt der Intonation imstande ist, und entschied sich für ein Streichinstrument. So entstand der Entwurf eines zur Intonation fähigen Tasteninstruments mit Streicherklängen. Im folgenden Video sehen und hören Sie den polnischen Erbauer Tygodnik Powszechny mit englischen Untertiteln.

Das Clavimonium: Die alte Sehnsucht nach Mehr-Klang

Der Wunsch nach Klangvielfalt als ein musikalisches Mittel zur Gestaltung des Ausdrucks ist nicht neu, sondern schon ziemlich alt. Die Sehnsucht war so stark, dass schon die Pianoforteverfertiger (frühere Fachbezeichnung für Klavierbauer) motiviert waren, diese Eigenschaft im Pianoforte anbieten zu können. Das, was in der Orgel an Klangvielfalt möglich war, musste doch wenigstens zu einem kleine(re)n Teil auch im Piano möglich sein!

Scherer Klavier-Harmonium, auf den ersten Blick ein normales Klavier Scherer Klavier-Harmonium, der Blick auf die Mechanik des Akustikpianos

Das 19. Jahrhundert war von Entwicklern geprägt. Eine Vielzahl ganz wesentlicher Erfindungen fand in dieser Zeit statt. Folglich wurden auch die Klavierbauer vom Zeitgeist inspiriert. In diesem Abschnitt stelle ich Ihnen die Kategorie von hybriden Tasteninstrumenten vor, die man Clavimonium, oder Klavier-Harmonium nennt. Mein Kollege Dieter Gocht hat auf seinen interessanten Webseiten dazu bereits recherchiert. Es handelt sich um Instrument mit einer Klaviatur, über die man sowohl Klavierklang als auch Harmoniumklänge erzeugen kann. Das für unser Thema Wesentliche dieser bereits 1864 erstmal durchgeführten Kombination ist der Freiheitsgrad, den man ganz selbstverständlich dem Musiker öffnete. Denn am Clavimonium konnte man nur Klavier bzw. nur Harmonium spielen, aber auch Klavier- und Harmoniumklang mit einer zu einem Hybridsound verbinden.

2 Blasebalge unter dem Spieltisch mit den Bedienpedalen für die Füße

Bestimmt sind Sie schon neugierig, wie so etwas klingt? Unter diesem Text finden Sie ein Hörbeispiel des Hybridsounds aus gleichzeitigem Klavier- und Harmoniumklang. Dabei hat es gleich am Anfang für Klavierspieler ungewohnte Nebengeräusche des Betätigens der beiden großen Blasebalge des Harmoniums. Aber der Mitte des Hörbeispiels klemmte wohl ein Ton des Harmoniums, was natürlich eine massive Störung für die Hörfreude ist. Daher habe ich das Hörbeispiel schon früher ausklingen lassen.

Das Spiel auf einem Clavimonium ist sowohl koordinativ als auch konditionell anspruchsvoll. Für Klavierspieler ungewohnt muss man die Luft fürs Harmonium durch ständiges Treten der großen Pedale in der Mitte erzeugen. Darüber hinaus muss man mit seinen Knien Hebel auseinanderdrücken sowie beim hybriden Kombinationsspiel den rechten Hebel auch dauerhaft in einer bestimmten Position halten. Dieses Bedienkonzept war also nicht besonders komfortabel.

Interessant ist, dass der Harmoniumklang wie bei modernen Silent- oder Hybridpiano unter der Taste aktiviert wird. Um diesen Kontakt herstellen zu können, ist hier jedoch unten an der Taste eine Schraube angebracht, die dann den Kontakt auslöst.

Schraube unter der Taste als Auslöser für Harmoniumklang Sensor unter der Taste als Auslöser für Harmoniumklang

Der Artikel wurde am 17.10.2022 veröffentlicht. Das Klavierharmonium stand damals zum Verkauf. Es fand schnell einen Käufer.

Unbegrenzte Möglichkeiten der Tongestaltung jenseits der Klaviatur

Die natürlichen Einschränkungen der Klaviatur haben dazu geführt, dass in den letzten Jahren zahlreiche Entwickler nach Möglichkeiten jenseits der Klaviatur gesucht haben. Gefunden wurde eine Vielzahl von kreativen Lösungen. Das erstaunt grundsätzlich immer wieder aufs Neue, da bislang kaum ein öffentliches Wehklagen über die Mängel der Tasteninstrumente zu hören war. Doch tatsächlich gibt es dazu sogar eine Wunschliste der Pianisten, die man jedoch nur entdeckt, wenn man zwischen den Zeilen liest. Nun wollen wir aber den Blick nicht mehr nach hinten, sondern nach vorne auf die teils ausgefallen Entwürfe von neuen Musikinstrumenten mit der Intention der Verbesserung der emotionalen Ausdrucksmöglichkeiten richten:

Der Musiker Jordan Rudess hat ein feines Händchen für außergewöhnliche Bedienoberflächen:

All die oben aufgeführten Beispiele nennt man Controller. Das heißt, es handelt sich um unterschiedliche Bedienoberflächen, die mit Sensoren neue Möglichkeiten zur Datenerfassung besitzen. Die ermittelten Daten werden als Kommandos interpretiert, die einen externen Klangerzeuger über eine Schnittstelle namens MIDI steuern.

MIDI = Musical Instrument Digital Interface

Den kompliziert klingenden Titel übersetzt Wikipedia in den besser verständlichen Satz:

Digitale Schnittstelle für Musikinstrumente.

Über diese Schnittstelle können zusätzlich zur Tonhöhe und Lautstärke der gerade gedrückten Tasten, also zu den rein musikalischen Daten wie sie in der Notenschrift festgehalten werden, Informationen zur Steuerung wie zum Beispiel Ton an oder Ton aus übertragen werden. Außerdem lässt sich über diese Schnittstelle der Klang verändern, Effekte zu- und abschalten. MIDI wurde bereits 1982 entwickelt.

Die zeitgemäßen Möglichkeiten bieten uns eine Bedienoberfläche, die aktuell nur in Ausnahmefällen in Zukunft vermutlich aber als Standard mit Sensoren ausgestattet ist, ein umfassendes Datenformat namens MIDI und eine externe Klangquelle. In der digitalen Welt ist die externe Klangquelle ein Synthesizer oder eine Klangbibliothek aus Samples. Das haben wir auf unserem Rechner in einer so genannten Digital Audio Workstation (DAW) organisiert und verpackt. In einer DAW können wir Musik einspielen, aufzeichnen sowie nachträglich bearbeiten. Die DAW enthält Synthesizer und/oder Samples als Klangerzeuger, mit denen man Presets (voreingestellte Klangkombinationen) erstellen, speichern und nach Belieben aufrufen kann.

In dem zuletzt vorgestellten Video eines Controllers (Jordan Rudess spielt den Soundplane Encounter) haben Sie aber nicht nur MIDI erlebt, sondern zusätzlich ein neues Datenerfassungsformat, nämlich Multidimensional Polyphonic Extression (MPE), von dem man sagt, es sei die Zukunft von MIDI. Die Abkürzung MPE wird übrigens auch mit MIDI Polyphonic Expression übersetzt.

MIDI 2.0

Worum geht es nun bei der Aktualisierung des MIDI-Standards von 1.0 auf 2.0? Grundsätzlich geht es um das Bestreben, aus dem bisherigen Schmalspur-Angebot ein zur Akustik wettbewerbsfähiges Breitbandpotenzial zu ermöglichen. Mit anderen Worten: MIDI soll zur analogen Welt des Akustischen vollwertige werden! Das bedeutet konkret,

  1. MIDI 1.0 hatte 128 Differenzierungsstufen. MIDI 2.0 soll ein hochauflösendes Angebot erzeugen und bekommt daher 64.000 Stufen.
  2. MIDI 2.0 soll ausdrucksstärker werden. Und zwar soll es nicht nur mehr Ausdruck als bei MIDI 1.0 erlauben, sondern das Spektrum der Ausdrucksmöglichkeiten vollständig erfassen und zugänglich machen. Konkret geht es hier unter anderem um Effekte. Diesbezüglich waren Tasteninstrumente bislang traditionell extrem limitiert. Das ändert sich jetzt mit dem bereits in MIDI 2.0 integrieren neuen Standard MPE (MIDI Polyphonic Expression) grundlegend.

Sehen Sie eine Einführung in MIDI 2.0:

Ausdrucksstark da gefühlvoll Klavier spielen

MPE = Multidimensional Polyphonic Expression

Das Datenformat MPE ermöglicht es, mittels neuer Sensoren Fingerbewegungen auf einer Oberfläche zu erfassen, und in beliebig programmierbare Effekte zu transformieren. In Verbindung mit der digitalen Klangerzeugung kann man also festlegen, welche Klangmuster von welchen Fingerbewegungen ausgelöst werden. Damit bekommt das Bedienen von sensiblen Oberflächen eine neue Dimension. Wir kennen diese Möglichkeiten bereits vom Touch-Screen unserer Smartphones und Tablets. Neu ist der Transfer auf Bedienoberflächen von Musikinstrumenten.

Was bedeutete diese Erweiterung des Spielraums für die Musik? Babies kommen mit einer starken musikalischen Veranlagung auf die Welt. Wenn sie uns Erwachsene Reden hören, dann verstehen sie unser Gebrabbel als Musik. Denn Sprache setzt sich zusammen aus der

  • Betonung,
  • Sprachmelodie,
  • dem Sprachrhythmus,
  • Sprechtempo sowie
  • der Tonlage.

Intuitiv wissen wir Erwachsene, dass dieser Prozess des Sprechens von Kleinkindern als Musik verstanden wird. Daher sprechen wir auch nicht mit den Babies, so wie wir Erwachsene uns untereinander unterhalten. Nein, wir singen eher, wenn wir die Kleinen ansprechen, d.h., wir übertreiben die Sprachmelodie. Kleinkindern gelingt es über diese musikalischen Strukturen in das Sprechen der Erwachsenen ein Muster zu bekommmen, aus dem Schritt für Schritt Kindersprache entsteht.

Wenn die Kinder dann zunehmend fit im Umgang mit den sprachlichen Mitteln werden und als Jugendliche oder Erwachsene ihre Emotionen mittels Sprache ausdrücken, dann gelingt das, indem sie wieder diese musikalischen Sprachelemente entsprechend gestalten:

  • Die Betonung,
  • Tonlage (Stimmlage vergleichbar mit der Tonart A-, H-, C-, D-Dur/Moll,...),
  • Klangfarbe (dunkel - hell, warm - kalt,...),
  • Sprechgeschwindigkeit.

Wollen wir nun in der Musik besonders gefühlvoll und ausdrucksstark spielen, dann müssen wir also z.B. die

  • Tonlage,
  • Akzentuierung (Betonung),
  • Klangfarbe und/oder
  • Rhythmus und Tempo

verändern bzw. variieren. Doch z.B. bei den analogen Tasteninstrumenten wie dem Klavier konnte man bislang die Tonlage nur in Halbtonschritten verändern. Die musikalische Intonation, also das geringfügige Erhöhen und Erniedrigen von Tönen war bislang nicht möglich. Unmöglich ist am Akunstikpiano weitgehend auch die Veränderung der Klangfarbe. Anmerkung: Geringfügig kann die Klangfarbe vor allem am Flügel durch Betägigen des Una-Corda-Pedals verändern, bei dem eine Saite weniger pro Ton angeschlagen wird. Auch in Verbindung mit der Anschlagsintensität verformt sich geringfügig die Auftrefffläche Filz auf den Saiten des Akustikpianos. Doch der Effekt ist relativ gering. All die explicit genannten Elemente zur Gestaltung eines gefühlvolleren Ausdrucks in der Musik werden nun über die Beteiligung der digitalen Elemente z.B. in der Kombination aus Akustik- und Digitalpiano im Hybridpiano möglich, indem die Tasten mit Sensoren ausgestattet werden und somit mittels des neuen Standards für Ausdruck MIDI Polyphonic Expression (MPE) diese Effekte für einzelne Taste getrennt zur Verfügung stehen.

Dank des besonders engagierten Designers, Unternehmers und Musikers Roland Lamb erfuhr das neue Format MPE in der Defintiion als MIDI Polyphonic Expression anlässlich der NAMM 2018 höchste Anerkennung. Denn die MIDI Manufacturers Association (MMA) fasste am 28. Januar 2018 den Beschluss, das MPE-Format als Standard zu übernehmen.

MPE triggert die Keyvolution

Mit der Erweiterung des MIDI-Standards durch MPE, hat man das ausdrucksstarke und somit gefühlvolle Musizieren als ein besonders wichtiges Ziel definiert. Man hatte beschlossen, die Technologie auf dieses Ziel hin auszurichten. Das war eine Neuigkeit, die nachfolgend Wesentliches veränderte. Die Entwicklung unseres Akustikpianos endete genau genommen 1870. Nachfolgend ging es im Wesentlichen nur noch um die Produktion und Verbreitung dieses Instruments. Geht um das Thema Entwicklung, so bestimmte vor allem die Entwicklung der Elektronik sowie der Digitalisierung die weitere Entwicklung der Tasteninstrumente. Entsprechend dem eingangs erläuterten MEM der Hersteller von Tasteninstrumenten, fand die Erweiterung der bisherigen Möglichkeiten in Bezug auf den Klang statt. Die neuen Keyboards waren nicht mehr auf einen Klang festgelegt. Zuerst entwickelte man das synthetische Klangpotenzial. Mit der schneller werdenden Datenverarbeitung wuchs die Bedeutung von Samples, den digitalisierten Aufnahmen des Originalklangs. Aktuell gewann eine neue Klang-Kategorie an Bedeutung, nämlich die Hybridsounds, eine Mischung aus akustischem Klang mit digitalen Sounds, die unseren Ohren Mehr-Wert liefert.

Für Hybridsounds gibt es vielfältige beeindruckende Beispiele. Z.B. die amerikanische Band Snarky Puppy arrangiert gerne Auftritte in Verbindung mit dem holländischen Metropole Orkest. Das folgende Beispiel ist besonders beeindruckend, da ein Synthesizer-Solo von Cory Henry integriert ist, in dem dieser ganz neue musikalische Elemente einsetzt. Die Komposition, die ich Ihnen beispielhaft vorstellen will, heißt The Curtain:

The Curtain - Snarky Puppy

Achtung! Dieses Video ist mit Werbung versehen. Daher kann man das Video nicht in die Seite einbinden. Stattdessen müssen Sie zu der Plattform Youtube, zu der dieser Link führt, um dort das Video sehen zu können. Aber dort können Sie (Stand 2023) vor dem Betrachten des Videos die Bedingungen von Youtube ablehnen. Ferner können Sie in Ihrem Browser ein Plugin installieren, das Werbung unterbindet. Diese Unterprogramme werden in den jeweiligen Browser-Rubriken unter Einstellungen und dort unter Erweiterungen offiziell angeboten.

Warum nötige ich Sie zu einem Youtube-Besuch? Nun, diese Aufnahme, auf die ich verlinkt habe, ist von den verschiedenen zugänglichen Aufnahmen die Beste. Sie ist auch käuflich erhältlich. Und zwar für den günstigen Preis von 18,99 Euro bekommt man nicht nur eine CD, sondern auch eine DVD mit dieser und weiteren Aufnahmen. Hier finden Sie den Link zu dem Album Sylva. Eine weitere interessante Aufnahme des Songs The Curtain, live aufgenommen am 7. Mai 2015 im Olympia in Paris, finden Sie ebenfalls bei Youtube. Jede Aufführung der Band Snarky Puppy ist ein Unikat, nicht etwa eine Wiederholung der Einspielung. Und so hört man bei dieser Aufnahme, dass das von Bill Laurence gespielte langsam ausklingende Klaviersolo mit überblendtem Synthesizer, gespielt von Cory Henry, circa ab Minute 15:00 stärker ausgebaut worden ist. Bei dieser Aufnahme kann man das Potenzial von Hybridsounds deutlicher als beim oben hinter dem Bild verlinkten Original zu hören ist. Dort ist das Einstimmen des Synthesizers zum Ende des Klaviersolos (circa Minute 12:00) perfekt dezent, also genau genommen unmerkbar, erst wenn der Synthesizer etwas lauter wird, stellt man fest, dass hier plötzlich eine zweite Klangquelle ist, und man fragt sich, wo die hergekommen ist. Genauso dezent, wie Cory Henry mit seinem Moog-Synthesizer zum Pianoklang eingestiegen ist, endet beim Original dieser Part sanft ausklingend, und das Orchester setzt ein. Kaum wahrnehmbar beginnen die Streicher und dann übernimmt die Breite des Orchesterklangs sanft die Ohren des begeisterten Publikums. Die Vielfalt des Klangs in seiner ganzen Breite macht dem sinnlichen Zuhörer Lust auf mehr von dieser Klangwelt als ein zeitgemäßes Medium des musikalischen Ausdrucks.

Hybridsounds sind meiner Ansicht nach gerade für unser Akustikpiano eine äußerst interessante Erweiterung des klanglichen Spektrums und somit des Umfangs der Ausdrucksmöglichkeiten. Gerade ein variabler Klang ist im Rahmen des emotionalen Ausdrucks ein höchst reizvolles Element, das uns bekanntlich bislang am Akustikpiano nicht zur Verfügung steht. Das wird erst im Zusammenhang mit dem Hybridpiano möglich! Zum einen kann man dort individuelle Sounds gestalten. Zum anderen kann ich damit die Sounds - wir erinnern uns, das war im Rahmen der stärkeren Gestaltung des gefühlvollen Ausdrucks die Komponente Klangfarbe - passend zum jeweiligen musikalischen Kontext innerhalb der Entwicklung einer Komposition differenziert anpassen und so eben den Ausdruck meiner Performance, meines Vortrags, wesentlich verstärken. Dafür verwendet man den Fachbegriff Sounddesign, der bereits heute nicht mehr statisch, sondern dynamisch ist, wie man an dem gesamten Einsatz des Synsthesizers von Cory Henry in dem oben mit dem Bild verlinkten Video von Snarky Puppy mit dem Song The Curtain intensiv ab Minute 7:45 nachvollziehen kann. Danach folgt ein wunderbares Piano-Solo, das die Funktion hat, mittels schlichter Melodie und dem ungestörten Pianoklang entspannend zu wirken. Aus Sicht des Sounddesigns kann ich meine obigen ersten Erläuterungen zu dem Song folgendermaßen ergänzen: Man wechselt beim wiederholten Hören als Medium zur Bewusstwerdung der vermittelten Inhalte derart die Perspektive, indem man nicht mehr nur einzelne Details, also im Song Anfang und Ende eines musikalischen Parts, sondern den ganzen musikalischen Part betrachtet: Hatte der Synthesizer vorher einen zum Piano kontrastreichen, regelrecht aufwühlenden Klang, so kehrt der Synthesizer circa ab Minute 12:00, deutlich wahrnehmbar ab 12:15 mit einem zum Piano passenden Sound zurück und begleitet den Klavierklang gemeinsam mit dem Bass noch ein Stück. Deartige Elemente des dynamischen Sounddesigns sind für den typischen Klavierspieler neu. Und die Gefahr besteht, dass man sich diesem Fortschritt mit der Begründung verweigert, da z.B. dem Pianisten Beethoven am Piano dieses Feature nicht zur Verfügung stand, es daher in den Noten auch nicht notiert und somit überflüssig ist. Das trifft übrigens tatsächlich für das Sostenuto-Pedals zu, das durch eine Abwandlung der Erfindung von 1844 von Jean Lous Boisselot von Steinway bekannt gemacht worden ist. Der Einsatz dieses Pedals steht in keinen Noten. Dennoch wird das 3. Pedal mit dieser Funktion im Flügel bis heute von allen Flügelherstellern kopiert - weil (Albert) Steinway sich seine Abwandlung 30 Jahre später patentieren ließ.

Zurück zu Beethoven und seinem Umgang mit seinen zeitgemäßen Möglichkeiten: Dass Beethoven an seinem Pianoforte kein Sounddesign kannte, ist nur ein Teil der ganzen Wahrheit. Denn Beethoven konnte ja von der Rolle des Pianisten, also vom Musiker zur Rolle des Komponisten wechseln. Dort angekommen stand ihm das gesamte Spektrum der Musikinstrumente zur Auswahl. Und so konnte er z.B. ein Konzert für Orchester komponieren und hier dann eben auch ein dynamisches Sounddesign integrieren.

Grundsätzlich gehe ich davon aus, dass in der vor uns liegenden Zukunft die Begeisterung über diese neu entstehenden Möglichkeiten des musikalischen Ausdrucks über Touchkeys in Sensorpianos viel größer als die möglichen Widerstände sein wird. Spätestens, wenn die ersten Vorbilder Ohrwürmer produziert haben, die man klanglich nur mit diesen neuen Technologien des gefühlvollen und ausdrucksstarken Spiels performen kann, werden alle Tasteninstrumentespieler diese neuen und umfassenden Werkzeuge des emotionalen Ausdrucks nutzen wollen.

Der Einsatz von Sensoren auf und in den Tasten erweitert das Spektrum des bislang vorstellbaren musikalischen Ausdrucks erheblich. Schon heute geht man davon aus, dass diese Entwicklung die Musik komplett neu ausrichten wird. Gleichzeitig erwarten vor allem die Platzhirsche, dass die Entwicklung mangels ihrer aktiven Beteiligung langsam gehen wird. Doch die Erwartungen an die Entwicklung sind aus Sicht der Musiker so stark, da es im Kern um Gefühle geht, und Musik DAS Medium für Gefühlsausdruck ist, dass schon jetzt wichtige Schritte in der Entwicklung der Tasteninstrumente beobachtbar sind. Es handelt sich um nicht weniger als die Evolution des Keyboards beziehungsweise der Klaviatur, und somit um die Keyvolution.

Im Rahmen der Keyvolution geht es um die Entwicklung der besten Bedienoberfläche. Welcher Hersteller von Klaviaturen wird den besten Weg finden, um die Sensoren zu integrieren, die wiederum dem Musiker erlauben, auf komfortable und sichere Weise dieses neue Ausdrucksspektrum zu beherrschen? Schon heute existieren unterschiedliche Lösungen bzw. sind kurz vor der Markreife, die ich Ihnen auf den folgenden Seiten vorstellen werde, um Ihnen einen Überblick über den aktuellen Ist-Stand in dieser interessanten Entwicklung zu ermöglichen.

Nach unserem Ausflug in die Welt jenseits der Klaviatur auf dieser Seite kommen wir nun auf der nächsten wieder zurück zur Klaviatur. Der bereits im vorigen Kapitel erwähnte Erfinder Roland Lamb hat nämlich einen Controller entwickelt, der immerhin schon einen so genannten Klaviatur-Form-Faktor enthält: Das Seaboard.