Technisch gesehen ist ein Vocaloid ein Software-Synthesizer mit dem eine synthetische Stimme generiert wird. Und dann kam jemand auf die Idee einen Liedtext und eine Melodie einzuprogrammieren. Das Ergebnis? Nun ja, es gibt Vocaloids die geben Konzerte mit mehreren tausenden Zuschauern.
Damit wir uns hier richtig verstehen: Fans zahlen Tickets für Konzerte eines Softwareprogramms !! Nur in Japan. Nur in Japan.
https://www.youtube.com/watch?v=Gzve2hpLeqc
Ich muss allerdings gestehen: die Konzerte sind Fun. Der Beat ist treibend. Und damit die Bühne nicht leer ist, wird eine 3D-Animecharakter mit Projection Mapping auf die Bühne gezaubert. Die Band ist in der Regel live. Also kann man schon sagen, dass es ein Live-Konzert ist. Nur ist die Band weit im Hintergrund oder hinter den Kulissen versteckt.
Der … Die (?) bekannste Vocaloid ist Hatsune Miku, gefolgt vom Duo Rin und Len.
Habe ich ein solches Konzert schon besucht? Nein. Und der einzige Grund ist, dass nie eines stattfand, wenn ich Tokyo, Osaka oder sonstwo in Japan war. Es steht noch auf meiner Bucketliste.
Und ja, Harumi klingt sehr „anime“. Das ist aber zum Teil gewollt. Zum Teil liegt es daran, dass Hatsune ein älteres System ist. Das war noch nicht perfekt. Heute könnte man es besser machen, aber das wäre dann nicht Hatsune Miku. Und die Vocaloidtechnik hat sich geradezu erschreckend weiterentwickelt. Weiter unten ist ein Lied von Crusher-P. Da kann man nicht mehr so leicht sagen, es ist ein Computer … oder doch ein Mensch (mit Autotune).
Wie fing das Ganze an?
Wie solche Dinge halt anfangen: Yamaha stellte 1998 einen Sprachsynthesizer FS1R vor, der zwischen stimmhaften (‚a‘, ‚u‘) und stimmlosen (‚f‘, ’s‘) Lauten unterscheiden konnten. Das klingt jetzt nicht nach viel, aber 1998 war das ein Knaller (zur Erinnerung: Nokia dominierte den Handymarkt und Internet auf dem Telefon war noch nicht erfunden).
FS1R war damit in der Lage Gesang zu synthetisieren. 2004 wurden die Stimmen von zwei Soulsängern synthetisiert. Dazu musste jedoch zuerst eine Stimmdatenbank generiert werden, in der jeder Laut, jede Silbe hinterlegt war. Erfolgreich war das nicht. Anders war es mit der Stimmendatenbank von Meiko Haigo und Naoto Fuga. Als Meiko und Kaito fanden sie eine (wenn auch sehr kleine) Fanbasis in der Animeszene.
2007 erschein mit Vocaloid2 eine neue Version des Synthesizer. Am 31.08.2007 gab Miku Hatsune ihr Debut. 1000 verkaufte Alben in der ersten Woche und 30.000 im ersten halben Jahr sind kein Kracher, aber wir reden hier immer noch von einer Softwarestimme.
Am 27.12.2007 folgte eine leicht variierte Datenbank unter dem Namen Rin/Len Kagamine. Am 30.01.2029 folgte Luka Megurine. Jetzt alle weiteren Vocaloids aufzulisten, würde den Rahmen dieses kleinen Artikels sprengen. Festzuhalten ist: Es ist ein Markt. Es gibt Fans. Es gibt Konzerte, auch außerhalb von ComiCon.
Fun Fact: Die Stimme vom Roboter ASIMO ist ein Vocaloid.