Noch braucht es den “menschlichen Faktor” nicht nur für die Bezahlung von Musik. Aber die Algorithmen für die Geschmacks-Beurteilung sind in Arbeit.
Es ist nur ein kleiner Artikel, den Charles DuHadway vor ein paar Wochen im Blog seiner Firma postete. Charles DuHadway ist ein junger, akkurat frisierter, blonder Bursche, der als Idealbesetzung in jedem amerikanischen Highschool-Film durchgehen würde – nur nicht als Nerd. DuHadway ist aber “Software Engineer”, Programmierer also, und er arbeitet für Google, genau genommen beim Google-Projekt “Music Slam” – einem (derzeit nur in den USA verfügbaren) Wettbewerb von Amateurmusikern, die bei Google ihre Videos einstellen und so “entdeckt” werden wollen. Das sei allerdings, so verrät DuHadway, schon deshalb schwierig, weil derzeit an jedem einzelnen Tag Videos mit einer Gesamtlänge von acht Jahren hochgeladen würden. Hier groß rauszukommen – und somit der nächste Justin Bieber zu werden – ist also nach menschlichem Ermessen weniger eine Talentfrage als ein reines Glücksspiel, unkalkulierbar und mit extrem geringer Trefferwahrscheinlichkeit.
Aber wir reden hier von einer Firma, in deren Philosophie Begriffe wie “Zufall” oder “Glück” tabu sind. “Wir fragten uns, ob man diese Videos mit akustischer Analyse und maschinellem Lernen überprüfen könnte, um talentierte Musiker automatisch identifizieren zu können.” Es ist eine rhetorische Fragestellung, versteht sich, denn es gehört natürlich ebenso zur Philosophie von Google, dass man die Funktion der Welt im Innersten erkennen kann – mit ausreichend Rechnerpower und den richtigen Algorithmen. Über bisher bekannte Musik-Analysesysteme geht das Anliegen, den Hit, gar den Star, automatisch zu erkennen, weit hinaus.
Hats damit auch ohne Algorithmus geschafft: Justin Bieber.
Musik zu analysieren, ist keine neue Idee. Seit der Antike gehören Kenntnisse über Harmonik und Rhythmik zum grundlegenden Handwerkszeug von Komponisten. Die Harmonielehre – ihre verbürgten theoretischen Wurzeln liegen im frühen 18. Jahrhundert – fasst zusammen, wie Klänge und ihre Kombinationen so gestaltet werden können, dass sie dem menschlichen Gehör als angenehm oder unangenehm erscheinen. Jeder Hobby-Gitarrist lernt heutzutage zuerst jene Akkord-Folgen, die als besonders eingängig gelten. Welche Regeln es noch gibt, ein “gutes” Stück Popmusik zu komponieren, ist wiederum Handwerkszeug einer nicht eben kleinen Liga von Hit-Schreibern. Deren Anzahl in Deutschland kann man vielleicht am ehesten – und selbstredend sehr grob und spekulativ – mit jenen gut 3.000 GEMA-Mitgliedern quantifizieren, die ungefähr zwei Drittel aller in Deutschland erwirtschafteten Musik-Tantiemen kassieren, die also die am meisten gespielten und demzufolge gehörten Musikstücke abgeliefert haben (»Hier geht’s zum GEMA-Dossier von motor.de)
Von Hörerseite aus ist die Situation erst in der Neuzeit radikal verändert. Über Generationen hinweg war es Experten vorbehalten, Musik auch nur zu identifizieren. Voraussetzung waren ein akustisches Gedächtnis und die Lesefähigkeit für Notenblätter. Erst im Zeitalter der technischen Reproduzierbarkeit von Musik – also seit gut hundert Jahren – gibt es die zumindest theoretische Option, ein jederzeit verfügbares vergleichendes Hörbeispiel im Archiv zu haben. Erst im Internetzeitalter beginnt dieses Archiv, universal umfassend zu werden; losgelöst von persönlichem Recherche- und Beschaffungsaufwand. Inzwischen lassen sich mit Handy-Apps wie Soundhound oder Shazam erstaunlich korrekte Ergebnisse zu Titel und Interpret erzielen, wenn man mal wieder irgendeinen Song im Radio oder Club hört, der nachforschenswert ist. Ebenfalls eine unabdingbare Grundlage für den Erfolg eines Musikstücks: die Empfehlung von Musik. Auch diese ist dem Status des Vertrauensverhältnisses zwischen Freunden oder der individuellen Beratungskompetenz des Plattenhändlers erst in den letzten Jahren entwachsen. Jeder ernstzunehmende Online-Musikhändler oder -Streamingdienst empfiehlt weitere Songs, die zum bisher gekauften oder gehörten passen. Ermittelt werden diese meist durch reine Statistik; die Empfehlung beruht auf einer Auswertung von Kauf- und Hörgewohnheiten anderer Nutzer.
Das ist ein Talent – sagt der Algorithmus.
Google ist da schon weiter. Der soeben in den Staaten gestartete Online-Musikdienst von Google bietet auch die Option “Instant Mix”. Deren Empfehlung basiert – soweit man das bei Google durchblicken lässt – hauptsächlich nicht auf bisher erfassten Hörgewohnheiten, sondern vor allem auf einer melodischen und rhythmischen Analyse der Songs an sich. Es werden also Stücke angeboten, die den schon gehörten strukturell gleichen. Die Videoanalyse bei “Music Slam” basiert auf diesem Modell und treibt es weiter. Sie soll nicht nur die Beschaffenheit eines dargebrachten Songs untersuchen und mit bisherigen Erfolgen vergleichen, sondern sogar, ob es sich wirklich um unprofessionelles Material handelt. Dazu dienen Kennwerte wie Beleuchtung, Kameraeinstellung oder die Nicht-Fülle verwendeter Instrumente, die offensichtlich allesamt auch maschinell messbar sind.
Ergänzt wird das jedoch immer noch durch den “menschlichen Faktor”. “Wir wissen, dass Maschinen den nächsten großen Star nicht allein auswählen können”, merkt DuHadway denn auch an. Die Algorithmen sorgen bislang nur dafür, dass potenziell erfolgverheißende Kandidaten in der Warteschlange der Aufmerksamkeit bewusst nach vorn gerückt werden. Die Abstimmung über die Mehrheitsfähigkeit bleibt den Usern vorbehalten. Wobei man sicher sein kann, dass auch dies wieder eine erweiterte Datenbasis für forcierte Modelle darstellt, die weitere Kriterien für Beliebtheit herauszufiltern versuchen. So kann vielleicht – das ist das grundlegende Google-Prinzip – eine erhöhte Trefferwahrscheinlichkeit erzielt werden. Irgendwann – nicht mehr all zu lange hin – wird Google vielleicht auch in der Lage sein, die Wirkung eines Bubi-Charmes zu berechnen, den ein Justin Bieber-Nachfolger auf Millionen von minderjährigen Mädchen hat. Das wäre wieder ein verdammt gutes Geschäftsmodell.
Augsburg
No Comment