Big Data und Radio

Warum brauchen Radiosender Big Data?
Entwicklungen – Herausforderungen – Zukunftsperspektiven

Die Anfänge von Radio im Internet

Um zu verstehen, warum bisher weniger Daten erfasst wurden, muss man sich die Anfänge des Streamings von Radioprogrammen ansehen. Bis vor wenigen Jahren konnte nur ein Datensatz pro Hörersession gespeichert werden. Darin wurden das Ende der Verbindung, die Dauer, das gehörte Programm und die Gerätekennung festgehalten. Allerdings lagen diese Informationen erst nach Ende der Session vor – eine Echtzeit-Auswertung war kaum möglich.

Doch warum wurden nicht mehr Daten erfasst? Der Grund war die geringe Speicherkapazität zur damaligen Zeit. Denn die Standardlösungen des Audiostreamings stammen aus den 2000er Jahren. Damals waren mehr als zehn Gigabyte noch Luxus und entsprechend kostenintensiv. Die gleichen Standardlösungen kommen auch heute noch bei vielen Streaming-Dienstleistern zum Einsatz, und es werden dort auch weiterhin nur dieselben Daten wie früher aufgezeichnet.

Was kann die heutige Technik

Neue Technologien und der enorme Preisverfall bei Speicherkapazitäten machen es nun aber möglich, wesentlich mehr Datensätze zu erfassen. Daraus resultiert jedoch auch eine neue Herausforderung: die gewonnenen Informationen müssen effizient ausgewertet werden, um sie überhaupt nutzen zu können. 

Zum besseren Verständnis kann man sich eine Excel-Tabelle mit einer Milliarde Zeilen vorstellen. Darin zu finden sind Angaben über Hörerverhalten, Werbeausspielung und vieles mehr. Um in dieser Informationsflut den Überblick zu behalten, benötigt man Big Data. Denn die Menge an Information, welche heute beim Audiostreaming entsteht, muss nicht nur gespeichert, sondern auch verarbeitet, analysiert und aufbereitet werden.

Während früher alles in einem Datensatz gespeichert wurde, wird mittlerweile für jede Information ein neuer Datensatz geschrieben.

Beispiele für erfasste Informationen:

  • der Hörer schaltet ein 

  • was hört der Hörer gerade 

  • bei welchem Element springt der Hörer ab

  • die Hörersession soll einen Preroll-Spot bekommen

  • Anfrage an den AdServer

  • Bekommt die Plattform einen Spot vom AdServer geliefert 

Für die QuantumCast-Plattform bedeutet das Folgendes: im Schnitt werden pro Hörersession 100 Datensätze gespeichert. Bei einem durchschnittlichen Radiosender werden pro Tag ca. 100.000 Hörersessions gezählt. Das entspricht zehn Millionen Datensätzen pro Tag bei nur einem Sender.

Unter Beachtung der DSGVO-Regeln lassen sich all diese Hörersessions genau verfolgen und individuell auswerten. Jeder Vorgang wird dabei als Event bezeichnet. 

Beispiel für eine Folge von Events:
Der Hörer startet den Stream >> der Trigger für den Spot löst aus >> eine Anfrage beim AdServer wird gestellt >> der Spot kommt >> hört der Hörer den Spot vollständig?

Während der Hörer also Radio hört, werden ständig Daten erfasst und ausgewertet. Und dies geschieht zum größten Teil in Echtzeit. 

Programmmacher können sich also direkt selbst viele Fragen beantworten:
Wie viele Hörer habe ich auf meinem Channel?
Wie viele Spots laufen in diesem Augenblick?
Wie viel Geld verdiene ich gerade?

Mit Big Data lassen sich auch verschiedene Probleme im Handumdrehen lösen, bei den früher eine aufwändige Analyse betrieben werden musste. 

Beispiel:
Ein Hörer hört angeblich keinen Spot. Allerdings werden die Spots individuell ausgespielt und nicht jeder Hörer bekommt immer Werbung im Stream. Durch Big Data sieht man nun sofort, ob ein Fehler vorliegt oder ob der AdServer keinen Spot zur Verfügung gestellt hat.

Genauer Forecast und Vollautomatisierung 

In Zukunft wird es Big Data ermöglichen viel genauere Prognosen zu treffen. Da jede Aktion registriert wird, werden unzählige Informationen verarbeitet. Datenanalysten können darin Zusammenhänge finden. 

Beispiel:
Es wäre theoretisch möglich die Programme oder sogar einzelne Songs, bei denen die Hörer abschalten, mit Wetterdaten in Beziehung zu setzen. Vielleicht ließe sich dann schlussfolgern: Wenn das Wetter schön ist, schalten die Menschen den Song XYZ eher ab.

Doch die Kurven und Auswertungen sind nur der aktuelle technische Stand und ein Zwischenprodukt auf dem Weg zum nächsten Upgrade. Denn noch immer müssen Menschen die stetig mehr werdenden Programme auf Grund der Daten manuell beeinflussen. In Zukunft kann das vollautomatisiert ablaufen. Die Daten, welche durch Big Data generiert und ausgewertet werden, steuern dann automatisch das Generieren vieler personalisierter Programme – und das natürlich auch mit professionellem Radiosound. 

Mehr Informationen unter pr@quantumcast.info.

Zurück
Zurück

Newsletter

Weiter
Weiter

Pressemitteilung