Lade Inhalt...

Das Ende des Verkaufsschlagers

Kritische Analyse zur These des Long Tails unter der Beachtung von Big Data Verfahren und dem Ansatz des Tipping Points

Bachelorarbeit 2014 67 Seiten

BWL - Offline-Marketing und Online-Marketing

Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Die Long Tail Theorie
2.1 Defintion „Long Tail“
2.2 Das Ende des Vekaufsschlagers
2.2.1 Das Ende der Musikhits

3. Big Data
3.1 Defintion „Big Data“
3.1.1 Die drei V´s von Big Data
3.1.2 Formen von Analysen
3.2 Big Data Anwendungen
3.2.1 Algorithmen
3.2.2 Programme
3.3 Datengenerierung für Big Data Analysen
3.3.1 Datengenerierung durch Kommunikation
3.3.1.1 Datengewinnung durch kommunikative Netzwerke
3.3.2 Datengenerierung durch Selbstvermessung
3.3.3 Datengenerierung durch Offline Analysen
3.4 Datenschutz

4. Tipping Point
4.1 Definition Tipping Point
4.1.1 Soziale Epidemien
4.1.2 Die drei Regeln des Tipping Points
4.1.2.1 Das Gesetz der Wenigen
4.1.2.2 Der Verankerungsfaktor
4.1.2.3 Die Macht der Umstände
4.1.3 Fallbeispiel

5. Der Long Tails unter der Beachtung von Big Data und dem Tipping Point
5.1 Der Long Tail in Verbindung mit Empfehlungssystemen
5.2 Der Long Tail und die drei Regeln des Tipping Points
5.2.1 Das Gesetz der Wenigen in Verbindung mit Big Data
5.2.2 Der Verankerungsfaktor und Social Media Monitoring
5.2.3 Die berechenbare Macht der Umstände
5.3 Vorausschauende Analysen
5.4 Surge Pricing

6. Fazit

Literaturverzeichnis

Anhang

I Abbildungen

II Eidesstattliche Erklärung

1. Einleitung

Dank des Internets sind Konsumenten heutzutage in der Lage auf eine nahezu grenzenlose Auswahl von Produkten zurückgreifen zu können. Es liegt daher nahe, dass sich der Markt und das Konsumentenverhalten dadurch verändern. Laut Chris Anderson wird es sogar eine Revolution geben, die schon langsam beginnt. Anderson beschreibt in seinem Buch „The Long Tail“ die zunehmende Bedeutung für Nischenartikel und damit das mögliche Ende von Bestsellern. Diese These gewann 2004 ein großes Publikum und ist seitdem stark diskutiert worden (vgl. Elberse 2008, 73f). Wenn Anderson Recht behält, ist es vorstellbar, dass Verbraucher ihr Konsumverhalten individueller entwickeln können als zuvor und somit Hits, die allgemein bekannt sind, langsam abklingen. Daher gäbe es nur noch sehr vermindert Produkte, über die die Allgemeinheit sprechen könnte.

Diese Ansicht scheint allerdings, mit Betrachtung auf neue Auswertungsmethoden, überholt zu sein. Eine dieser Methoden wird in den Medien seit 2013 immer stärker diskutiert. Sie nennt sich Big Data. Hierbei handelt es sich um die Verarbeitung mit großer Datenmengen. Mittels dieses Verfahrens ist man in der Lage das Konsumverhalten sämtlicher Käufer zu analysieren und somit näher auf diese einzugehen. „Online-Riesen wie Facebook, Google und Amazon machen es schon lange vor“ (Picot und Propstmeier 2013, 34). Diese Aussicht gibt Anlass die Theorie von Anderson in Frage zu stellen.

Des Weiteren hat der Journalist und Unternehmensberater Malcolm Gladwell bereits 2000 Ansätze in seinem Buch „Tipping Point – Wie kleine Dinge Großes bewirken können“ veröffentlicht, die Aufschluss darüber geben, wie Trends gesetzt werden können. Hierbei zeigt er auf, welche Schritte nötig sind, um aus Produkten, die zuvor uninteressant gewesen sind, Verkaufsschlager zu machen.

Bei der Kombination von Big Data Verfahren und den Ansätzen des Tipping Points kann angenommen werden, dass Andersons Theorie untergraben werden kann und nicht mehr tragfähig ist. Um dies genauer zu untersuchen, ist diese wissenschaftliche Arbeit entstanden.

In dieser wird zunächst die These des Long Tails definiert und analysiert. Die Analyse soll Aufschluss geben, wie sich Nischenprodukte nach Meinung des Autors durchsetzen, sodass im weiteren Verlauf speziell darauf eingegangen werden kann. Aus diesem Grund wird Chris Anderson wiederholt zitiert, um Standpunkte aus erster Hand zu erhalten. Der „Long Tail“ bildet somit das Grundgerüst dieser Arbeit.

Im Anschluss wird der Begriff „Big Data“ und die Anwendung erklärt, um die Potenziale der Analysetechnik sichtbar zu machen. Diese Ausarbeitung dient dem späteren Versuch, die These des Long Tails zu widerlegen.

Aus demselben Grund werden die Ansätze des Tipping Points von Malcolm Gladwell bestimmt. Um eine authentische Wiedergabe dieser gewährleisten zu können, wird auch hier mehrfach der Autor wörtlich wiedergegeben.

Ziel der Arbeit ist es, den Versuch zu unternehmen, Big Data Verfahren und den Tipping Point zu verknüpfen, um somit aufzuzeigen, inwiefern aus Produkten Bestseller generiert werden können. Letztlich soll damit bewiesen werden, dass Verkaufsschlager, entgegen Andersons Erwartungen, in Zukunft weiterhin Bestand gegenüber dem Nischenmarkt haben werden.

2. Die Long Tail Theorie

Im Folgenden werden die Grundaussagen zu Chris Andersons These des Long Tails kritisch analysiert. Hierdurch wird anhand eben dieser veranschaulicht, was diese These genau aussagt und inwieweit diese verifizierbar ist. Dieses Kapitel bildet die Grundlage für die nachfolgenden Untersuchungen.

2.1 Defintion „Long Tail“

Chris Anderson beschreibt in seinem Buch „The Long Tail: Nischenprodukte statt Massenmarkt“ die Lukrativität der Nischenprodukte im 21. Jahrhundert. Seiner Meinung nach seien wir „derzeit Zeuge einer faszinierenden Entwicklung: Die Umrisse der Wirtschaft des 21. Jahrhunderts lassen sich bereits in den Datenbanken von Unternehmen wie Google, Amazon, Netflix und iTunes erkennen“ (Anderson 2009, 14).

Der Grund für die stärker werdende Nachfrage nach Nischenprodukten liegt, laut Anderson, an den grenzüberschreitenden Möglichkeiten des Internets. „Das Massenpublikum erhielt in der Folge der Vernetzung unbegrenzten Zugang zu einer umfassenden Vielfalt von Musik, Filmen oder allen möglichen Angeboten“ (Michelis und Michelis 2012, 203). Der Geschmack der Konsumenten sei zuvor im 20. Jahrhundert, durch Medien wie Zeitung, Film, Radio und TV, diktiert worden (vgl. Anderson 2009, 32f). Daher habe es eine Konzentration auf bestimmte Artikel gegeben und somit Verkaufsschlager geschaffen. Nischenprodukte hätten kaum eine Chance gehabt auf dem Markt zu existieren.

Anderson ist der Meinung, dass zwei weitere wesentliche Punkte für die geringe Nachfrage nach Randprodukten maßgeblich sind: das Diktat des Standortes und die damit verbundene geringe Regalfläche der Einzelhändler (vgl. Anderson 2009, 19). „In jedem Fall bieten die Einzelhändler nur Inhalte an, für die eine ausreichende Nachfrage besteht, denn dann ist ihr Unterhalt gesichert“ (Anderson 2009, 19). „Da der Platz im Regal durch Miete, Personal oder andere Betriebskosten hohe Kosten mit sich bringt, die durch den Verkauf der Produkte gedeckt werden müssen, lohnt es sich nicht, Produkte anzubieten, die viel (Regalfläche) kosten, aber nur selten umgesetzt werden (Michelis und Michelis 2012, 213). Das Kaufverhalten richte sich folglich nicht nur nach den diktierenden Medien, sondern auch nach dem begrenzten Angebot der Kinos, Plattenläden und Supermärkte, in Kombination mit deren Erreichbarkeit. Die Anbieter entschieden selbst, was sie anbieteten und beschränkten die Auswahl auf vermeintliche Verkaufsschlager. „Die auf Hits basierende Wirtschaft [...] ist das Produkt einer Zeit, in der einfach nicht genügend Platz zur Verfügung stand, um jedem alles zu bieten“ (Anderson 2009,21).

Demgegenüber stünden nun die Verkaufsmöglichkeiten des E-Commerce. Dieser umfasst „nur Kauf- und Verkaufsprozesse, die durch elektronische Mittel unterstützt werden, hauptsächlich durch das Internet“ (Kotler, et al. 2011, 963). Anbieter seien durch diese neue Möglichkeit nun in der Lage ein vielfaches an Produkten anzubieten, da nur geringfügig zusätzliche Betriebskosten anfallen. „Zwar müssen physische Produkte noch immer gelagert werden, die Kosten für die Lagerung lassen sich aber durch Größenvorteile und Standortunabhängigkeit deutlich reduzieren“ (Michelis und Michelis 2012, 208). Online Anbieter sind dadurch im Gegensatz zu traditionellen Anbietern in der Lage eine beinahe grenzenlose Auswahl von Produkten über unbegrenzte Distanzen anzubieten.

Der Bundesverband des Deutschen Versandhandels kann bestätigen, dass der Onlinehandel von den Konsumenten seit Beginn des 21. Jahrhunderts deutlich zunimmt. In einer Pressemitteilung von 2012 erklärt Christoph Wenk-Fischer: „Der interaktive Handel hat im Jahr 2012 erneut rasant zu gelegt. Sein Umsatz kletterte gegenüber dem Vorjahr um 15,6 Prozent auf 39,3 Milliarden Euro“ (BVH 2013, 3).

Die folgende Abbildung zeigt eine grafische Darstellung zu der Pressemitteilung des BVH. Sie verdeutlicht den großen Zuwachs des Versandhandels, der durch den elektronischen Geschäftsverkehr stattfindet.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1 Versandhandelsumsatz (Quelle: BVH 2013, 3)

Die Grafik veranschaulicht einen wesentlichen Zuwachs des Versandhandels von 2008 bis 2012. In dieser Zeit hat sich der Umsatz um 10,6 Mrd. Euro erhöht, wohingegen der Anteil des Einzelhandels nur um 2% gestiegen ist. Daraus lässt sich prognostizieren, dass der Trend zum elektronischen Handel weiter steigt.

Aus den Beobachtungen des BVH heraus stellt sich für Unternehmen die Frage, inwieweit der steigende Versandhandelsumsatz relevant für Nischenartikel ist.

Anderson hat das Angebot der Produktvielfalt im E-Commerce auf Rentabilität untersucht (2009, 21ff) und hierzu die Verkaufscharts eines Musikanbieters im Internet näher betrachetet. Er fand heraus, dass jeder angebotene Song seinen Käufer findet, selbst wenn es pro Monat nur sehr wenige sind. (vgl. Anderson 2009, 24) Daraus würden sich geringe Umsätze ergeben, die nur aus dem hinteren Bereich des Produktportfolios erwirschaftet werden würden. Da dieses Portfolio nahezu grenzenlos ist, könne zusammengefasst ein gewinnbringendes Geschäft durch Nischen erreicht werden. Diese Grenzenlosigkeit an Auswahl bezeichnet Anderson als den Long Tail (ebd. 24).

Für den Long Tail gibt es, seines Erachtens nach, sechs grundlegende Elemente:

1. Nischenprodukte sind in weitaus größerer Menge vorhanden als Hits. Je günstiger und erreichbarer Produktionsmittel werden, umso schneller wächst die Zahl der Nischenprodukte.
2. Das Angebot im Internet steigt an und Nischen können nahezu mühelos durch Suchmaschinen gefunden werden. Kritische Konsumenten sind nun dazu in der Lage auf Alternativen auszuweichen.
3. Eine Nachfrage der neuen Güter kann durch kollaborative Filter, wie etwa Empfehlungen oder persönliche Chartlisten, geschaffen werden. Wenn ein Verbraucher sich z.B. für eine bestimmte Nischenmusikrichtung interessiert ist es möglich durch Konsumenten mit einem ähnlichen Geschmack neue Titel zu finden.
4. Durch das erhöhte Aufkommen der Käufe von Nebenprodukten flacht die Nachfragekurve insgesamt ab und die Verkaufsschlager verlieren insgesamt an Bedeutung.
5. Der Nischenmarkt macht dem Massenmarkt in Summe Konkurrenz. Wenn genügend Randprodukte zusammen genommen werden, können diese einen ähnlichen Gewinn wie Hits erzielen oder diese sogar noch übersteigen.
6. Treffen die zuvor genannten fünf Faktoren zu, so entsteht eine natürliche Nachfragekurve, die weder durch zu geringe Regalfläche, noch durch Vertriebsprobleme entstellt wird. Das Angebot wird abwechslungsreicher.

(vgl. Anderson 2009, 62)

Durch den Long Tail haben Anbieter im Internet gegenüber herkömmlichen Verkäufern einen großen Vorteil und gewinnen so an Marktvolumen. „The Internet marketplace allows companies to produce and sell a far wider range of products than ever before“ (Brynjolfsson 2006, 67). Daher unterscheidet man zwischen drei Kategorien von Anbietern:

- Herkömmliche Anbieter, wie z.B. Media Markt, die nur eine begrenzte Auswahl an Produkten, aufgrund ihrer Ladengröße, anbieten können.
- Hybride Anbieter, wie z.B. Amazon, die sich auf physische und digitale Produkte festgelegt haben.
- Rein digitale Anbieter, wie z.B. iTunes.

(vgl. Michelis und Michelis 2012, 208)

Die folgende Abbildung verdeutlicht die Rentabilitätsgrenzen und lässt den Long Tail deutlich erkennen:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2 Long Tail (Quelle: Michelis und Michelis 2012, 209)

Von links beginnend sieht man eine steile Kurve. Hier haben die Produkte das höchste Verkaufsvolumen, es handelt sich um die Verkaufsschlager. Die Kurve läuft nach rechts langsam aus und erinnert an einen Schwanz, hier finden sich die Nischenprodukte. Diese haben einen geringeres Verkaufsvolumen, aber stellen eine größere Menge gegenüber den Hits dar und gewinnen somit an Geltung.

Einer Studie von 2009 der Fachhochschule Göttingen zufolge teilen deutsche Unternehmen diese Auffassung und gehen „von einer zunehmenden Bedeutung des Long Tail aus“ (Riekhof, et al. 2009, 8ff). Allerdings „scheinen die deutschen Versandhandelsunternehmen [...] noch weit entfernt zu sein“ das Long Tail-Tail-Konzept umzusetzen. (ebd. 9)

Die Entwicklung von Randprodukten, und somit auch die Möglichkeit zur Entstehung des Long Tails, fasst Anderson mit drei Wirkmechanismen zusammen:

1. Demokratisierung der Produktion:

Durch den vereinfachten Zugang von Produktionsmitteln, wie etwa Videokameras, Blogs oder Kompositionssoftware, ist es den Konsumenten möglich eigenständig neue Produkte zu erstellen. Diese Möglichkeiten sind in der Vergangenheit nur Experten vorbehalten gewesen. Von Anderson werden diese Schöpfer „Long-Tail-Produzenten“ genannt.

2. Demokratisierung des Vertriebs:

Selbstkreierte Produktionen finden durch das Internet Abnehmer. Plattformen wie etsy, iTunes, Bandcamp oder auch Amazon unterstützen den Handel mit solchen Produkten. Diese Plattformen werden von Anderson als „Long-Tail-Aggregatoren“ bezeichnet.

Solche Aggregatoren hat es vor dem Internet nur sehr beschränkt gegeben und zudem konnten nicht genügend Konsumenten erreicht werden.

3. Verbindung von Angebot und Nachfrage:

Ein sogenannter „Long-Tail-Filter“ stellt sich durch Suchmaschinen, Blogs, Empfehlungen auf Kaufplattformen oder auch Bestsellerlisten ein.

Konsumenten sind durch neuartige Kanäle nun dazu in der Lage ganz nach ihren eigenen Bedürfnissen gezielt zu suchen.

(vgl. Anderson 2009, 63ff)

2.2 Das Ende des Vekaufsschlagers

Anderson bedient sich der Pareto-Regel, die besagt, dass 20% der angebotenen Produkte 80% des Umsatzes ausmachen und demnach 80% des Angebots lediglich 20% Einnahmen erwirtschaften (vgl. ebd., 153ff). Seiner Auffassung nach ist dieses Prinzip eine Fehlinterpretation der Märkte, denn diese „Regel besagt nur, dass man es mit einer Paretoverteilung zu tun hat und sich einige Artikel deutlich besser verkaufen als andere, was für Märkte des Long Tail ebenso gilt wie für herkömmliche Märkte“ (Anderson 2009, 154).

Die Abbildung visualisiert seine These und zeigt auf, dass der Verkaufsschlager dem Long Tail fast komplett weichen würde:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3 Paretoverteilung (Quelle: Anderson 2009, 155)

Die Grafik zeigt auf der linken Seite herkömmliche Einzelhändler, auf die die 80:20 Regel angewendet worden ist. Die Einnahmen werden, nach Abzug der Bestandskosten[1], in Gewinnen dargestellt. Klar erkennbar ist, dass das Nischenangebot keine Gewinne zurücklässt. Auf der rechten Seite hat Anderson Einzelhändler im Long Tail visualisiert. Im Vergleich wird deutlich sichtbar, dass die Angebotspalette des herkömmlichen Einzelhändlers gegenüber dem Long Tail Händler nur noch insgesamt zehn Prozent ausmacht. Die restlichen 90 Prozent sind reine Onlineprodukte. Mit dieser Verteilung würden die Gewinne auf die Verkaufsschalger, Nischenprodukte und Onlineprodukte gleichermaßen verteilt werden. Anderson sieht mit dieser Erkenntnis eine schmalere Spitze des Marktes und eine deutlich ansteigende Nachfrage von Randprodukten (vgl. Anderson 2009).

Da diese These nur bedingt nachvollziehbar ist, weil Unternehmen mit ihren Verkaufszahlen in der Öffentlichkeit nicht transparent umgehen, kann diese weder falsifiziert noch verifiziert werden. Anderson selbst hat bisher keine empirischen Untersuchungen vorgenommen.

Erik Brynjolfsson führte 2005 mit einem Team des Massachusetts Institute of Technology eine Studie mit einem mittelgroßen Unternehmen durch, das sowohl Verkäufe durch Kataloge, als auch über das Internet erzielt (vgl. Brynjolfsson 2006, 68). Bei dieser Untersuchung zeigte sich eine Tendenz, die für Andersons These spricht. „We found that Internet customers were much more likely to buy niche products“ (ebd. 68). Dieses ungewöhnliche Kaufverhalten konnte mittels Such- und Filterfunktionen erklärt werden (vgl. ebd. 68). Konsumenten neigen also bei weniger Suchaufwand gegenüber dem Katalog dazu, alternative Produkte zu kaufen.

Robert H. Frank und Philip J. Cook hingegen führen in ihrem Buch „The Winner-Take-All Society“ die Theorie an, „dass die schnelle und umfassende Kommunikation und die einfachen Vervielfältigungsmöglichkeiten sogar dazu führen, dass beliebte Produkte den Herstellern überproportional hohe Gewinne bescheren und dass sich die Kunden in ihren Vorlieben und ihrem Kaufverhalten stärker annähern“ (Elberse 2008, 34). „Perhaps the most profound changes in the underlying forces that give rise to winner-take-all effects have stemmed from technological developments in two areas – telecommunications and electronic computing“ (Frank und Cook 1995, 47). „If the best performers`efforts can be cloned at low marginal cost, there is less room in the market for lower-ranked talents“ (ebd. 33). Des Weiteren erklären Frank und Cook, dass das Sozialverhalten von Konsumenten für eine Tendenz zu Verkaufsschlagern ein Grund ist: „If a book has been widely reviewed and discussed in the media, people have more reason to read it than they would an otherwise identical book that has not received this attention“ (ebd. 34). Wenn Menschen gleiche Artikel kaufen, so können sie sich leichter in die Gesellschaft einbringen und sind somit in der Lage soziale Kontakte pflegen.

Diese Herangehensweise ist von dem Soziologen William N. McPhee als ein natürliches Monopol beschrieben worden. Ein populäres Produkt wird auch von denjenigen gekauft, die sich generell weniger damit auseinandersetzen und auskennen. „The alternative that most monopolizes people who know or choose few other alternatives is therefore the most popular alternative“ (McPhee 1963, 128). Dieses Verhalten ist auf psychologische Grundlagen zurückzuführen: „Auch kann sozialer Druck eine Rolle spielen, was sich insbesondere bei jugendlichen Konsumenten zeigt“ (Spieß 2013, 45). Außerdem spricht McPhee von einer doppelten Gefahr bei dem Angebot von Nischenprodukten. Konsumenten, die eine Alternative kennen, die dem Großteil aller Käufer allerdings nicht bekannt ist, werde generell weniger geschätzt. Die doppelte Gefahr liege darin, dass einerseits wenig Nutzer die Alternative kennen und andererseits die Kenner populäre Produkte bevorzugen (vgl. McPhee 1963, 136).

Anita Elberse kritisiert die These des Long Tail in dem Artikel „Das Märchen vom Long Tail“ in starkem Maße: „Grundsätzlich kaufen alle Kunden zum großen Teil Bestseller. Die einzigen, die das Nischenangebot schätzen, sind die Vielkäufer – doch selbst sie kaufen wenige Titel“ (Elberse 2008, 35). Ihre Untersuchungen beschränkte sie auf den Video- und Musikabsatz. Dabei wird speziell der Online-Musikdienst Rhapsody untersucht, diesen nimmt Anderson in seiner Thesenaufstellung ebenfalls häufig als Beispiel.

Obwohl sich ein Long Tail bei dem Musikanbieter aufgrund der großen Auswahl entwickelt hat, konnte ein Rückgang der Verkaufsschlager nicht festgestellt werden: „Der Absatz konzentriert sich extrem auf eine kleine Gruppe von Titeln: 78 Prozent aller Abspielvorgänge entfielen auf die obersten 10 Prozent der Titel, das Topprozent der Titel war sogar für 32 Prozent sämtlicher Transaktionen verantwortlich“ (Elberse 2008, 35). Bei der Beobachtung des DVD-Absatzes konnte Elberse feststellen, dass zwar Nutzen aus dem großen Angebot gezogen würde, aber gleichfalls Titel in Vergessenheit geraten. „Die Zahl der Titel, von denen nur ein ein paar Stück über den Ladentisch gingen, hat sich zwischen 2000 und 2005 nahezu wöchentlich verdoppelt. Im gleichen Zeitraum hat sich aber die Zahl der Titel, die überhaupt nicht verkauft wurden, von Woche zu Woche vervierfacht“ (Elberse 2008, 36). Daraus ergäbe sich ein langer Long Tail, der allerdings immer dünner werde und somit auch geringe Gewinne abwerfe.

Nach Elberse sind die generell starken Konsumenten diejenigen, die auch in den Nischen kaufen. In einer Studie zur Untersuchung von Produktvielfältigkeit ist ein Grund dafür festgestellt worden: „One factor that influences whether a particular consumer perceives a choice set as very complex is that consumer´s knowledge of the product“ (Huffmann 1998, 507). Des Weiteren konnte beobachtet werden, dass je weniger komplex die Produktauswahl gestaltet ist, desto weniger Information dem Konsumenten an die Hand gegeben werden muss (vgl. ebd. 508). Daraus lässt sich schließen, dass zum einen weniger Aufwand seitens des Verkäufers betrieben werden muss, wenn das Angebot überschaubar ist und zum anderen mehr Auswahl auch mehr Informationsaustausch bedeutet. „So reicht es nicht aus, die Nischenartikel in das Sortiment aufzunehmen und zu warten, bis die Nachfrager von alleine auf diese aufmerksam werden. Vielmehr müssen Anbieter gezielt auf die Nischenartikel aufmerksam machen“ (Riekhof, Schäfers und Teuber 2009, 12).

Andersons Ausführungen lassen sich nur schwer verifizieren - sind allerdings nachvollziehbar. Die angeführten Theorien von McPhee, Frank und Cook und den Untersuchungen von Elberse und Huffmann geben jedoch Hinweise, die gegen Andersons Schlussfolgerung sprechen. Um nähere Anzeichen für die Bedeutung von Nischenartikeln zu ermitteln, wird im folgenden Unterkapitel der Musikmarkt untersucht.

2.2.1 Das Ende der Musikhits

Anderson führt in seinem Buch besonders die Musikindustrie als Beispiel für die fallende Bedeutung des Verkaufsschlagers an. Diese Erkenntnisse verallgemeinert er und überträgt sie auf andere Medienbereiche, die eine ähnliche Verkaufsstruktur aufweisen. Aus diesem Grund werden in diesem Unterkapitel seine Thesen, die in Verbindung mit der Musikindustrie aufgebaut werden und folglich die Theorie des Long Tails stützen, näher analysiert.

Andersons Aussagen nach haben die Hitalben in den neunziger Jahren einen regelrechten Aufschwung erlebt. Dieser Erfolg sei kein Zufall gewesen. „Die Branche hatte den Code geknackt, die schwer definierbare Erfolgsformel für einen Hit war endlich gefunden. [...] Man musste nur gut aussehende Männer an junge Frauen verkaufen“ (Anderson 2009, 36). Somit unterstellt er den Konsumenten keinen eigenen Geschmack und damit keine eigene Wahlmöglichkeit. Die Industrie hätte daher den idealen Weg der Manipulation gefunden. Um dies zu verdeutlichen, hat sich Anderson auf folgende Grafik bezogen:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4 Entwicklung Hitalben (Quelle: Anderson 2009, 37)

Die Abbildung zeigt ein Diagramm mit dem Verlauf von verkauften Hitalben in Amerika seit 1958. Musikalben werden ab 500.000 verkauften Einheiten als „Hit“ eingestuft. Von 1958 bis 2001 sieht man eine stetig steigende Kurve, die dann rapide abfällt. Hierzu muss die Entwicklung der Musikindustrie mit in Betracht gezogen werden. Mit der Steigerung der Qualität von Tonträgern haben sich ebenfalls Möglichkeiten privater Mitschnitte konstituiert. Nach der Schallplatte wurde 1963 die Musikkassette von der Firma Phillips etabliert, die sich dank Sonys Walkman 1979 auf dem breiten Markt durchsetzte. Somit wurde Musik tragbar und Tonträger wurden weniger anfällig (vgl. Faulstich 2000, 368ff). Zudem waren die Verbraucher ab diesem Zeitpunkt in der Lage gewesen selbstständig Kopien von anderen Tonträgern zu erstellen. „Bereits zu Beginn der achtziger Jahre wurden mehr als 100 Millionen [Leerkassetten] verkauft und für private Mitschnitte und Überspielungen verwendet“ (ebd., 378). Damit ließe sich der kurze Abfall von Verkäufen, der auf Abbildung 4 deutlich sichtbar ist, erklären. Nach der Kassette folgte 1982 die CD als Standardtonträger (vgl. ebd., 368ff). Aufgrund des nun eingeführten Standards konnte der Mitschnitt einer Kassette qualitativ nicht mehr standhalten. Musik wurde nun digital abgespielt und hatte ein deutlich klareres Klangbild. Zu diesem Zeitpunkt gab es keine Möglichkeit CD´s mit einem solchen Qualitätsstandard zu duplizieren. Dies könnte ein Hinweis für den steigenden Absatz von Musik Anfang der neunziger Jahre sein (vgl. Abb.4).

In den neunziger Jahren, die Anderson als den Höhepunkt der Musikbranche betrachtet, konnte der steigende Umsatz nicht nur durch die Rezepte der Musikindustrie erreicht werden, sondern möglicherweise auch durch die immer besser funktionierenden Kommunikationskanäle. Diese Annahme von Frank und Cook ist im Kapitel „Das Ende des Verkaufsschlagers“ schon erwähnt worden. Demnach konnten Musikalben zuvor nicht in dem Maße beworben werden, wie in den neunziger Jahren. Aus einer Langzeitstudie über den Medienkonsum in Deutschland, von den Sendern ARD und ZDF, ging hervor, dass sich die Gesamtmediennutzung pro Verbraucher von 346 auf 502 Minuten am Tag erhöht hat. Hierbei handelt es sich um den Zeitraum von 1980 bis 2000.[2] Zu dieser Zeit ist das Musikfernsehen beliebt geworden. 1981 ging MTV in Amerika erstmals auf Sendung (vgl. Schmidt 1999, 101). Zwar hatte es schon zuvor Musiksendungen gegeben, allerdings sind diese bis zu diesem Zeitpunkt nicht für den Verkauf von Musiksingels relevant gewesen. MTV hatte erkannt, dass die Visulaisierung eines Musiktitels für Zuschauer einen hohen Stellenwert genoss, weshalb man Musikvideos produzierte. „Der Clip garantierte [...] eine kostengünstige (im Vergleich zu Tourneen), globale und reichweitenintensive (durch die Verbreitung via TV), vernetzte und integrierte (Visualisierung schafft ein größeres Potenzial für Strategien der Cross-Media-Promotion) sowie kontrollierbare (aufgrund höherer vertikaler Integration) Form der Promotion von Popmusik“ (ebd., 98f). Diese Promotion stieß auf Erfolg und so wurden 1984 schon bei 67 Prozent aller Musiktitel der Top 100 Videoclips produziert, 1981 waren es noch 23 Prozent (vgl. ebd., 105). Der Erfolg dieser Promotionvariante ließ MTV den TV Markt durchdringen und wurde daher ebenfalls in anderen Ländern angewandt. „MTV erreichte 1995 mehr als 250 Mio. Haushalte in 58 verschiedenen Ländern und errang damit den konkurrenzlosen Status des einzigen globalen Werbemediums für jugendspezifische Tonträger und Konsumgüter“ (Schmidt 1999, 109).

Ebenso gehört das Medium Radio zu einem beutenden Kommunikationskanal. Anderson erklärt einen Rückgang von Radiohöhrern in seinen Ausführungen. Verantwortlich seien dafür Medien wie der iPod, das Handy oder das Internet. Verbraucher würden, aufgrund dieser neuen Medien, mehr altenative Musik konsumieren (vgl Anderson 2009, 41ff). Der Massengeschmack wird folglich nicht mehr durch das Radio bestimmt. „Das Verschwinden der Radiosender bedeutet gleichzeitig auch das baldige Ende der Top-40-Ära“ (ebd., 42). Eine Untersuchung von 2011 hat ergeben, dass sich der Trend in Deutschland allerdings positiv entwickelt und sogar vermehrt auf das Medium Radio zurückgegriffen wird. „Radio gelingt es vor allem auch, den positiven Reichweitentrend in den jüngeren Bevölkerungsschichten fortzusetzen, denn die 14- bis 49-Jährigen legen sowohl in der Reichweite als auch in der Nutzungsdauer zu. Außerdem hat Radio weiterhin eine sehr hohe Verweildauer von knapp vier Stunden pro Tag [...]“ (Gattringer und Klingler 2011, 456). Der Grund liegt in der Auswahl und Abspielreihenfolge von Musiktiteln, die von Kennern übernommen werden. „Das emotionale Medium Radio braucht Moderatoren, die mit Wissen, aber auch mit einer gehörigen Portion Bauchgefühl und Erfahrung ein Musikprogramm zusamenstellen, das dann auch beim Hörer zündet“ (Seldeck 2013, 56). Zudem werden Quellen aus dem Internet seit 2014 mit in die Musikplatzierungen eingerrechnet. „Neben den Single-, Longplay-, Compilation- und Genrecharts werden fortan zudem auch die gesonderten Streamingcharts in das offizielle Chartportfolio integriert“ (Bundesverband Musikindustrie 2014). Sogenannte Musikstreams sind vergleichbar mit Radiosendern und werden aus dem Internet gesendet. Internetfähige Abspielgeräte können folglich den Konsum des klassischen Radios ersetzen, mit dem Unterschied, dass die Benutzer gezielter Musik nach ihrem Geschmack auswählen können. Dieser lässt sich in Zukunft demzufolge noch besser ermitteln. Ein Musiktitel aus der Nische kann dadurch besser aufgespürt werden und letztlich zu einem Hit heranwachsen, der dann auch in konventionellen Radiosendern gesendet werden würde.

Den Einbruch der Musikbranche 2001 (vgl. Abb. 4) habe laut Anderson durch die Entstehung der Technologie stattgefunden. Die Möglichkeit, CD´s selbstständig zu kopieren, die Vermarktung von MP3-Playern und Internettauschbörsen seien die großen Ausschlaggber für den Marktwandel (vgl. Anderson 2009, 38ff).

Tatsächlich werden CD´s in hohem Maße vervielfätigt. „2001 kam auf eine gekaufte CD eine gebrannte Version. 2006 verlagerte sich dieses Verhältnis auf eins zu drei“ (Bundesverband Musikindustrie e. V. 2012, 18). Der schnelle Zuwachs dieser Opportunität ist wahrscheinlich nicht nur auf die gute Qualität der Kopien zurückzuführen, sondern auch auf die einfache Handhabung. Kassetten zu kopieren hat mindestens so viel Zeit in Anspruch genommen, wie der zu kopierende Tonträger, wohingegen CD´s um ein vielfaches schneller bespielt werden können.

Anderson behält ebenfalls Recht bei der Annahme, tragbare Geräte, in Kombination mit dem MP3-Format, würden dem Musikgeschäft schädigen. Eine Studie über Raubkopien ergab: „17 Prozent der Bundesbürger haben 2010 mit Freunden oder Bekannten Medieninhalte per Festplatte getauscht“ (ebd., 19). Der Austausch von digitalen Inhalten auf Festplatten, oder ähnlichen Speichermedien, ist gegenüber der CD noch einfacher durchzuführen, da deutlich mehr und schneller kopiert werden kann. 2011 haben schon mehr als 50 Prozent der Bevölkerung ein MP3-fähiges Handy besessen (vgl. GvK 2011, 9). Anwender sind damit in der Lage Musik nebenbei zu tauschen und immer griffbereit zu haben.

Einen großen Beweis für den Bedarf nach Nischenartikeln sieht Anderson in den Internettauschbörsen. Hier würde die wahre Nachfrage ersichtlich sein: „Untersucht man die Daten, ergibt sich ein regelrechter Kulturwandel, eine Abkehr von den Hits und die Hinwendung zu Nischenkünstlern“ (Anderson 2009, 38). Um diese Betrachtung für allgemeingültig halten zu können, muss die Frage nach den Nutzern gestellt werden. Der Überblick auf die beliebtesten Downloads solcher Tauschbörsen sagt nur geringfügig etwas über die Abkehr von Hits aus. Eine Studie zur digitalen Content-Nutzung 2011 hat ergeben, dass überwiegend Männer im Durchschnittsalter von 23 Jahren Musikdownloads (legal und illegal) vornehmen. Demgegenüber stehen im Durchschnitt Frauen im Alter von 15 Jahren. Männer laden fast doppelt so viel Musik aus dem Internet, wie Frauen.[3] Aufgrund der ungleichen Verteilung, in Bezug auf Geschlecht und Alter, sind demnach Zahlen aus Internettauschbörsen nicht repräsentativ für die Gesellschaft.

Die Analyse zu dem Thema „Das Ende der Musikhits“ hat gezeigt, dass der Beweis für die Nachfrage nach Nischenprodukten nicht zwangsläufig gegeben ist. Lediglich hat sich der Markt, aufgrund sich verbessernder Technologien, verändert. Mit großer Wahrscheinlichkeit konnten daher gravierende Änderungen im Umsatzverlauf der Musikindustrie verzeichnet werden.

Das Auffinden von alternativen Musiktiteln, durch besser werdende Kommunikationskanäle, bestätigt nicht nolens volens die Verdrängung von Verkaufsschlagern. Möglicherweise hat es in der Vergangenheit unbekannte Songs gegeben, die vermeintliche Hits waren. Diese wurden nicht entdeckt und sind in den Charts daher nicht mit aufgeführt worden. Folglich hieße das, dass die Rangliste, durch verbesserten kommunikativen Austausch, nun genauer wird. Dies ist allerdings kein Indiz für das „Aussterben“ von Hits. Das Beispiel zum Musikfernsehen hat gezeigt, dass das Potenzial besser werdender Kommunikationskanäle sogar genutzt werden kann, um Verkaufsschlager besser zu promoten. Zudem darf nicht außer Acht gelassen werden, dass es auch zu Beginn der Musikindustrie die Möglichkeit gegeben hat, sich über alternative Musik zu informieren. Ein klassischer Plattenhändler, mit genügend kaufmännischem Sinn, hat seinen Kunden ebenfalls Empfehlungen ausgesprochen und bei Stammkunden sogar ungefragt Platten aufgelegt, die zu dessen Geschmack passten, um mögliche Käufe zu generieren. Einzig das Angebot von selbst erstellten Produktionen kann erstmals nur durch das Internet einer breiten Masse angeboten und präsentiert werden.

Die gewonnen Erkenntnisse lassen sich problemlos ebenso auf den Handel von Videospielen, Filmen und Büchern anwenden. Diese hier aufzuführen würde allerdings den Rahmen der Untersuchungen unnötig vergrößern. Daher werden die Analysen im Bereich der Musikindustrie repräsentativ für die Überprüfung des Longtails verwendet.

3. Big Data

Nachdem die Theorie des Long Tails ausführlich erklärt und analysiert worden ist, sollen nun Anwendungen aufgezeigt werden, die diesen eventuell beeinflussen können. In diesem Kapitel wird daher erklärt, was unter dem Begriff „Big Data“ zu verstehen ist und an welcher Stelle Daten gesammelt werden, die für die Wirtschaft und den Absatz von Konsumgütern von Nutzen sein können.

3.1 Defintion „Big Data“

Unternehmen sammeln heutzutage große Mengen an Daten, um daraus eventuell Schlüsse für eine Leistungssteigerung ziehen zu können. Durch ein klassisches Customer Relationship Management werden Daten bei Kontakt mit ihren Kunden angehäuft. „Zu diesen Kontaktpunkten gehören Käufe, Außendienstkontakte, Service- und Beratungshotlines, Website-Besuche, Zufriedenheitsbefragungen und Zahlungsvorgänge sowie alle sonstigen Kontakte zwischen einem Anbieter und seinen Abnehmern“ (Kotler, et al. 2011, 437). Mit den gesammelten Werten können z. B. Muster oder Zusammenhänge erkannt werden, die etwa auf Verhaltensweisen von Konsumenten hindeuten können. „Beispielsweise wird unnützes Wissen, wie z. B. einzelne Daten über Zeitpunkt und Anflugwinkel eines einzigen Flugzeugs erst dann zu nützlichem Wissen, wenn Tausende Anflüge von Flugzeugen aufgezeichnet wurden und sich beim Vergleich der Daten Muster erkennen lassen“ (Pohlmann und Hasse 2013, 20). Solche Informationen sind sehr wertvoll und können wettbewerbsentscheidend für ein Unternehmen sein. „Das Problem ist, dass diese Informationen gewöhnlich im gesamten Unternehmen verstreut sind. Sie sind tief in den unterschiedlichsten Datenbasen, Plänen und Unterlagen der verschiedenen Abteilungen vergraben“ (ebd., 437). Hinzu kommt der Einsatz immer mehr technischer Geräte, die in sämtlichen Lebensbereichen unseres Alltags zu finden sind. Diese ermöglichen eine zusätzliche Erstellung von Daten. Somit kommen weitere Quellen und damit mehr unstrukturierte Daten zusammen. Es entsteht eine Datenflut. „Die breite Akzeptanz von Social Media wie Facebook, Twitter, Blogs und Foren, aber auch der Einsatz mobiler Endgeräte als ständiger Begleiter sowie die Sensortechnik (z. B. RFID, Wetterdaten etc.) und Maschine-zu-Maschine Kommunikation (M2M) lassen die weltweite Datenflut exponentiell wachsen“ (Picot und Propstmeier 2013, 34). Daten werden so in Form von Videos, Bildern, Texten oder Dokumenten und Emails gesammelt (vgl. ebd., 34f). Den Ergebnissen einer Studie zufolge seien 2012 weltweit bereits 2,5 Zettabyte[4] insgesamt an Daten gespeichert worden. Diese Menge solle sich jedes Jahr verdoppeln, sodass sich bis 2020 circa 40 Zettabyte angesammelt haben (vgl. IDC 2012, vgl. in Picot und Propstmeier 2013).

Die soeben angesprochenen Problemfelder der unstrukturierten Daten und der Masse an Informationen lassen sich durch Big Data-Verfahren bewältigen: „Big Data bezeichnet die wirtschaftlich sinnvolle Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus qualitativ vielfältigen und unterschiedlich sturkturierten Informationen, die einem schnellen Wandel unterliegen und in bisher unbekanntem Umfang anfallen“ (BITKOM 2012a, 7). Somit können Daten auf eine zielgerichtete Fragestellung hin ausgewertet werden und für nützliche Aufklärung sorgen. Solche Herangehensweisen hat es bereits in der Vergangenheit gegeben. Zuvor ist mit Data Mining und Data-Warehouse gearbeitet worden: „Wenn im Data-Warehouse [...] Daten zur Analyse zusammengefügt wurden, benutzt man leistungsstarke Data-Mining-Techniken, die die Daten durchsuchen und die interessanten Zusammenhänge und Ergebnisse über den Kunden herausfiltern“ (Kotler, et al. 2011, 437). Früher auch als „Knowledge Discovery in Databases“, kurz KDD, bekannt. „KDD is the nontrivial process of identifying valid, novel, potentially useful, and ultimately understandable patterns in data“ (Fayyad, Piatetsky-Shapiro und Smyth 1997, 40f). Allerdings gibt es eine Abgrenzung zu dem neuen Begriff Big Data: „Das Besondere bei Big Data-Analysen ist vor allem die neue Qualität der Ergebnisse aus der Kombintaion bisher nicht aufeinander bezogener Daten. In der Regel sind dies Bestandsdaten, die zu 85% bislang technisch nicht ausgewertet werden konnten“ (Horvath 2013, 2). Des Weiteren können Auswertungen dieser Art, bei richtiger Anwendung, sehr aktuell sein. Fakt ist, „dass die Datenmengen immer häufiger kontinuierlich entstehen. Entscheidend kommt hinzu, dass sie in der Regel ganz aktuell mit sehr hoher Geschwindigkeit, nicht selten sogar in oder nahe Echtzeit analysiert werden – bevor sie ihren Wert vielleicht schon wieder verloren haben“ (Picot und Propstmeier 2013, 35). Mit diesen Fähigkeiten entsteht eine hohe Priorität Big Data-Verfahren zu nutzen, um im Marktwettberwerb bestehen zu können. „Die wirtschaftliche Bedeutung von Daten wird inzwischen als so groß angesehen, dass diese neben Arbeitskraft, Ressourcen und Kapital als „vierter Produktionsfaktor“ angesehen werden. Denn der Wert von Erkenntnissen, die durch Auswertung vorhandener Daten gewonnen werden können, gilt als potentiell gewaltig“ (vgl. Horvath 2013, 1). Nicht nur die Wirtschaft kann aus diesem Potenzial Nutzen schöpfen, sondern ebenfalls die wissenschaftliche Forschung, die Medizin oder aber auch Bereiche der Öffentlichkeitsarbeit (vgl. ebd., 2). Generell kann Big Data überall da eingesetzt werden, wo viele Daten anfallen. Es gibt sogar Stimmen, die der Meinung sind, dass durch Big Data eine regelrechte Revolution stattfinden wird. „Big Data wird Gesellschaft, Politik und Wirtschaft so grundlegend verändern wie der elektrische Strom und das Internet“ (Bloching 2013, 102).

Grundsätzlich bedeutet die Anwendung von Big Data-Technologien, Daten zu aggregieren, diese auszwerten und letztlich die gewonnenen Feststellungen zu benutzen.

3.1.1 Die drei V´s von Big Data

Fundamental stützt sich die Funktionsweise von Big Data-Verfahren auf drei Säulen. Diese drei Säulen sind zum Teil schon angerissen worden. An dieser Stelle werden sie jedoch noch einmal explizit aufgezeigt und erklärt, damit die Faktoren von Big Data eindeutiger werden.

Volume (Datenmenge)

Organisationen und Unternehmen sammeln immer mehr Daten an und sind durch fortschreitende Digitalisierung des modernen Lebens einer unheimlichen Quantität ausgesetzt. Weltweit gespeicherte Daten sind nach Schätzungen schon auf eine Größe von bereits über 2 Trilliarden Bytes gewachsen (vgl. Horvath 2013, 1). Dies würde „auf iPads gespeichert und gestapelt eine 21.000 km lange Mauer“ (ebd., 1) ergeben.

Beispielsweise werden zwölf Terabytes[5] an Tweets pro Tag bei Twitter gesendet. Wenn ein Unternehmen nun prüfen möchte, wie beliebt ein gerade neu auf den Markt gekommenes Produkt ist, so lässt sich ein Trend aus diesen Tweets lesen. Mit anderen Worten ist man dazu in der Lage Gespräche zu verfolgen, die öffentlich abgehalten werden. Hieraus kann eine Kritik für das neue Produkt entnommen werden, die im Idealfall sogar Verbesserungsvorschläge liefert. Allerdings müssen hierzu über Tage oder auch Wochen die Tweets verfolgt werden. Das heißt, eine Datenanalyse von zwölf Terabytes fällt täglich an. Mit Hilfe von Big Data-Anwendungen ist es möglich solche Datenmengen zu analysieren und auf relevante Informationen zu filtern (vgl. Klezl 2012, 13f).

Variety (Vielfalt)

Unternehmen bedienen sich einer Vielfalt von Quellen und Formaten, um mögliche Entwicklungen oder Muster erkennen zu können. Hierbei werden unstrukturierte[6], semistrukturierte[7] oder auch sogenannte polystrukturierte[8] Daten gesammelt. Hinzu kommen eben solche aus dem externen Bereich. So können Daten beispielsweise gekauft werden, wobei hier die Gewissheit über adäquate Korrektheit nicht gegeben ist und bei einer Auswertung zu ungenauen Ergebnissen führen kann (vgl. BITKOM 2012a, 21).

Generell müssen Daten demnach also sortiert werden, um einen Überblick ermöglichen zu können. Beispielsweise liegen in Krankenhäusern sämtliche Befunde und Erkrankungen vor, die es evtl. an anderen Standorten auch schon gegeben hat. Allerdings konnten keine Zusammenhänge aufgedeckt werden, da die Krankenhäuser in sich schon Probleme haben die unterschiedlichen Werte ordnen zu können. Hinzu kommen die Krankenhistorien der Patienten. Big Data ermöglicht ein Standortübergreifendes Sortiersystem, welches unnötige Informationen auslässt und Managemententscheidungen vereinfacht (vgl. Rasche 2013, 1081).

Velocity (Geschwindigkeit)

Bevor sich technische Geräte in den Lebensalltag integriert haben, wurden Daten von Unternehmen annähernd periodisch zusammengetragen. Aus diesem Grund ist man in der Lage gewesen, Auswertungen innerhalb bestimmter Zeitabstände vorzunehmen. Heutzutage gibt es einen regelrechten Datenfluss, der schnellstmöglich analysiert werden muss, um diesen auch nutzen und verfolgen zu können. Die ständig einfließenden Daten müssen daher in Echtzeit empfangen und analysiert werden (vgl. Horvath 2013, 1).

Ein Beispiel hierzu liefert die Kommunikationsfirma Telekom. Diese hatte in jüngster Vergangenheit immer wieder Kundenverluste zu verzeichnen. Diese Verluste sind jedoch nicht auf zu hohe Gebühren zurückzuführen, sondern vielmehr auf Verbindungsprobleme. Im Telekommunikationsgeschäft sind solche Probleme schwerwiegend. Daher ist es hilfreich, diese Störungen zeitnah zu erkennen, um sie dann beseitigen zu können. Ein rechtzeitiges Eingreifen könnte, dank Big Data, gewährleistet und somit der Kundenerhalt gesichert werden (vgl. Klezl 2012, 14).

Die drei grundlegenden Säulen von Big Data sind im Zuge einer Healthcare-Konferenz des Wirtschafts- und Gesundheitsgremiums 2012 auf insgesamt sechs erweitert worden (vgl. Rasche 2013, 1080). Diese weiteren Aufzählungen sind nicht maßgebend für die Funktion von Big Data, aber dennoch sinnvoll für eine richtige Anwendung und ein besseres Verständnis:

Value (Wert)

[...]


[1] Kosten die durch Lagerbestände entstehen

[2] siehe Anhang Abb. 8

[3] siehe Anhang Abb. 9

[4] 1 Zettabyte entspricht 1 Billion Gigabyte

[5] 1 Terabyte = 1000 Gigabyte

[6] Texte, Video, Bilder, etc.

[7] Kommunikation innerhalb von Maschinen

[8] Mischform von unstrukturierten und semistrukturierten Daten

Details

Seiten
67
Jahr
2014
ISBN (eBook)
9783656740650
ISBN (Buch)
9783656740582
Dateigröße
2.7 MB
Sprache
Deutsch
Katalognummer
v277474
Institution / Hochschule
Ostfalia Hochschule für angewandte Wissenschaften Fachhochschule Braunschweig/Wolfenbüttel
Note
1,7
Schlagworte
Big Data Long Tail Tipping Point Selbstvermessung Quantified Self Big Data Anwendung Algorithmus Datengenerierung Offline Analysen soziale Epidemie Das Gesetz der Wenigen Verankerungsfaktor Macht der Umstände

Autor

Zurück

Titel: Das Ende des Verkaufsschlagers