How probability calculations assist making sucessful price negotiations

Wage bargaining and price negotiations

There is a slightly different German version of this article here.

Bargaining and trading about wages and prices for personal services is not easy. It may be the price tag for your own work, for yourself. On the other side high wages killed a lot of enterprises or forced them to shrink. Low wages combined with high productivity mean advantages in a competitive market.
An employer will hire a worker if the net worth of his work bigger than the his wage. Low wages and high productivity means more yield for the employer, more bonus and next career level. The employee or the seller of services wants to make more money. They know that overpay means being to expensive and getting laid off first.
What to do in this situation? Let me explain two different approaches:

Using Market Research, Game Theory and Scenarios

Let me give an example for a freelance teacher who bargains with a school. This private vocational school, Schulungs-Center Montgomery, does not pay equally. Most of the teachers are freelancers. Their price is 20 to 45 € per teaching hour. The teaching hour is 45 minutes. The teachers are forced by contract to keep their wages as a secret.
Sandra needs money and wants to teach Her Master of Business Administration is freshly examined.
She tries to get most of the situation. She looks at the website of the Schulungs-Center and notices the student’s tuition. 420 Euro per month. She thinks: 5000 € per year, 12 students in a class, 1000 teaching hours per year. That makes 60 € per teaching hour. 50% for general purposes and 50% for the teacher – that would be 30 EUR per hour for the teacher. For a new employee it is difficult to calculate how much money the employer will earn. Some market research helps.
May be, because of female, young professional the Schulungscenter will pay more? When looking at the staff she sees a lot of elder, retired people who will work for less than 25 Euro per hour.
She has two alternatives: either starting with 40 Euros per hour, with the risk that being young and well-educated is not sufficient to get more money, or going to the safe side with 25 € per hour. .

decision tree usable for price negotiation and bargaining - probability and earnings
decision tree usable for price negotiation – probabiliy and earnings

The Calculations

Say, the teaching duty is about 200 hours. If Sandra does not get the job, she has to clean rooms for 10 €/hour. We assume the probability to get the job is 50% when offering her teaching services for 40 € per hour, and 100% when offering for 25 € per hour, like in the chart. So she will get 5000 € when demanding 25€ per hour and (40 €/hour*200 hours * 50%)+ (10 €/hour * 200 hours *50%)= 5000 € when demanding 40 € per hour.

In this model, which is very close to reality, it does not matter if the teacher demands 25 € or 40 € per hour. The earnings for him are the same.

So what to do? Sandra should look at the whole picture of the economy to decide if the price for teaching rises or falls. In Freiburg where was a decline in the demand for freelance teachers in the last years. Classes shrunk, fewer students, less money.

Self-Esteem and better prices

Roman Kmenta has a very simple theory: High self-esteem, high income. Following his writings, Sandra should demand 40 € per hour and not falter. With high prices she tells everybody that her services are valuable. This will impress her contractors and they will accept her offers.

Interviewerbias vermeiden

Interviewerbias, also die Verzerrung von Umfrageergebnissen durch den Interviewer, ist ein Problem in der Marktforschung und bei Evaluationen und Bewertungen aller Art. In der Marktforschung werden durch professionelle Schulung der Interviewer und repräsentative Samples diese Einflüsse vermindert. Zudem hängt die berufliche Existenz der Marktforscher von guten Ergebnissen der Forschung undn nicht von tendenziellen Einträgen im Fragebogen ab. Bei Evaluationen kann die Weiterbeschäftigung des Bewerteten von guten Bewertungen abhängig gemacht werden.

Was machen die Marktforscher besser

Interviewer werden vor dem Einsatz gebrieft. Sie erhalten eine Einführung in den Fragebogen und eine detaillierte Angaben, wie die Qualität und Repräsentativität der Studie sicher gestellt werden kann. Interviewer dürfen die Befragten nicht beeinflussen, aber Fragen erklären. Dazu müssen sie selbst die Fragen beherrschen und umformulieren können.

Einfluss der Gruppenmeinung

Erhält eine Gruppe Fragebögen, um diese zusammen auszufüllen, wird die Meinung der Meinungsführer der Gruppe häufiger auftauchen. Viele Befragte trauen sich dann nicht, ihre eventuell abweichende Meinung aufzuschreiben, oder schwimmen einfach gerne mit der Gruppe.

Beispiel Seminarauswertung: Unzureichende und unverständliche Fragestellung verzerrt die Angaben

Zwei Fehler werden dabei sehr häufig gemacht:
1. Der Fragebogen enthält zu wenig sinnvolle und situationsangepaßte Fragen. So wird in z. B. einem Bogen für 17-jährige Berufsfachschüler nach „Anwendbarkeit des Wissens in der betrieblichen Praxis“ gefragt. Teilweise werden populäre Begriffe wie „strukturiert“ verwendet, die eine starke persönliche Interpretation sowohl des Auswerters als auch des Befragten zulassen. Fragen nach der „fachlichen Kompetenz des Dozenten“ sind meiner Meinung nach nicht exakt. Bei einem betrieblichen Seminar mag die Frage im Sinne, ob sich der Dozent mit den bearbeiteten Prozessen auskennt, zulässig sein. Es wird nicht ausreichend differenziert untersucht, wo der Dozent kompetent oder nicht kompetent ist. Ist er ein genialer Pädagoge, der den Lernprozess der Teilnehmer perfekt unterstützt? Ein
guter Verkäufer, der seinen Teilnehmern ein gutes Gefühl vermittelt, auf ihre Bedürfnisse perfekt eingegangen ist, aber nur kleine inhaltliche Fortschritte machte?

Beispiel Seminarauswertung: Anwesenheit des Dozenten beeinflusst die Eintragungen

2. Der Dozent beeinflußt die Teilnehmer beim Auswerten der Bögen. Die Teilnehmer empfinden das Ausfüllen der Seminarauswertung/dem Feedbackbogen als Beifallsbekundung für den Seminarleiter, und entsprechend positiv fallen die Bewertungen aus. Damit keiner auf falsche Ideen kommt, bleibt der Seminarleiter/Dozent während des Ausfüllens im Raum, und nimmt die ausgefüllten Bögen persönlich entgegen. Das ist Interviewerbias extrem.

Richtig wäre, dass der Dozent den Raum während des Ausfüllens verläßt oder die Beurteilung von zu Hause oder dem Büro aus über das Internet erfolgt. Zuvor erklärt er oder sie den Teilnehmern den Zweck der Umfrage: ein reales Bild vom Seminarablauf aus Teilnehmersicht, keine Dankeshymne an den Dozenten. Die Teilnehmer geben die Fragebögen unbeobachtet und anonym ab, so dass sie ihre Eindrücke unbefangen wiedergeben können. Noch exaktere Ergebnisse enstehen mit einer zusätzlichen Nachbefragung nach ein bis zwei Monaten.

Diese Vorgehensweise stellt zusätzliche Anforderungen an den Schulungsanbieter: nicht unbedingt bringt der Dozent mit den besten Beurteilungen die besten Leistungen, zudem wird es je nach Teilnehmerstruktur Rachebewertungen geben.

Beispiel für einen Fragebogen zur Seminarauswertung

Dieser Fragebogen wurde mit der Software Limesurvey erstellt und kann sowohl mit Papier als auch online verwendet werden, so das Original zur Verfügung steht. Im Zweifelsfall einfach mich fragen.
Ein Beispiel für einen einfachen, aber doch aussagekräftigen Fragebogen für Unterricht ist hier. Kostenlose Anmeldung ist erforderlich.

Sind Aktien überbewertet?

Eine Methode, um die Überbewertung von Aktien festzustellen

Ob Aktien überbewertet sinn, ist bei schwankenden Preisen/Kursen und nicht ganz sicheren Dividenden ist nur schwer vorherzusagen, weswegen sich Finanzberater meist davor drücken und Aktien nur sehr einkommensstarken Klienten empfehlen.

In den letzten Jahren testete ich die Beratungsqualität verschiedener Finanzinstitute. Die Empfehlungen waren in den meisten Fällen schlüssig. Jedoch wurden sie nur sehr schwammig begründet, von wegen der Aktienmarkt sei unsicher, man müsse mit annäherndem Totalverlust rechnen – da wollte man mir gemanagte Fonds verkaufen. Andere sagten, nur mit Aktien könne wirklich Gewinn gemacht werden. Eine dritte Auskunft war, Aktien und Immobilien seien zur Zeit derart teuer, dass Festgeld oder sogar Tagesgeld bei einer ordentlich zahlenden Bank die sinnvollste Anlage sei.

Was nun, bei einer unsicheren Zukunft? Einigkeit besteht bei den Beratern, dass die Niederigzinsphase noch mindestens fünf Jahre anhält. Die nur langsame Entschuldung der EU-Staaten erfordert diese niedrigen Zinsen, welche erst bei einem starken Anziehen der Konjunktur mit steigenden Steuereinnahmen in Frankreich und Italien wieder angehoben werden können.

Modellrechnung

Um festzustellen, ob Aktien überbewertet sind, kann die Kursentwicklung über viele Jahre zusammen mit den Zinsniveaus und der Inflation verwendet werden. Bei einer Überbewertung wird die spätere Kurskorrektur die Rendite vernichten.

Betrachten wir zunächst Aktien, in dem wir von einem fiktiven Portfolio (=Depot) ausgehen, in dem die Aktien genauso wie im DAX 30 (Deutschen Aktienindex der 30 meistgehandelten Aktiengesellschaften) zusammen gesetzt sind. Der Anleger will nicht täglich Kurse vergleichen und legt daher langfristig an – verkauft wird nur, wenn das Geld benötigt wird oder eine bessere Anlage in Sicht ist.

Die erste Zeile zeigt die Entwicklung für ein Portfolio, das 2005 zusammen gestellt wird und 2015 wieder verkauft wird, die zweite Spalte für Zusammenstellung 1998 und Verkauf 2008.

Laufzeit Startwert Endwert Jahre Wachstum jährlich %
2005-2015 4255,62 11532,97 10 10,48
1998-2008 5340,1 7062,6 10 2,84

Bei Aktien sind noch die Dividendenerträge von 2-3% des Kaufpreises hinzuzurechnen. Da man in der Zeit vor 2009 schon mit Festgeld Zinsen von 3% erzielen konnte, waren vor 10 Jahren Aktienanlagen zwar schon etwas besser als Geldanlagen, aber nicht sehr unterschiedlich. Der Boom der letzten Jahre hat das Bild verändert – hohe Wertsteigerungen, mehrfach höhere Aktienrendite als bei Finanzanlagen. Und die Kurse steigen hoffentlich weiter.

Vergleicht man die Entwicklung über 17 Jahre anhand der roten Trendgerade, wie in der untenstehenden Grafik, ergibt sich eine Verzinsung von 4,2% jährlich alleine durch Wertsteigerungen. Zum Berechnen des realen Ertrags sind die Depotkosten abzuziehen und die Dividenden hinzuzurechnen – also noch rund 2% obendrauf. Die Trendgerade ist eine Regressionsgerade, also eine Linie, die den vielen Einzelpunkten der Tageskurse am nächsten kommt und so einen guten Mittelwert über 17 Jahre darstellt. Liegt der Index unterhalb der roten Linie, sind die Kurse unter dem Langfristtrend, liegt der Index darüber liegen die Kurse über dem Langfristtrend.

dax30-1998-2015

Manche Menschen kauften die falschen Aktien oder zum falschen Zeitpunkt – sogar wer Indexfonds kaufte, die den DAX abbildeten, konnte bei Kauf im Jahr 2000 und Verkauf 2003 rund drei Viertel des Geldes verlieren. Umgekehrt war der finanzielle Einsatz bei Kauf 2009 und Verkauf Mai 2015 verdreifacht werden.

Bei Festgeld- und Sparzinsen von 0,6% fahre ich bei einer dividendenstarken (3% jährlich) Aktie auf fünf Jahre gesehen immer noch gut, wenn diese in dieser Zeit 10% an Wert verlieren sollte. Die Aktienrendite geht da zwar gegen Null, aber nichts ist verloren.

Fazit

Aktien in der Form einer Mischung von Anteilen an nicht völlig überbewerteten Unternehmen sind ertragreicher als Festgeldanlagen, wenn sie nicht während Phasen hoher Kurse gekauft werden.

Hauspreise – lohnen sich hohe Kaufpreise? Eine Cash-Flow-Analyse

Rekordtiefstand bei den Kreditraten

Gesunkene Finanzierungskosten 2016. Baukredite mit 5 Jahren Zinsbindung sind für 1,25% p. a. zu haben, 10 Jahre ca. 1,5% p.a, 15 Jahre ca 2% p.a. Bei 20 Jahren Zinsbindung, so so etwas überhaupt zu bekommen ist, muss schon mit 2,5% p.a gerechnet werden. Das drückt die Unsicherheit über die zukünftige Zinsentwicklung aus. Allgemein wird mit weiteren 5 Jahren Niedrigstzins gerechnet, dann geht man von einer langsamen Erhöhung aus, wie sie jetzt schon in den USA abzusehen ist.

Das Risiko zukünftig sinkender Preise

Auf Immobilienmärkten spielt neben den zinsabhängigen Finanzierungskosten Erwartungen über die zukünftige Werte und die Bevölkerungsentwicklung eine Rolle. Ein Beispiel von unten: um das Jahr 2000 herum stiegen die Zinsen. Innerhalb weniger Jahren die sanken die Hauspreise um rund 25-50%. Die Insolvenzen von Hauseigentümern nahmen zu, weil die Kreditbelastung höher wurde als der Marktwert der Immobilie. Es gab viele schöne Objekte beim Amtsgericht aus einer Zwangsversteigerung zu kaufen Die europäische Zentralbank hielt das Geld damals knapp mit Refinanzierungszinsen um 5%, was für Baukredite Effektivzinssätze von 6-7% bedeutete. Heute liegt der Refinanzierungszinssatz bei 0,3% p. a.

die Cash-Flow-Analyse zur Risikokalkulation verwenden

Anhand einiger Cash-Flow-Berechnungen mit unterschiedlichen Zinsen und Restwerten nach 10 Jahren kann das Risiko mit Zahlen unterlegt werden.

Beispiel:2013-12-18_14-21-11_680
Zweifamilienhaus freistehend, drei Wohnungen mit 2*100 und 1*60 Quadratmeter, erzielte Miete 1600 € monatlich. Das Mietrisiko für Ausfälle wird mit 5% kalkuliert. Das Haus, Baujahr 1977, ist energetisch nicht saniert. Für Reparaturen werden 6000 € jährlich veranschlagt, dadurch können nach und nach auch die Fenster ausgetauscht werden. Der Kaufpreis ist 400.000 €, die Kaufnebenkosten 40.000 €. Die Finanzierung läuft über 10 Jahre, berechnet wird der erzielte Zins. Ist die Fremdfinanzierung günstiger, verzinst sich das Eigenkapital besser und umgekehrt.

Geht man im Modell davon aus, dass das Haus nach 10 Jahren immer noch 400.000 € wert ist, ergibt sich ein kalkulatorischer Zins (internal revenue rate) von 2,2% für einen Gegenwartswert von 0, berechnet mit dem Financial-Paket der Mathematiksoftware R. Bei einem Eigenkapital von 220.000 und einer Kreditaufnahme von 220.000 € wird das Eigenkapital dann mit knapp 3% verzinst, was deutlich über den üblichen festverzinslichen Anlagezinsen liegt.

Ist das Haus in 10 Jahren aber nur noch 350.000 € wert, ist der kalkulatorische Zins 0,91% – eine billigere Baufinanzierung mit auf 10 Jahre festgeschriebenem Zins ist derzeit nur schwer zu finden. Auf das Eigenkapital ergibt sich entweder 0-Verzinsung oder eine sehr geringe Verzinsung. Die folgende Grafik verdeutlicht den Zusammenhang:

Zusammenhang kalkulatorischer Zins bei einer Immobilieninvestition und dem erwarteten zukünftige Verkaufspreis
Zusammenhang kalkulatorischer Zins bei einer Immobilieninvestition und dem erwarteten zukünftige Verkaufspreis

Sinkt der Hauspreis weiter auf 300.000 € in 10 Jahren, ist der kalkulatorische Zins -0,52% – also negativ. Nur durch Abbau von Eigenkapital lässt sich dieses Haus finanzieren.

Der Verkaufspreis für derartige Häuser in vergleichbarer Lage war um 2008 ca. 250.000 €. Bei einer unterstellten jährlichen Inflation von 2% entspricht das einem Preis von 350.000 € in 2025. Da im Modell stets hohe Beiträge investiert wurden, hält sich die Wertabnahme der Bausubstanz in Grenzen.

Konsequenzen

Die aktuellen Zinsen schlagen sich in den Hauspreisen nieder, wie der aktuelle Marktverlauf zeigt. Jedoch sollten Käufer vor steigenden Zinsen und darauf folgenden Preisverfall für Immobilien und auch Aktien auf der Hut sein. Der wirtschaftlich noch sinnvolle Kaufpreis hängt zudem stark von dem zukünftigen Wiederverkaufswert ab. Der darf nicht wesentlich niedriger sein als der heutige Kaufpreis.

Verkaufspreis optimieren

Einfache Modelle helfen bei der Entscheidung

Inspiriert vom Deckungsbeitragsrechner des Preisspezialisten Roman Kmenta zeige ich hier, wie man aus zwei Verkaufspreisen, zwei abgesetzten Mengen, den Fixkosten und den variablen Stückkosten – also den Kosten pro Stück, die nur bei tatsächlicher Produktion anfallen – den Verkaufspreis berechnen kann, der den größten Gewinn erzeugt. Voraussetzung ist natürlich, dass der Unternehmer den Preis überhaupt beeinflussen kann. Dies ist der Normalfall.

Die Berechnung (Cournot-Punkt)

Als Beispiel nehme ich einen vereinfachten Fall aus dem Obst- und Gemüsehandel. Wir haben durch Experimente herausgefunden, dass wir bei 3 € Verkaufspreis je Schale am Tag 300 Packungen Erdbeeren, bei 4 € Verkaufspreis je Schale aber nur 200 Packungen Erdbeeren verkaufen. Ein Euro Preiserhöhung macht also 100 Packungen Unterschied. Die Preis-Absatz-Funktion ist also Verkaufspreis = 6 – 0,01 * abgesetzte_Menge. Der Verkaufsstand kostet uns 200 € pro Tag (Fixkosten), der Plantagenbesitzer liefert uns die Erdbeeren für 2 € je Schale an den Stand (variable Stückkosten der Erdbeeren). Der Gewinn pro Tag ist abgesetzte Menge mal Preis – abgesetzte Menge * variable Stückkosten – Fixkosten. Der Gewinn G soll größtmöglich ausfallen, bei einem Preis von 6 € verkaufen wir aber nichts mehr, wie die Preis-Absatz-Funktion aussagt. Durch Einsetzen ergibt sich folgendes:

Gewinn = Menge * (6 – 0,01 Menge) – Menge * 2 – 200,
umgeformt:
Gewinn = Menge * 6 – 0,01 Menge^2 – Menge * 2 – 200
und weiter:
Gewinn = Menge * 4 – 0,01 Menge^2 – 200

In der Oberstufenmathematik haben wir gelernt, dass die erste Ableitung (Steigung) einer Parabelfunktion am Maximum (des Gewinns) 0 ist. Die Funktion zeigt den Gewinn als Ergebnis von Preis und Menge. Beginnend von einem sehr niedrigen Preis steigt der Gewinn zunächst, wenn wir die Preise erhöhen. Es gibt einen Gewinnmaximum (mögliche Gewinnsteigerung = 0), dann sinkt der Gewinn wieder, wenn wir die Preise weiter erhöhen. Grund dafür sind sinkende Absatzmengen.

Bilden wir die erste Ableitung G´, die wir 0 setzen müssen (keine Steigung des Gewinns mehr):

G´ = 4 – 0,02 Menge
0 = 4 – 0,02 Menge
4 = 0,02 Menge
Menge = 200

setzen wir wieder in die Preis-Absatzfunktion ein, gilt:Verkaufspreis Cournot Gewinn berechnenCournot-Punkt

Preis = 6 – 0,01 * 200
Preis = 4 (Euro)
Gewinn = 200 € (pro Tag!!!)

Folgen der Cournot-Analyse für den Verkaufspreis

Bei diesem Modell kann man die Einkaufspreise ändern und staunen, wie sich der Verkaufspreis ändert, so wird z. B. bei einer Senkung der Einkaufspreise um 50 ct der gewinnmaximale Verkaufspreis um 50 ct sinken und der Gewinn um 100 € steigen (pro Tag).

Natürlich lässt sich das Modell wegen einschränkender Annahmen nicht direkt in die Realität umsetzen. Aus eigener Erfahrung mit Straßenverkaufsständen für Obst kann ich sagen, dass die Gewinne nicht ganz so hoch liegen wie in diesem Beispiel mit 25%.

Wie gut anwendbar ist das Modell

Das Modell setzt eine bekannte, stabile und möglichst lineare Nachfragefunktion voraus. An genau der scheitert der Einsatz meistens. Ansätze zur Ermittlung finden Sie hier.

Kundennutzen messen mit der Means-End-Chain

als Lieferant Nutzen schaffen

Im Folgenden analysiere ich, wie man mit einer einfachen Mittel-Ergebnis-Kette die Schaffung von Kundennutzen darstellen kann und die Prozesse einfach optimieren kann. Kundenerwartungen der Zielgruppe sind nicht immer leicht zu erkennen und bleiben häufig in betriebswirtschaftlichen Optimierungen oder hinter unrealistischen Ansprüchen Einzelner verborgen

Im Folgenden geht es neben dem Vorgang „Kundennutzen messen“ um den Zusammenhang der Means-End-Chain mit der klassischen volkswirtschaftlichen Nutzentheorie. Es geht um die Beantwortung der alten Frage: Warum kauft jemand ein bestimmtes Produkt und wie ist sein Nach-Kauf-Erlebnis? Viele Theorien über die Bewertung von Produkte und Werbung durch Menschen existieren, und so manchen Händler macht sich seine eigenen Gedanken.

Das Subjekt kauft, wenn der erwartete Kundennutzen größer als der Preis ist

Im volkswirtschaftlichen Seminar wird die Nutzentheorie und die Theorie der rationalen Erwartungen gelehrt. Laut Nutzentheorie kauft ein Wirtschaftssubjekt solange, bis der erwartete Nutzen den Kaufpreis erreicht. Budgetrestriktionen sind zu berücksichtigen.

Werturteile der Käufer beeinflussen ihre Produkterfahrung

Wie kann man den erwarteten, vom potentiellen Käufer empfunden Kundennutzen messen? Mensch trägt kulturelle oder auf Erfahrungen basierende Werthaltungen in sich. Beispiel: „Händler sollen alle Kunden eines Segments gleich behandeln“. Oder: „Bio-Produkte schmecken besser“. Diese Werte werden „End“ genannt, der End-Zustand, den der Konsument erreichen, halten und verbessern will.

Auf dem Weg dahin sind die „Means“. Das sind die erwarteten Auswirkungen des Produkts auf das Leben des Menschen. Der Kunde sieht das Produkt und seine Eigenschaften, und schließt daraus auf die Wirkungen. Diese Wirkungen vergleicht er mit seinen Wertvorstellungen.

Preisassoziation oder Conjoint-Analyse zum Kundennutzen messen

Kundennutzen messen ist bei dem Einsatz von Fragebögen per Conjoint-Analyse möglich. Hier sollen die Versuchspersonen unterschiedliche Produkte/Dienstleistungen vergleichen. Dabei kann jede Produkteigenschaft einzel bewertet werden. Der Befragte muss allerdings die einzelnen Produkteigenschaften kennen.

Bei neuen Produkten empfiehlt sich die Technik der Preisassoziation. Dem Befragten wird das Produkt vorgestellt und ein Preis dazu genannt. Der oder die Befragte soll den Preis dann zwischen „zu niedrig“, „akzeptabel“ und „zu hoch“ einschätzen. Dies folgt der Assimiliation-Contrast-Theorie. Die Nutzenvorstellung der Kunden drückt sich auch in der Preiselastizität aus.

Beispiele zur Bildung des gefühlten Kundennutzens: dazu grafisch:

Means-End
Means-End-Theorie
mit Beispielen

Datenquellen für die Marktforschung

Datenquellen zur Marktentwicklung – welche

Im Mai 2014 erstellte ich mit Material von Statista eine Studie zur Marktlage und Perspektiven privater Berufsschulen. Das Material bei Statista war leicht zugänglich und gut aufbereitet, vermisst habe ich lediglich den Zugang zu dem zugrundeliegenden Datenmaterial. Ich bekam die Zusammenfassungen, aber nicht die Zahlen zur eigenen Auswertung. Das reichte, um die gewünschten Angaben zusammenzustellen und ich konnte diese Datenquellen mit den Zahlen meines Auftraggebers und selbst erhobenen Daten von Mitbewerbern kombinieren.

Statista erlaubt Redaktionen mit Corporate-Account, die Statistiken in eigenen Veröffentlichungen weiter zu verwenden. So sieht man einige der selbst kostenpflichtig erworbenen Zahlengebäude in einschlägigen Publikationen. Marktforschung, Datenquellen, Angebot, auskunft, crm, beraten, beratung, berufsberatung, business, dienstleistung, erfahrung, Datenquelle, finanzen, Stift, hilfe, kompetent, kompetenz, Tipps, Leistung, Qualität, kostenlos, kredit, Skizze, kunde, kundenbindung, kundendienst, kundenservice, leistung, lösung, lösungen, marketing, service, support, text, vertrauen, vertrieb, werbung, wort, zufriedenheit, Servicetelefon, hotline, Callcenter, Garantie, icon

Lohnen sich die Dienstleistungen der reinen Datenanbieter?

Statista verwendet viele Datenquellen, die an anderer Stelle bereits veröffentlicht wurden. So sind die ansonsten kostenlosen Daten statistischer Ämter bei Statista gebührenpflichtig. Diese Daten sind bei der Marktforschung unentbehrlich, weil sie die Bevölkerungsdaten liefern und zudem die Repräsentativität eigener Studien klar stellen. Ich selbst bevorzuge die Arbeit mit Daten direkt von den statistischen Behörden oder anderen veröffentlichten Datenquellen. Die Arbeit von Behörden und Universitäten ist in der Regel schwerer verdaulich, aber qualitativ besser und aktueller als das aufbereitete Material von Dienstleistern.

Statista erhebt eine Eintrittsgebühr von knapp 600 € ohne Veröffentlichungsberechtigung und 3600 € mit Veröffentlichungsberechtigung. Das ergibt Zugang für ein Jahr. Für kleine Projekte ist das viel Geld, wenn aber in einem Jahr mehrere Studien anfallen relativiert sich das wieder.

Qualitative Überlegungen zu gekauften Datenquellen

Die von Dienstleistern wiederverwendeten Daten aus mehr oder weniger öffentlichen Datenquellen haben ein Vereinfachungs- und Qualitätsproblem, wie soeben festgestellt. Das ist auch der Grund, weswegen ich individuelle Studien erstelle und nur so wenig wie nötig wiederverwende – das Ergebnis ist dann zwar schwerer erarbeitet, aber zutreffender.

Big Data Analyse oder Hypothesen testen?

Worum geht es

Big Data (große Datenmenge) meint zunächst die Zahlenkolonnen, die bei Webanwendungen, Sensoren an Maschinen oder für das Wetter und bei Fakturierungs- und CRM-(Kundenbeziehungsmanagement)-Software anfallen.

Arbeit mit Hypothesen bedeutet, dass eine Grundannahme existiert, z. B. wer Golf fährt wird wieder einen Golf kaufen. Diese Annahme kann nach einer repräsentativen Umfrage unter 500 Golf-Fahrern bestätigt oder verworfen werden. Verwerfen bedeutet, laut Umfrageergebnis sagt die Eigenschaft „Golf fahren“ überhaupt nichts über die Wahrscheinlichkeit des Kaufs eines weiteren Golfs aus.

Big Data Anwendungen sind Softwarepakete, die aus diesen Daten ohne Grundannahmen Zusammenhänge herauslesen können. Dazu werden die Daten betrachtet und Häufungen (Cluster) gesucht, oder Entscheidungsbäume gebildet. Beispiel für einen Entscheidungsbaum: ich möchte ausrechnen, ob eine Apfelbaum dieses Jahr Ertrag haben wird. Gemessen habe ich folgende Daten über mehrere Jahre an vielen Bäumen: Alter, Sorte, Bodennährstoffe, Sonneneinstrahlung, Ertrag. Mit Entscheidungsbäumen und Clustern kann ich den Ertrag vorhersagen.

Schätzung und Realität
Schätzung und Realität – hier hat es funktioniert

Gerne werden daher Big-Data Anwendungen zur Umsatzprognose bei Händlern, zur Lagerhaltung und zum Errechnen von Maschinenstandzeiten ausgerechnet. Händler profitieren, indem sie die Bestellmengen und die Lagerhaltung dem erwarteten Umsatz anpassen können, einige können sogar Bestellungen ausliefern, die noch gar nicht getätigt wurden. Der Computer wußte, dass der Kunde noch kommt.

Es entsteht doch Nutzen

Weiter können neue Korrelationen gefunden werden, die traditionell nach Hypothesenbildung aus den Datenbeständen statistisch errechnet und oft auch übersehen wurde. Es ist keine theoretische Begründung für den Zusammenhang mehr nötig.

Die Auswertung von Big Data ist insofern eine Verlängerung des menschlichen Gehirns. Die Fundierung durch Daten gibt den Zusammenhängen mehr Gewicht. George Soros, der vor einigen Jahrzehnten mal legal mit Leerverkäufen die Bank von England knackte, ließ nach eigenen Angaben nach die Milliarden dann los, wenn es ihn rechts im Bauch.
zwickte. Sein Gehirn wertete demnach unbewußt die vorhandenen Daten aus und signalisierte die Entscheidung.

Ziele auf deine Kunden - Hochdruckverkauf
Ziele auf deine Kunden – Hochdruckverkauf

Big Data automatisiert – und macht genauso Fehler wie Menschen, die etwas abschätzen. Berüchtigt und für jeden sichtbar sind die Retargeting-Kampagnen in der Online-Werbung, bei denen aus vergangenen Käufen die Wahrscheinlichkeit zukünftiger Käufe errechnet werden soll. Die Vorschläge sorgen oft für Heiterkeit. Der Entwickler und Daten-Analyst kann natürlich unplausible Zusammenhänge verwerfen.

Lesenswert zur Thematik ist folgender Artikel, welcher die Bedeutung der Big-Data(nalyse) realistisch sieht. Für die Versprechen der Hersteller siehe: Hier klicken für computerwoche.ch