Analyse – Der DataBerata https://databerata.de DataBlog Mon, 02 May 2022 15:59:25 +0000 de hourly 1 https://wordpress.org/?v=6.7.1 https://databerata.de/wp-content/uploads/2013/08/cropped-DSCF4573-1-32x32.jpg Analyse – Der DataBerata https://databerata.de 32 32 Global Pulse – Big Data Analytics für Projekte der UN https://databerata.de/global-pulse-big-data-analytics-fuer-projekte-der-un/ https://databerata.de/global-pulse-big-data-analytics-fuer-projekte-der-un/#respond Mon, 18 Jun 2018 11:11:57 +0000 http://databerata.de/?p=955 United Nations Global Pulse

Wie schafft es die UN, ein Monitoring in Echtzeit hinzubekommen, um bei sich anbahnenden lokalen oder globalen sozio-ökonomischen Krisen sehr schnell und effizient einen Überblick zu verschaffen, möglichst schon Krisen im Entstehen zu bemerken um dann früher über Massnahmen entscheiden zu können?

„Big Data“ könnte helfen: Die UN wird dies mit der Auswertung „Digitaler Quellen“ erreichen – das sind Nachrichten, Tweets, Sensorik, öffentliche Datenquellen. Geeignete Verfahren aus dem Umfeld Big Data können diese riesigen Datenmengen analysieren und mit der Expertise von Fachleuten als Informationspool mit Warnfunktionen bereitstellen.

Eine sehr gute Kombination aus „low-tech-sensors“ mit „high-tech-analytics“

Zur Zeit gibt es Global Pulse Labs in New York, Jakarta und Kampala. 

Ein wichtiges Projekt, dass helfen wird, die Welt für viele zu einem angenehmeren Ort zu machen.

Hier geht es zur Global Pulse Website der UN: Weiter

]]>
https://databerata.de/global-pulse-big-data-analytics-fuer-projekte-der-un/feed/ 0
Cambridge Analytica. Oder wie man neue Werbemöglichkeiten erfindet. https://databerata.de/cambridge-oder-wie-man-neue-werbemoeglichkeiten-erfindet/ https://databerata.de/cambridge-oder-wie-man-neue-werbemoeglichkeiten-erfindet/#respond Wed, 07 Dec 2016 21:14:16 +0000 http://databerata.de/?p=1697 7.12.2016      Welche Chancen haben Unternehmen, die das Verhalten von Menschen über die Schaltung von Werbung im Web (Adds)  – oder das „Injizieren“ von Kommentaren und Posts – mit ausreichender Wucht zu beeinflussen versuchen?

Als Data Scientist, Autor und Unternehmer interessiert mich dieses Thema aus professioneller Sicht. Und endlich gibt es einen Use Case dazu: Titel „Cambridge Analytica, Trump, Brexit und noch ganz viel mehr!“.

Hier die wichtigsten Ergebnisse.

In „Das Magazin“ erscheint am 3.12.2016 der folgende Artikel über Michal Kosinski, einen Data Scientist, der herausragende Grundlagenforschung betrieben hat.  https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/

Michal  Konsinski hat an der Cambridge University ein Verfahren entwickelt, wie man aus auch kurzen schriftlichen oder symbolischen Äusserungen von Personen auf die Persönlichkeit dieser Person schliessen kann. Diese Texte können unterschiedliche Quellen haben – und auch aus  dem Web (Bsp. Texte oder „Likes“ bei Facebook) bezogen werden. Das klingt wundersam und genial – und ist wie üblich mit einer sehr guten Idee, Fleiss und Forscherdrang umzusetzen.

Es empfiehlt sich, das Ergebnis der Forschungsarbeit im Web zu besuchen. Auf der Website https://applymagicsauce.com/demo.html kann man sich mit eigenen Texten versuchen. Zwischenergebnis nach meinen Recherchen: Das was die Cambridge UNIVERSITY (nicht die Firma!!) macht, ist wirklich fundiert und sehr interessant.

Forschen Sie selbst. Vielleicht mit mit eigenen Texten. Sie werden sehen – ein paar Zeilen eigenen Textes – und sie können „psychografiert“ werden. Vielleicht entdecken Sie auch den „Schwager Effekt“, von Statistikern „n=1“ Effekt genannt: Schwager Effekt:  Zu jeder Statistik findet man einen Schwager, auf den diese Statistik nicht zutrifft. Das „n=1“ bedeutet – der Schwager ist nur eine einzelne Person, und damit kein Beweis „gegen“ die Statistik, die wurde (hoffentlich) an einer repräsentativen Stichprobe erhoben.

Das bedeutet: Die Ergebnisse der Tests werden nicht  immer 100% zutreffend für Sie sein. Sie sind auch nur „n=1“ – also eine einzelne Person. Beim weiteren Erforschen der Seite bekommen Sie aber  Informationen, wie es zu diesem Instrument kam und wie exakt dieses messen kann. Beim Klicken der an den Indikatoren positionierten „?“  wird u.a. erklärt:  „The predictive model was built using a sample of 260,000 participants’ scores on the 100-item long International Personality Item Pool Questionnaire (IPIP), arguably the most popular personality assessment in use today“. Prediction Accuracy (Area Under the Curve) : Between .35 and .50″ (Anmerkung: perfekt wäre eine Güte von 1 = 100%ig richtige Vorhersage, ganz mies 0 = 0%).

Wie hat Herr Kosinski (und seine Kolleg*innen) das also gemacht? In einer Studie mit 260.000 Menschen werden Zusammenhangsmaße zwischen den Ergebnissen von psychologischen / psychiatrischen Tests (Big 5) und „anderen“ Variablen ermittelt. Ziel ist es,  die Fragen des wissenschaftlichen Tests „Big 5“ gar nicht mehr stellen zu müssen, sondern sogenannte „Proxies“ (Stellvertreter) zu finden, die hoch korrelieren. Statt 100 Fragen beantworten zu lassen,  braucht man nur noch diese Proxies (Bilder, Formulierungen, Likes) als Indikator. Dieses Verfahren wird auch bei der Entwicklung von Persönlichkeitstest genutzt, um handhabbare (z.B. kurze),  valide (genaue) und reliable (verlässliche) Messverfahren zu entwickeln.

Die Bildung von Proxies kann mit dem Verlust der Güte eines Test einhergehen – die Vorhersagegenauigkeit leidet. Aber: Wenn ich statt der 100 Fragen der Persönlichkeitstest nur die Anzahl der Likes auswerten muss, um z.B. Neurotizismus zu erkennen, geht’s schneller, man muss nicht Fragebogen ausfüllen lassen, es ist preiswerter. Aber halt nicht so genau.

Herr Kosinski zeigt auf, dass dies auch mit öffentlich zugänglichen Proxies geht: Diese Art der Äusserungen findet man man bei Facebook in jedem Profil. Nun, eine Vorhersagegenauigkeit von .35 bis .50  ist nicht sonderlich hoch, im wissenschaftlichen Sinne. Aber schon nutzbar, wenn man ansonsten nichts weiss über ein Gegenüber oder eine Person hinter einem Facebook Profil. Und, wenn man nichts weiss, aufgrund von Selbstauskünften wie Wohnort und Beziehungsstatus mit der Giesskanne Werbung ausschütten müsste.

Es wird so gut nutzbar sein, dass tatsächlich die ein oder andere Person gefunden wird, die von ihrer Persönlichkeitsstruktur für definierte politische Botschaften oder Produktwerbung aufgeschlossener ist.

Zwischenbemerkung – die sogenannten „Big 5“ zu nehmen, ist der richtige Ansatz: Alle anderen Persönlichkeits-Tests sind eher auf dem Mess-Niveau von Horoskopen. Siehe: https://databerata.de/anleitung-zum-wahrsagen/.

Die Firma Cambridge Analytica (CA) nutzt dieses Vorgehen kommerziell und posaunt: Wir haben nicht nur Trump gekrönt, sondern bereits dem „Brexit“ den Weg  bereitet.

Wie genau soll das gehen?

  1. Cambridge Analytica ermittelt „auf Vorrat“ Persönlichkeitsprofile aus Facebook Profilen
  2. CA bekommt den Auftrag, potentielle Trump-Wähler zu finden und zu beeinflussen
  3. Eine Analyse der Zielgruppe „potentielle Wähler von Trump“ hätte ergeben, dass diese eher zu einer selbstunsicheren Persönlichkeitsstörung  neigen („… ist gekennzeichnet durch Gefühle von Anspannung und Besorgtheit, Unsicherheit und Minderwertigkeit. Es besteht eine andauernde Sehnsucht nach Zuneigung und Akzeptiertwerden, eine Überempfindlichkeit gegenüber Zurückweisung und Kritik mit eingeschränkter Beziehungsfähigkeit. Die betreffende Person neigt zur Überbetonung potentieller Gefahren oder Risiken alltäglicher Situationen bis zur Vermeidung bestimmter Aktivitäten.
    Quelle Wikipedia, https://de.wikipedia.org/wiki/Selbstunsicher-vermeidende_Persönlichkeitsstörung vom 17.1.2017 11:05)
    .
  4. Cambridge Analytica  selektiert aus den gespeicherten Persönlichkeitsprofilen die zutreffenden Zielprofile (a la Kosinski)
  5. und postet auf deren Timeline in Facebook entsprechende Meldungen
  6. … und kann tatsächlich, nicht perfekt, aber ganz gut, Meinungen beeinflussen.

Beim genaueren Hinsehen entsprechen diese Schritte auch einem „traditionellen“, durch  Tracking und Tracing generierten Profiling von Zielpersonen im Web. „Personalisierte Werbung“ heisst der Fachbegriff.   Nur ist dieses Profiling meistens nicht so gut ….

Mit den Veröffentlichungen von und über Cambridge Analytica entstand eine Welle von Kommentaren, die wie einander zitierend sich zumindest an einem Wortspiel probierten: „Big Data – Big Schwindel“ wurde z.B.  am 6.12.16 die Meldungen in der WELT getitelt. Wobei diese nicht-Fach-Artikel mit wenig statistischer und analytischer Fachkenntnis aufwarten konnten.

Hat nun CA Trump auf den Thron geholfen? Dem Brexit zur Mehrheit verholfen? Ob das Schwindel war – das könnten exakte Analysen und Befragungen beantworten. Auf jeden Fall ist Cambridge Analytica ist ein echter PR Coup gelungen. Sehr lautstark krönen sie sich zu den Königsmachern. Und es stimmt: Ihre Werkzeuge greifen auf der Basis Psychografie besser, als es anderen Verfahren des Tracking und Tracing tun (die üblicherweise auf Grund einer Surf-Historie  einer Person ein „Profil“ zuweisen, um dann individuelle Werbung zu schalten).

Meine Meinung ist: Das Ziel von CA dürfte nicht der nächste Auftrag von der AfD oder Herrn Wilders sein, sondern Fuß zu fassen in der lukrativen Welt des Tracking und Tracing: Ein echter Clou! Kategorisiere psychografisch ein Facebookprofil auf Basis der Likes und Statements, spiele „passgenaue“ Werbung (Adds) hinzu, und revolutioniere den Markt der Online Werbung. Damit wäre CA ein idealer „Partner“ für Facebook, Google & Co..

TL; DR

Cambridge ANALYTICA nutzt eine fundierte wissenschaftliche Entwicklung der Cambridge University, um Personen zu „psychografieren“. Diese „Psychografien“ können genutzt werden, um leicht beeinflussbare Menschen zu finden um diese zu „informieren“.

Nutzbar ist dies sowohl für Politiker – aber eher noch für Werbetreibende. Das Big Business mit Big Data könnte erklären, warum Cambridge ANALYTICA so laut mögliche Erfolge rausposaunt.

______________

Stand der Informationen: 17-01-17

]]>
https://databerata.de/cambridge-oder-wie-man-neue-werbemoeglichkeiten-erfindet/feed/ 0
Marktforschung der Zukunft – Mensch oder Maschine? https://databerata.de/marktforschung-der-zukunft-okt16/ https://databerata.de/marktforschung-der-zukunft-okt16/#respond Thu, 06 Oct 2016 12:37:25 +0000 http://databerata.de/?p=1618 „Marktforschung der Zukunft – Mensch oder Maschine?“
Die Herausgeber Bernhard Keller, Hans-Werner Klein und Stefan Tuschl haben erneut Autoren für ein Basiswerk der Zunft werben können.

 

978-3-658-12364-2_Cover_1.inddDas Buch liefert liefert Antworten. Fachlich, verständlich und mit Herzblut geschrieben teilen 19 renommierte Autoren ihre Visionen und Projekte für die „Marktforschung der Zukunft“.  Kommt es zum Showdown? Mensch oder Maschine?

„Marktforschung der Zukunft“ ist kein Roman. Obwohl die Gliederung der Inhalte sich fast so liest. Lassen Sie sich einladen, Marktforschung in der Zukunft zu erkunden. Dazu braucht es eine Kartografie, Leuchttürme und Wege, um dort hinzugelangen. Der vorliegende Band ist weder Dogma, noch vollständig, sondern wie der erste Band: Einladung zum Diskurs.

Der Inhalt:

  • Von Mauern und Windmühlen: Warum sich die Marktforschung neu erfinden muss (Claudia Gaspar, Andreas Neus und Fabian Buder)
  • An den Grenzen der Marktforschung (Dirk Engel)
  • Partnerschaft in der Marktforschung (Marco Ottawa und Veronika Falk)
  • Gemeinsam mehr als die Summe ihrer Teile (Gerhard Keim und Virginie Gailing)
  • Predictive Analytics (Janine Seitz)
  • Zur Zukunft der Online-Felddienstleistung ( Otto Hellwig)
  • Nachholen, Aufholen, Überholen (Stefanie Sonnenschein)
  • Renaissance der Psychologie im Marketing: ein Plädoyer  (Michael Pusler)
  • Oh Mensch – Neue Methoden in der qualitativen Marktforschung (Edward Appleton)
  • Big Data und amtliche Statistik  (Markus Zwick)
  • Das Reziprozitätsprinzip in der Lehre für zukünftige Marktforscher  ( Annette Corves und Oliver Reis)
  • Alles nur ein Spiel? (Stefan Tuschl, Sandra Meister und Sarah Laube)
  • Shorter Smarter Surveys (Markus Eberl)
  • Bekannte, aktuelle und neue Anforderungen an Treiberanalysen (Heiko Schimmelpfennig)
  • Werthaltige Segmentierung (Jürgen Eisele)
  • Ungenutzte Potenziale: Kundenservicedaten in der Marktforschung nutzen (Michael Scharf)
  • Automobil-Marktforschung heute und morgen: Vom Marktforscher zum Wissensmanager und Lotsen bei der Umsetzung (Werner Hagstotz und Karin Schmitt-Hagstotz)
  • Big Data in der empirischen Gesundheitsforschung (Tibor Haunit)
 Ab sofort lieferbar.  Print, eBook
Dieses Buch ist die Folge, nicht die Fortsetzung von „Zukunft der Marktforschung (ZdM)“. ZdM hat die Marktforschungswelt mit Fragen und Analysen aufgewühlt – fast 86.000 (Stand Dezember 2016)  Downloads des Buches / einzelner Kapitel  meldet der Verlag. „Das beste Marktforschungsbuch der letzten Jahrzehnte!“ so die Kritik eines Kollegen.

 

 

978-3-658-05399-4_Cover_1.inddZukunft der Marktforschung – Entwicklungschancen in Zeiten von Social Media und Big Data“  SpringerGabler 2015

]]>
https://databerata.de/marktforschung-der-zukunft-okt16/feed/ 0
Predictive Analytics? Ich sehe was, was Du nicht siehst! https://databerata.de/ich-sehe-was-was-du-nicht-siehst/ https://databerata.de/ich-sehe-was-was-du-nicht-siehst/#respond Thu, 15 Oct 2015 10:40:25 +0000 http://databerata.de/?p=1568 Ich sehe was, was Du nicht siehst? Predictive Analytics!

Von Hans-Werner Klein (erschienen am 15.10.2015 in: „Das ganz große Ding – Predictive Analytics / Big Data“ Marktforschung.de – Das Dossier)

Predictive Analytics von einem Marktforscher durchleuchten lassen, das hat schon was. „Predictive“ waren die meisten Produkt-Marktforschungen schon immer, gerade deshalb wurden sie schließlich gemacht: Unternehmen erstellen schließlich Geschäftspläne auf Basis von datenbasierten Prognosen.

Soziologische Analysen hatten auch zumeist die Idee, dass man Verhalten von Gruppen analysieren und vielleicht auch vorhersagen kann. Mit den größten Wert auf „Predictive Analytics“ legen politische Parteien – und schauen sich ganz genau an, wie welche Themen in der Bevölkerung zu einem Erfolg der Partei am Wahltag führen können. Vielleicht kann ich diesen Beitrag für das marktforschung.dossier mal anders angehen. Vielleicht aus der Ecke Literatur, Film, Kunst oder  literarisch-philosophisch?

Was ist der neue Aspekt in diesem Thema?

„Das Ende des Zufalls“ proklamiert Rudi Klausnitzer in seinem 2013 erschienenen gleichnamigen Werk [1]. Untertitel: „Wie Big Data uns und unser Leben vorhersehbar macht“. Wenn Big Data und Vorhersehung genannt werden, darf die Marktforschung nicht fehlen. Oder doch? Wir werden umsatteln müssen in Data Scientists, Data Journalists, Data Designer, oder Datatainer. Erhalten aber damit auch den Status den „most sexy Job“ unseres Jahrzehnts auszuüben. Deal?

Predictive Analytics wird aus drei großen Quellen gespeist, die auch die Auktionen der Vermarktung von Daten in Zukunft bestimmen werden:

•Zum ersten die Ausweitung des Marktes für solche Prognosen. Wir sind, ohne es zu ahnen, umzingelt von uns betreffenden Prognosen: TV-Gewohnheiten, Sahne zum Kuchen, Unfallprognosen, Fahrverhalten, Kreditwürdigkeit – sogar kriminelle Aktivitäten mit Wochentag und Uhrzeit in unserem Wohnviertel können vorhergesagt werden. Das alles betrifft uns direkt. Da ist kein Flyer, kein Banner oder ein Mailing zwischengeschaltet.

•Zum zweiten die Ausweitung des Marktes für Werkzeuge, um diese Prognosen erstellen zu können. Als ältere quantitative Marktforscher sind Ihnen SAS und  SPSS ein Begriff. Geballtes Fachwissen auf den Feldern Statistik und Empirie, Kenntnisse des Marktes, der Kunden und Auftraggeber lassen diese Tools zu Zauberkästen der Experten werden. Aber braucht man die wirklich noch? Ausweitung des Marktes bedeutet zurzeit häufig, Werkzeuge zu bauen, die auf dem iPad Ergebnisse visualisieren können ohne Kenntnisse der Statistik. Automatisierung und propagierte Einfachheit durch Deprofessionalisierung gaukeln Verständnis und Erklären können auch komplexer Sachverhalte vor.

•Zum dritten die Ausweitung des Marktes für Daten, um die Werkzeuge zu füttern, um diese Prognosen sicherer und individueller zu machen. Dass Daten der Rohstoff des 21. Jahrhunderts sind, ist inzwischen Techno-Folklore von Kaffeekränzchen. Aber wo kommen diese Daten so plötzlich her? Quellen sind alle unsere Aktionen, die mit unseren „Credentials“ wie Kreditkarte, bestellte Waren, Newsletter, aufgerufene Seiten, gebuchte Urlaubsreisen, Einsatz von Bonus-Karten „bezahlt“ werden. Oder auch vom Kaffeekränzchen, wenn Smartphones genutzt werden, die eine umfangreiche Sensorik an Bord haben. Es ist schon verflixt: Wir können immer mehr wissen, dank Google & Co. Und bezahlen mit unseren Daten an Google & Co. Und als Marktforscher lassen wir  uns von diesen Databrokern die Butter vom Brot klauen.

Predictive Analytics im Film

Ein Moment des Innehaltens: Hatte ich nicht auch eine literarisch-philosophische Deutung versprochen? Oder ist es eine zu „steile These“, dass technologische und Marktentwicklungen auch von Literatur und Kunst getrieben werden? Das 1996er Klapphandy von Motorola war ein Klon des Communicators aus Star Trek, stimmt’s? Und hieß dann auch noch werbewirksam StarTAC.

Das Thema „Predictive Analytics“ als „Precrime-Detection“ wurde uns 2002  in dem Film „Minority Report“ näher gebracht. Der Film basiert auf einer Erzählung des Autors Philip Kindred Dick aus 1956. Der Plot: In Washington des Jahres 2054, werden drei Frauen mit der Fähigkeit der Hellseherei, sogenannte Precogs, benutzt, um Verbrechen vorherzusehen. Die noch-nicht-Kriminellen können vor dem Verbrechen von den Precops verhaftet werden. In einen Dämmerzustand versetzt, können sie weder morden noch betrügen.  Philosophisch-moralisch ein harter Brocken. Auch technologisch nicht ganz einfach umzusetzen, wenn man auf  Menschen statt Maschinen als Quellen der Predictive Analytics setzen würde.

Aber inzwischen sind wir noch nicht im Jahr 2054 aber weiter als 1956 oder 2002. Vielleicht  haben Sie die eine oder andere Meldung zum Thema „Precops“ gesehen. Auch die Bayrische Polizei setzt solche Analyse- und Prognoseprogramme ein. Und meldete am 23. Juni 2015 [2]: „In den Prognosegebieten hatten wir weniger Wohnungseinbrüche und mehr Täterfestnahmen“. Rückgänge der Einbrüche von 17,5 bis 42 Prozent [3] führen zu der Prognose des Bayrischen Innenministers: „Deshalb werden wir Precobs oder eine vergleichbare Prognosesoftware dauerhaft für die Bayerische Polizei anschaffe“. Diese Beispiele zeigen die ganz neuen Möglichkeiten von individualisierter Prognostik auf.

Verraten und verkauft [4]

Wie sieht es mit dem Informationsgold aus, das unsere Branche generieren sollte? Wir Marktforscher sind die ersten gewesen, die Daten „monetarisiert“ haben. Der nächste logische Schritt einer Kommerzialisierung von Daten wird allerdings von anderen gegangen: Kommerzielle Anbieter haben Angebote im Portfolio, die wie Zukunftsvisionen klingen, aber schon unter dem Begriff „Demand Side Platform“ (DSP) genutzt werden.

Die von Google & Co. mit Informationen versorgte Branche der Vermarkter von Anzeigenplätzen  hat „Bietermodule“ entwickelt: In Echtzeit wird einem dreistufigen Verfahren zuerst der „Wert“ eines Kunden auf Grund seiner Surfhistorie (Suchanfragen, besuchte Seiten, online Käufe) ermittelt. Diese Kundenwert-Profile  werden dann im zweiten Schritt auf einer Plattform in Echtzeit interessierten Unternehmen angeboten und schließlich an den Meistbietenden versteigert.

Das alles entspricht dem Datenschutz, der Bieter erwirbt keine Informationen, sondern nur den direkten temporären Zugang zu einem potenziellen Kunden. Der Surfer, also Nutzer einer Website, bekommt von dem im Hintergrund laufenden Prozess nichts mit. Was er bemerken könnte, wäre, dass er andere Angebote als seine Freundin oder der Nachbar als Nutzer der Website bekommt. Diese haben ein unterschiedliches Profil auf derselben Website, haben einen anderen kommerziellen Wert oder bevorzugen andere Produkte. Das Erstellen der Profile und Ermitteln des Wertes passiert sozusagen in Echtzeit, während sich die Seite aufbaut und der Nutzer auf dieser Website noch nicht mal seinen ersten Click gemacht hat. Dazu wird die Surf- und Suchhistorie ausgewertet.

Hier wird der bedeutende Unterschied zur Marktforschung deutlich: Das über den potenziellen Kunden generierte Wissen steht zwar sofort verwertbar zur Verfügung, aber verfällt wieder unmittelbar. Es werden keine Modelle über Zielgruppen generiert, die erst mit Expertenwissen in Kommunikation umgesetzt werden müssen.

Und das Verhalten des Kunden wird mit jedem Schritt ausgewertet: Eine Rückkopplungsschleife verfeinert die Parameter der Kundenorientierung. Jeder weitere Click, jede „Conversion“ (Kauf, Nutzung von Services) optimiert die Auswahl von Interessenten und passender Kampagne „on the fly“. Das treibt den Preis für den Kunden auf der Bieterplattform in die Höhe. Steht ein Interessent unmittelbar vor einem Online-Kauf, ist der Preis am höchsten. Hier könnten immer noch (sehr teuer ersteigerte) Angebote des Wettbewerbs ihn weg locken.

Nebenbei – das ist nicht nur eine Bedrohung der Marktforschung, sondern auch der Werbewirtschaft. In einem Blogartikel beschreibt Dominik Grollmann 2014 dies mit der provokanten Überschrift „Kauf, Du Sau“ [5].

Mein Fazit

Während man die Berichte und Artikel über Precops und andere Ergebnisse prädiktiver Analyse als schlichtes Infotainment abtun könnte, ist unsere Profession bedroht. Denn theorielose Automaten generieren Wissen, das ad hoc genutzt und sogleich wieder vergessen wird. Diese Automaten werden verwendet, um zum Beispiel Absatz im Web zu optimieren. Prozesse im Web bestimmen auch zunehmend unser Verhalten offline – und so haben diese Automaten Einfluss in unsere Welt aus Stein und Mörtel.

Marktforschung dient oft auch der Lösung strategischer Fragestellungen: Predictive Analytics. Diese benötigen eine angemessene Wahl von Methoden und Menschen. Genauso fundamental und nicht ersetzbar sind auf das Erkenntnisinteresse des Auftraggebers kritisch zugeschnittene Analysen und deren Interpretation und Bewertungen. Bei allen Möglichkeiten einer Prozessoptimierung in der Datengewinnung – der wichtigste Benefit der Marktforschung macht die Beratung aus, die Fähigkeit, einen Auftraggeber im Dialog nahtlos bei der Gewinnung und Nutzung der Ergebnisse zu begleiten.

Diese Beratung sollte extern durchgeführt werden – in Instituten, die nicht als Anhängsel von Marketingmaschinen wie Google & Co. funktionieren. So entgeht man der Gefahr, von Google & Co. als reinen Datenlieferanten und Vertriebsautomaten überrollt zu werden und sichert sich die Chance, diese Daten im Interesse des Auftraggebers angemessen zu nutzen. Und eröffnet sowohl den Marktforschern wie den Instituten eine arbeitsreiche und erfolgversprechende Zukunft.

Ergänzungen

WATSON übernehmen Sie (IBM Watson Analytics)?
IBM hat mit WATSON schon seit längerem ein mächtiges Analysetool im Angebot. In dem gestern erschienenen Artikel auf Computerbild wird „Watson Analytics“ vorgestellt, eine Gruppe von Tools die „Predictive Analytics“ mit Cognitive Computing (aka KI oder AI) ermöglichen. Die Use Cases im Artikel ergänzen meinen Beitrag: Wie wird das Wetter? Diese Frage beantwortet dann auch die Frage: Wie wird das Geschäft?  Quelle: http://www.computerwoche.de/a/watson-uebernehmen-sie-heisst-es-bei-ibm,3217241

OK, „Watson übernehmen Sie!“ ist wirklich die Lösung? Technologie löst Probleme? In meinem Artikel aus Sicht eines „DataBeratas“ und Marktforschers sehe ich das etwas anders. Dazu passt auch eine Studie von Alexander Linden (Gartner), die gestern 14.10.2015 veröffentlicht wurde: „… Most pitfalls will not result in an obvious technical or analytic failure. Rather they will result in a failure to deliver business value.“
Das ist auch unsere Erfahrung in „Large or Complex Data“ Projekten. Big Data Analytics schafft es über immer besser werdende Tools Datenschätze zu heben. Aber was nützt es, wenn Unternehmen vor einer Suppe sitzen, und Watson nichts als Gabeln ausgräbt? Auch hier hilft wohlmöglich das Know-How der Marktforscher-Zunft.

Quelle: http://www.information-management.com/news/big-data-analytics/big-data-analytics-raises-ethical-risks-10027583-1.html

Schluß mit „sexy“?

Das MIT meldet am 16.10.2015 große Erfolge mit seiner „Data Science Machine“: Gerade noch wurde der Data Scientist zum „sexiest Job“ in diesem Jahrzehnt gekürt (siehe obenstehenden Artikel) – erfolgt jetzt die Demütigung?

MIT: „System that replaces human intuition with algorithms outperforms 615 of 906 human teams.“ „http://news.mit.edu/2015/automating-big-data-analysis-1016“

Lesenswerter Artikel – zum ersten Mal, dass ich versucht bin, zu solchen Maschinen „Hallo Kollege“ zu sagen. Und mich sofort an „Die Physiker“ von Dürrenmatt zu erinnern. Wenn Maschinen richtig gut sind und uns „outperformen“, kann das zum Wohle aller oder vieler oder weniger eingesetzt werden, solche Maschinen können „Erntehelfer“ oder Waffen sein.

Fußnoten

[1] Rudi Klausnitzer „Das Ende des Zufalls: Wie Big Data uns und unser Leben vorhersagbar macht“, Ecowin März 2015

[2] Quelle abgerufen 1.10.15, 12:49 www.stmi.bayern.de/med/pressemitteilungen/pressearchiv/2015/204/index.php

[3] Anmerkung HWK: Unklare Datenlage – u.a. keine Angaben zum Vergleichszeitraum in den Dokumenten zu finden

[4] Dieser Abschnitt ist ein gekürzter und überarbeiteter Text aus „Zukunft der Marktforschung“ Springer Gabler 2015

[5] www.ibusiness.de/marketing/db/499304grollmann.html (abgerufen am 24.08.2014, Hinweis: Zugriff nur nach Anmeldung)

]]> https://databerata.de/ich-sehe-was-was-du-nicht-siehst/feed/ 0 SEO ist Schmuck am Nachthemd! https://databerata.de/seo-ist-schmuck-am-nachthemd/ https://databerata.de/seo-ist-schmuck-am-nachthemd/#respond Wed, 01 Jul 2015 14:28:01 +0000 http://databerata.de/?p=1484 SEO – Kann man das gut selber machen, wenn man weiss was man will?

„KLINGELTON“ Abheben. „Sind Sie damit unzufrieden, wie sie im Internet gefunden werden? Möchten Sie besser gefunden werden? Haben Sie von Kollegen gehört, die wirklich gut gefunden werden?“ Mein Angebot lautet:  nur für ….“ Aufgelegt. Von so einem Neunmalklugen lass ich mich kein schlechtes Gewissen machen!

NACHGEDACHT: Jetzt einfach mal das schlechte Gewissen der verpassten Chancen nutzen, und diese SEO Belästigung als Impuls verstehen. Um die eigene Seite mal wieder systematisch anzugucken.

Machen wir es  zusammen. Ich bin gerne Ihre graue Eminenz, die sie schon immer mal kenntnis- und hilfreich an Ihrer Seite haben wollten. Womit fangen wir an? Erst einmal mit Nachdenken. Aber keine Angst, wir gehen da mit Freude gemeinsam durch. Von wegen „Sie haben alleine keine Chance“! So gehen wir dann vor:

Das Drehbuch zur Site schreiben 

  • Was ist das Ziel Ihrer Site?
  • Welchen Beitrag leisten die einzelnen Seiten dazu?
  • Zielgruppe, genau: Wer soll dort auf die Seite kommen?
  • Was sollen welche Leute auf der Seite machen?

Die „richtigen“ Menschen auf die Site locken – und SEO verstehen

  • „richtig“ sind die Menschen dann, wenn sie zum Drehbuch passen und Erfolg, Spass, Vernetzung bringen.
  • SEO verstehen: Was macht SEO eigentlich genau – was macht SEO nicht?
  • Wen würde Kunden  normalerweise fragen, wenn sie „was“ brauchen?
  • Was hilft da SEO im Alltag?

 

Wer ist denn so bei mir auf der Seite?

  • Webanalyse installieren und lesen lernen.
  • Warnung: Wenn Sie es gar nicht wissen wollen, lassen Sie die Finger von der Webanalyse.
  • Warnung: Wenn Sie es aber genauer wissen wollen, was können Sie erfahren?

 

Ist eine Website und SEO also gar nicht so wichtig?

  • Kann man nicht pauschal beantworten.
  • Wichtig für Suchmaschinen Anbieter ist SEO allemal.
  • Google & Co wird immer wieder analysieren, ob irgendetwas auf der Site SEO oder Betrug ist.
  • SEO ist dann wichtig, wenn Sie das Drehbuch und die Rolle definiert haben – und  das gut gefunden werden für der Zielgruppe wichtig ist
  • Ehrlich: Manchmal ist in der Orchestrierung des Marketings SEO meist „Schmuck am Nachthemd“. Aber wann? Und bestimmt ist Ihre Site eine Ausnahme?

Alles verstanden, aber wenn ich nun doch bei Google gut gefunden werden möchte

  • Vielleicht hat Google in der kurzen Zeit zwischen dem Beginn dieses Artikels und jetzt seine Kriterien fürs gute Finden schon wieder erneuert?
  • Google hat lesen gelernt und versteht – altbackenes SEO wird zur Falle. Und Ihre Site eine Spamschleuder!
  • Es gibt viele Tipps von Google selbst, was man selbst machen kann – ohne mit SEO die letzten 0,4% rauszuholen.

Mein Angebot – Helfen Sie sich selbst mit den richtigen Menschen an Ihrer Seite

Paket 1 „Sound Check“ 480,00€

  • Wir checken Ihre Site und Seiten gemeinsam (Lernen durch Machen)
  • gehen ihre individuelle Zieleliste genau durch (Zielgruppe, Situationen der Suche)
  • Definieren Drehbücher und Rollenbesetzung (Kunden lieben einen guten Plot!)
  • Ich erstelle den Massnahmenkatalog, der leicht eingebaut werden kann (egal ob WordPress, hart vercodet, CMS).

Paket 2 „Erfolgskontrolle“ nach Aufwand, 150€/h oder „Stempelkarte“ für 5 (600€) oder 10 (1000€) Stunden – keine Wartezeiten.

  • Auf Wunsch kümmere ich mich um Ihr Web Controlling mit Open Source Tools
  • Auf Wunsch besprechen wir den Erfolg der Massnahme faktenbasiert nach 6 Wochen und in einem halben Jahr erneut
  • Ziel: Ich bringe Sie auf den Fahrersitz, Sie übernehmen das Steuer und lenken kompetent den Erfolg Ihrer Site. Zu Ihren Zielen.

Was zeichnet mich aus, mit Ihnen über diese Dinge zu reden und zu beraten?

  • Ich habe die Webanalyse für die telekom.de bei der Telekom Deutschland ab 2001 eingeführt und etabliert und in 11 Jahren mit meinen Kollegen die Webanalyse zum Web Controlling inklusive Betrugserkennung aufgebaut.
  • Als DataBerata das Web Controlling mit Semantischer Suche  und Analyse aufgefrischt und mobil gemacht (für ein DAX Unternehmen)
  • Bin Autor im Buch „Zukunft der Marktforschung“. Titel „Marktforschung ist nur eine Übergangslösung: näher am Verbraucher mit Google & Co“. Springer Gabler 2015
  • Bin Autor im eigenen Blog (DataBerata.de) und Gastautor in der Kolumne Mafo-Spitzen auf Planung & Analyse
  • Mit-Herausgeber des Beststellers „Zukunft der Marktforschung“ (Springer Gabler 2015)
  • Trainer / Referent zu  „Moderne Marktforschung“ und Webanalyse (GOR15, NPO Akademie, researchPlus, Online Medientage DHWB Mosbach)
  • Seit über 30 Jahren Zahlenkenner und quantitativer Marktforscher in der Politik, in Forschung, in renommierten Instituten und der Industrie.

Sie finden mich gut. In Bonn, im Web, am Telephon, per Mail

]]>
https://databerata.de/seo-ist-schmuck-am-nachthemd/feed/ 0
Anleitung: So verlieren Sie jetzt Kunden noch schneller https://databerata.de/kunden-schneller-verlieren-keine-liebe-anerkennung-aufmerksamkeit/ https://databerata.de/kunden-schneller-verlieren-keine-liebe-anerkennung-aufmerksamkeit/#respond Thu, 12 Mar 2015 11:00:42 +0000 http://databerata.de/?p=1409 Der Weg in’s Unglück: Keine Liebe, keine Anerkennung, nur Aufmerksamkeit geben. 

Lieben Sie Ihre Kunden? Also kennen sie ihn/sie genau, die Vorlieben, Kommunikationswege, Verhalten und, in welcher „Sprache der Liebe“ er oder sie angesprochen werden möchte?

Sprache der Liebe?

Gary Chapman* hat für die Paartherapie ein einfaches und wirksames Modell entwickelt – auch zum selber ausprobieren im Privaten geeignet. Sein Bestseller:  „Die fünf Sprachen der Liebe“ führt folgende Wege zum Herzen auf – hier mal mit Beispielen aus dem Alltag B2B und B2C ergänzt:

  • Lob und Anerkennung (Lautet Ihre Devise „Herzlichen Dank für Ihren Kauf“ oder „hahaa – wieder ein Dummer reingefallen“?)
  • Zeit zu zweit (Welche Kunden mögen kein 1.000 Leute Event sondern lieber eine  1:1 Betreuung bei einem Kamingespräch?)
  • Geschenke, die von Herzen kommen (nicht teuer, aber zielgruppengerecht achtsam gewählte Goodies & Incentives)
  • Hilfsbereitschaft (… und echte Serviceorientierung: in der Not zeigen sich Freunde)
  • Die fünfte Sprache „Zärtlichkeit“ sehe ich im geschäftlichen Umfeld nicht als Kanal.

Liebe – eine gewaltige Sache, nicht wahr?

Wenn es denn keine Liebe für Ihre Kunden gibt: Geben Sie Ihren Kunden denn Anerkennung? Anerkennung kann z.B. bedeuten:
Sie bieten Produkte an, die nachhaltig und fair produziert und zu einem angemessenen Preis angeboten werden. Ihre Kunden können mit gerechten Gewährleistungs- und Kulanzregelungen rechnen, wenn was schief geht. Oder: Kunden nutzen gerne ihre Produkte, weil sie dadurch auch selbst Anerkennung bekommen.

OK – Liebe ist nicht – auch keine Anerkennung für die Kunden – was bleibt?

Wer weder Liebe noch Anerkennung bekommt, lechzt nach Aufmerksamkeit. Kennen sie vielleicht von den krawalligen Nachbarskindern. Aufmerksamkeit ist wohlfeil, für negative und verletzende Aktionen bekommt man sogar mehr Aufmerksamkeit, als für neutrale Aktivitäten. Für einen Shitstorm also  eher als für einen positiven  Beitrag im Social Web.

Und wir wissen – das Web ist voll von „nutzergeneriertem Content“ – ein großer Teil davon ist „Social Media“. Dieser  wertvolle Rohstoff „User Content“ muss aufbereitet und zu wertvollen Informationen verdichtet werden.

Nutzen Sie die Marktforscher-Expertise –  und deren vorhandene Werkzeuge. Qualitative und quantitative Marktforschung ist im gesamten Lebenszyklus von Produkten und Dienstleistungen der wirksamste Kanal zum Kunden.

Die vorletzte „Grosse Welle“ hat gar den Kunden als Controller im Bereich „Total Quality Management“ eingesetzt. Nun ist es laut geworden im Controlling: Kunden sind inzwischen gewohnt, zu Wort zu kommen. Ungefragt. Sie haben das Gefühl, gesehen und gehört werden zu müssen. Sie brauchen Aufmerksamkeit. Nicht nur von Unternehmen, sondern auch von anderen Kunden.

Diese  Kunden berichten über ihre User Experience – verteilen fünf Sterne oder schreiben Produkte kaputt. Das kennen wir – und können es auch kritisch betrachten. Marktforscher finden aufmerksam und konzentriert im lauten Gewusel heraus, welche Sprache die Kunden sprechen und hören wollen. Auf Handelsplattformen wie Amazon, Bewertungsportalen wie Ciao, oder als „Stream of opinion“ in Twitter und Co. liegen Kundenmeinungen vor. In produktspezifischen Foren werden Erfahrungen ausgetauscht – Nutzer helfen Nutzern. Auf Facebook betreiben viele Unternehmen selbst eine Art Kundenportal.

Ersetzen diese Kundenmeinungen in Echtzeit die Analyse der Kundenloyalität? Meiner Meinung nach nicht. Aber sie ergänzen unsere Analysen mit einer Unzahl an Informationen aus Nutzersicht.  Liefern so wertvolle Inhalte. Wie findet man das raus? Es gibt Werkzeuge, um diese unstrukturierte Texte zu analysieren, und damit unseren Erfahrungen und Kenntnissen zeitnah nutzen. Die neuesten Tools sind sehr einfach zu bedienen, setzen keinerlei „Anlernen“ des Tools voraus und funktionieren Sprachen übergreifend.

Also ran!  Informationen strukturieren, bündeln, bewerten, in einen Kontext stellen. Und vielleicht nebenbei eine 5-Sterne Mafia entlarven und gekaufte Facebook Freunde – des Wettbewerbs – überführen.

Dies ist ein Aufruf, Kundenmeinungen auszuwerten, auch wenn wir sie diese Kunden nicht selbst gefragt haben.

Und das ist mehr als Aufmerksamkeit – das ist schon Anerkennung, und ein bisschen – Liebe dem Kunden gegenüber. Sie wissen ja inzwischen, weshalb.

* Chapman, Gary: Die fünf Sprachen der Liebe; ISBN 3-86122-621-9

 

]]>
https://databerata.de/kunden-schneller-verlieren-keine-liebe-anerkennung-aufmerksamkeit/feed/ 0
Studie zur Belastung Alleinerziehender https://databerata.de/studie-zur-belastung-alleinerziehender/ https://databerata.de/studie-zur-belastung-alleinerziehender/#respond Wed, 04 Mar 2015 19:59:57 +0000 http://databerata.de/?p=1396 Klaus Heywinkel ist „Zeitkünstler“ – das ist keine offizielle Berufsbezeichnung. Aber es beschreibt sehr gut die Dienstleistungen, die er anbietet.

„Hatten Sie in den letzten 4 Wochen ausreichend Zeit für sich?”

Sinngemäß hat das statistische Bundesamt diese Frage 2014 in Haushalten gestellt – als eine von vielen Frage für die Erhebung unter dem Titel “Zeitverwendung”.

Klaus Heywinkel als Zeitkünstler wollte es detaillierter wissen: Was genau sind für Alleinerziehende die wichtigenThemen beim Umgang mit Zeit?

Wie gelingt es Alleinerziehenden z.B., Zeit für ihre berufliche Weiterentwicklung zu finden? Oder ihre Batterien wieder aufzuladen?

Um dies und noch viel mehr zu erfahren wurde von mir der Online-Fragebogen zur Studie entwickelt.

Die Ergebnisse der Studie von Klaus Heywinkel finden Sie hier. 

]]>
https://databerata.de/studie-zur-belastung-alleinerziehender/feed/ 0
Verbrechen gegen die Menschlichkeit? https://databerata.de/verbrechen-gegen-die-menschlichkeit/ https://databerata.de/verbrechen-gegen-die-menschlichkeit/#respond Wed, 07 Jan 2015 16:51:25 +0000 http://databerata.de/?p=1333 Gute Vorsätze umsetzen, Gute Umsätze generieren. Sehr Lesenswert.

Nehmen Sie ihr Web-Business wirklich ernst? Machen Sie etwas ausser Traffik bei Google kaufen? Was – Sie kaufen sogar bei „Traffik-Generatoren„? Puh, und investieren auch in Affiliate. Aha. Sind Sie auch sonst mutig? Ich meine, haben Sie echte Zahlen, was das alles bringt? Ob Sie nicht sogar vielleicht übervorteilt werden?

Was ich meine? Lesen Sie den Artikel von Avinash Kaushik (Leuchtturm und Macher im Bereich Webanalyse). Oder nehmen Sie direkt Kontakt zu mir auf. Schliesslich habe ich über 10 Jahre erfolgreich WebAnalyse bei der Telekom eingeführt und betrieben. Und weiss was Sie wissen sollten. Ich erstelle gerne praktikabel und effizient Ihre WebAnalyse inkl. Betrugsabwehr. Reden wir miteinander.

Hier der Link zu meinem Angebot 2015.

Hier der Link zu Avinash Kaushiks Artikel, von diesem stammt auch der etwas „laute“ Titel: „Digital Marketing Analysis Crimes against Humanity“ http://www.kaushik.net/avinash/digital-marketing-analytics-crimes-against-humanity/

]]>
https://databerata.de/verbrechen-gegen-die-menschlichkeit/feed/ 0
Lara gesteht. Urmel war bezahlt. DataKrimi II https://databerata.de/lara-gesteht-urmel-war-bezahlt-datakrimi-ii/ https://databerata.de/lara-gesteht-urmel-war-bezahlt-datakrimi-ii/#respond Wed, 10 Sep 2014 15:39:21 +0000 http://databerata.de/?p=1035 Was bisher geschah: Lara, eine Schauspielerin aus Lübeck hat ihr erstes Engagement in ihrer Heimatstadt. Eine freie Bühne hat ihr die Hauptrolle in einem Krimi angeboten.

Statt eines Textbuches findet sie einen 3-seitiges Papier, in der sie als Lara die Rolle in einem verwirrenden Krimifragment spielt, in der Post. Lara wird im Anschreiben gebeten, das Drehbuch weiterzuschreiben. Sie bittet einen befreundeten Datenspezialisten, die Geschichte zu entwirren. Das Textbuch wird als „bereinigtes Fragment“ im Blog des DataBerata veröffentlicht.

Eine eher unübliche Voranalyse einer Datenanalysen beginnt. Wenn Daten bereits vorliegen, sollte „Data-Cleansing“ – also das Reinigen der Daten eine gute Idee sein, um mit wenig Beifang in die Arbeit zu gehen. Dazu werden gebraucht: Faktenrecherche und Tools wie das TextMining (also semantische Analysen).

Was sind die Fakten?DSCF7306

Zeit?
Friedensdemo: Die Friedensdemonstration hat am Holstentor am 11.8.von 11-14 Uhr stattgefunden.
Wetterbedingungen: Es gab ein Unwetter mit Nacht am Tag am 11.8. gegen 15:30
Datum und Uhrzeit, an dem das Script spielt, lassen sich genau nachvollziehen.

Orte?
Die angegebenen Orte sind real – tatsächlich findet man die angegebenen Plätze:
Das Theaterpuppen-Museum gibt es, an einer Ecke baumelt ein Drachen an einer Kette.
An dem Museum führt eine Einbahnstraße entlang, die gepflastert ist.
Auch Details sind stimmig: Auf dem Weg vom Holstentor zum Museum sind Schuhläden, die wie immer einen rechten Schuh nach draußen stellen, zum schnellen Anprobieren.
Das Schwimmbad an der Waknitz ist existent. Seit 1922 oder länger.

Ereignisse?
Todesfall an dem fraglichen Tag: Recherche bei den Einsatzkräften ergibt, es gab keinen Einsatz von Polizei oder Rettung in der Nähe des Museums
Es wurde kein Bestatter beauftragt.
Bisher wurde keine Leiche, auf die die Beschreibung zutrifft, im Wasser oder auf Land gefunden.
Der Drache hängt (immer noch / wieder) an seinem Platz. Die Frage nach einem „Fall“ wurde nervös mit „nein, nein!“ beantwortet. Beschädigungen des Drachens sind auch mit Teleobjektiv nicht auszumachen).

Was macht Lara daraus?

Ein Drehbuch eines Lübeck Krimis – demnächst in der Freien Bühne zu sehen. Sie hat den Drachen dafür engagiert, oder besser: eine Kopie. Für Urmel musste sie zahlen!

Was hat das mit DataBeratung zu tun?

Eine Menge – oft sind Aufträge oder Ausschreibungen wie ein DataKrimi verschlüsselt. Fakten müssen geprüft werden, Zusammenhänge entschlüsselt, Hintergründe recherchiert werden. Daten sollten erst einmal geprüft und bereinigt werden, damit man „an die Schätze kommt“ und nicht von Verpackung und Merkwürdigkeiten abgelenkt wird. Data Cleansing entwickelt sich immer mehr zu einer unabdingbaren Voraussetzung, bevor Complex & Large Scale Data (unzureichend Big Data genannt) analysiert werden können.

Dazu gehört neben neuester Technologie (Semantik, Multivariate Verfahren – die ein DataBerata nutzen sollte) auch Expertenwissen. Also das Know How der Auftraggeber, die Kenntnis in den Fachbereichen.

Gibt’s noch einen DataKrimi?

Ja – ich freue mich auf meinen DataKrimi aus Würzburg. Diesmal helfen Zahlen einen besonders merkwürdigen Fall aufzuklären.DSCF7516

]]>
https://databerata.de/lara-gesteht-urmel-war-bezahlt-datakrimi-ii/feed/ 0
Wer wissen will, muss leiden https://databerata.de/wer-wissen-will-muss-leiden/ https://databerata.de/wer-wissen-will-muss-leiden/#respond Tue, 24 Jun 2014 08:38:51 +0000 http://databerata.de/?p=963 Marktforschung kann manchmal schmerzhaft sein.

 

Marktforschung ist schön – macht Spass. Bringt uns Wissen und neue Erkenntnisse. Ist nützlich, sehr sogar. Hilft, Fehlentscheidungen zu vermeiden.

Nerv, Nerv, Nerv!

Aber ehrlich: Wir Marktforscher können Kunden ganz schön nerven: Als erstes stellen wir Marktforscher Fragen an den Auftraggeber, wollen ge“briefed“ werden. Lassen im Sinne der Sache nicht locker herauszufinden, was wir herausfinden sollen. Nicht genug, dann besprechen wir mit dem Kunden auch noch geeignete Instrumente, korrigieren seine Formulierungen und eigene Versuche, Fragen in „Fragen“ zu giessen.

 Die Feldzeit beginnt! Und Auswertung – wie fein!

Und die meistens immer noch viel zu lange dauert es, bis die Antworten „im Kasten“ sind. Die Auswertung mit Data-Clearing, Qualitätssicherung, Hypothesen testen, Schreiben, Charts erstellen, Kreuztabellen drucken ist Routine und spannend zugleich, zumindest für uns Mafositen – aber leider sind wir in dieser Zeit für den Auftraggeber zumeist unsichtbar.

So, geschafft!

Zeit für den Kundenkontakt: Wenn die Ergebnisse vorliegen, beginnen die Schmerzen wiederum. Erst nachdem ich meine Präsentationen mit einem Erwartungsmanagements begonnen habe, konnten einige Schmerzen gelindert werden: „Egal, was wir jetzt sehen werden, diese Studie ist sehr nützlich! Wenn sie Dinge erfahren, die sie schon immer ahnten, aber nicht genau wussten haben, können wir uns freuen. Wenn Sie Unglaubliches erfahren, was gar nicht sein kann, öffnet sich vielleicht gerade jetzt das Tor für neue Möglichkeiten“.

Hört sich gut an, nicht wahr? Sogar ein wenig „Hypnotalk“ dabei. Nützt aber auch wenig. Denn: Mit den Ergebnissen beschäftigt sich der Auftraggeber dann selbst. In Auseinandersetzung mit Marketing und Vertrieb und Controlling und Kollegen und – alles tut weh. Doch ehrlich, „Silodenken“ in großen Unternehmen tut auch weh.

Ich wünsche mir – einen Automaten

Zeitlicher Aufwand und der Prozess der Synchronisierung von Wissen liessen schon immer den Wunsch nach schneller, unaufwändiger Information aufkommen.

Möglichkeiten, dies zu erreichen, haben wir von uns aus gerne angeboten. Standardisierte Fragebogen, normierte Auswertungen, einfache und verständliche Auswertungen (keine multivariaten Modelle), kleinere Fallzahlen sind gerne genutzte Akte der Anpassung an den vermeintlichen Kundenwunsch.

Die Abkürzung des Weges vom „Wissen über den Kunden“ zum „Angebot und Kauf“ oder „der Nutzung“ kann aber noch brutaler gefahren werden.

Querfeldein geht es direkt vom Produkt zum Instant-Käufern und Nutzern. Natürlich kommen diese Angebote nicht von seriösen Marktforschern – aber schwappen aus der Onlinewelt in den Markt. Zumindest versprechen die Big Data Vermarkter einen  Datenbezug aus den Automaten, die in der Aufforderung gipfeln: „‚Kauf, Du Sau'“. Wie diese „Echtzeitwerbung die Kreativität tötet“ findet sich in einem Artikel von Dominik Grollmann hier (Registrierung notwendig, um Artikel zu lesen).

Und die Marktforschung? Reagiert nervös bis konsterniert auf diese Herausforderung. Bis zum erlösenden: Deutschland braucht Eier! von Dr. Daniel Salber auf der marktforschung.de  2013 dauerte es.

Zitat „An die Spekulations- und Blasen-Wirtschaft bestens angepasst, gefiel sich ein breiter Strom der Marktforschung seit den 90ern als Automat zur risiko- und problemfreien Gewinn-Maximierung. Beim Aufspringen auf den Zug der „Globalisierung“ blieb kritisches Denken zuhause. Doch wachsende Markt-Anarchie brachte den Apparat ins Stottern. Was nun?“

„Der Ausweg aus dem „Manisch-Depressiven“ heißt: schlichter Realismus. Marktforschung ist weder Weltverbesserung noch Rendite-Garant“

 Und, wie war’s?

Liebe Marktforschungskunden, ganz ehrlich: Es muss nicht weh tun, einen sauberen Prozess zu gestalten. Begebt Euch auf die Reise mit Experten, Reiseführern die die Themen kennen, die Abläufe, die Oasen des Wissens und auch das nette Hotel am Ende des Tages mit gedeckten Tischen der Erkenntnis, der Handlungsempfehlungen und der Zuversicht. Diese Marktforscher begleiten Euch mit Rat und Tat auch bei der nervigen Reise durch die Silos Eurer Unternehmen, finden Argumente und gehen in die Diskussion. Dafür müsst ihr nur die Richtigen beauftragen und auch das mit bezahlen, was es für Euch einfacher macht: Wissen, Erfahrung, Rat und Tat – und zwar über das einzelne Projekt hinaus. Wenig Budget – da kommt Mafo aus dem Automaten und tut weh. Jetzt oder später, wenn es nix geworden ist.

Aber mit den Richtigen gilt: Es tut auch gar nicht weh! Dann ist Marktforschung schön, spannend, nützlich – eine Expedition in neue Welten und Gedanken.

Und hilft Euch und Euren Unternehmen.

Viele Grüße und bis bald!

 

]]>
https://databerata.de/wer-wissen-will-muss-leiden/feed/ 0
Jede Münze hat drei Seiten. Mindestens! https://databerata.de/jede-munze-hat-drei-seiten-mindestens/ https://databerata.de/jede-munze-hat-drei-seiten-mindestens/#respond Sat, 22 Jun 2013 20:52:10 +0000 http://databerata.de/?p=650 Manche Weisheiten begleiten ein Leben lang.

Mein Statistik/Empirie-Prof gab uns mit: „Seid misstrauisch bei Offensichtlichem. Wenn euch zu einer  Korrelation nicht mindestens drei Erklärungen einfallen, wechselt den Beruf!“. Eine Übung, um darin fit zu bleiben, ist das Querdenken.

Das geht immer und überall – jeder Ort hat Übungsobjekte! 

Ein Beispiel

??????????????????????????????

Mit großem Interesse habe ich das Bilderrätsel oben auf einem Bahnhof in Frankfurt entdeckt. Sehr drastisch wird man darauf hingewiesen, dreieckige Tunnelröhren zu vermeiden. Nun war ich in einer halbrunden, also alles OK. Denn wie man sieht, in einem Dreieck bleibt einem sehr großen Erwachsenen kaum Platz auf dem Bahnsteig, dem Zug zu entkommen (der Gefahrenbereich ist schraffiert). Der Versuch des Strichmännchens, schräg an die rechte Aussenwand zu fliehen, scheint riskant.

Manchmal ist das Offensichtliche nur das Gewohnte, und Querdenken hilft, um auf die wahrscheinlichere Lösung zu kommen. Also dreieckige Tunnel meiden.

 

Wir können das zusammen ausprobieren

 

?????????????????????????????

Meine „querste“ Interpretation:

Im Fall, dass es Ihnen zu kalt oder zu ungemütlich ist, drücken Sie den Knopf und aus der Edelstahlwand entfaltet sich ein offener Kamin. An dem kann man sich wärmen – und gemütlich fühlen.

 

Fazit: dreieckige Tunnel meiden – und Wärme gibts auch bei der Bahn.

 

]]>
https://databerata.de/jede-munze-hat-drei-seiten-mindestens/feed/ 0
Das Gerücht in der Menge https://databerata.de/das-gerucht-in-der-menge/ https://databerata.de/das-gerucht-in-der-menge/#respond Thu, 20 Jun 2013 09:02:46 +0000 http://databerata.de/?p=599 Ach – schon so lange her, dass Jay Leno scharfzüngig und hinterlistig wie immer formulierte:  “We wanted a president that listens to all Americans – Now we have one”.

Es ist recht einfach, zu den Enthüllungen über die gigantische Überwachungsmaschinerie der USA eine Meinung zu haben. Besonders, wenn diese Meinung „wohlfeil“ ist, und sich in einer fundamentalen Empörung über diese Unverschämtheit oder einem Unverständnis über diese Empörung im schwarz/weiß verliert.

Und dann auch noch das Baby Big Data mit der Wanne Big Brother ausgeschüttet wird. Aber der Reihe nach.

… bau ’ne Maschine für uns

Die Maschine soll rausfinden, ob von Einzelnen oder Gruppen von Menschen eine Gefahr für Einzelne, Gruppen oder das Staatswesen ausgeht. Wir suchen: potentielle Terroristen.

Da haben wir klassischerweise zwei Möglichkeiten, am besten in Kombination:

  • Gesucht: Das Gesicht in der Menge! Soziologie und Psychologie. Soziologen erforschen, wie Gruppen von Menschen funktionieren, Psychologen wie Einzelne in diesen Gruppen sich verhalten. (ja, ist komplexer, aber wir bauen eine Maschine!). Das machen Soziologen und Psychologen schon seit Jahrzehnten – es gibt funktionierende Modelle von Gesellschaften und Menschen, dicke Bücher mit Theorien. Und andere dicke Bücher, die diesen Theorien widersprechen.  Trotzdem funktioniert es, wie das erfolgreiche Profiling in der Forensik immer wieder zeigt.

Über die Analyse von Big Data Analysen eröffnet sich eine weitere Möglichkeit:

  • Gefunden: Das Gerücht in der Menge! Mit Hilfe von möglichen umfassenden Datensätzen zum Verhalten, der Einstellung, Meinung von Menschen – und Datenquellen, die von Beobachtungen über Bewegungsprotokolle (Bahnfahrkarten, Flugtickets, Knöllchen, Sicherungskameras, Selbstäußerungen in Facebook, Foursquare, ..)) bis hin zu Observation reichen können. Und einer rein auf Ähnlichkeiten (Koorelationen) und Vergangenheitsdaten beruhenden Mustererkennung wird nach möglichst Verdächtigen gesucht. Naja – eigentlich rät man rum.

Screening: Wo lauert die Gefahr?

Die gewünschte hohe Sicherheit, möglichst alle „Gefahren“ zu erkennen hat zur Folge, dass auch „harmlose“ Menschen erst mal als potentielle Gefahr identifiziert werden können. Klar – Sie nicht. Oder doch?

Das Problem, falsch negative (da ist was, ich merke es aber nicht)  oder falsch positive (da ist nichts, aber das System schlägt Alarm) ist bei jedem Screening gegeben.

Im Alltag der Marktforschung kennen wir es Alpha- vs. Betafehler. Besonders augenfällig ist es bei sogenannten „Screenings“ in der medizinischen Diagnostik.

  • Beim Test auf schwere Erkrankungen wird darauf Wert gelegt, möglichst alle Erkrankten zu finden. Gute Tests haben eine „Entdeckungsquote“ von 99,9 Prozent oder besser. Wir testen einfach mal eine Millionen Menschen auf diese Erkrankung, wir wissen, etwa 0,1% der Bevölkerung erkrankt sein könnten.  99,9% Sicherheit bedeutet: von 1.000 Erkrankten in den 1.000.000 werden 999 als erkrankt erkannt. Das ist gut, oder?
  • Leider haben diese Tests auch die eingebaute unangenehme Eigenschaft,  falsch positiv zu testen. Also eine Erkrankung zu signalisieren, obwohl da keine ist. Wenn etwa 0,5% der Ergebnisse falsch positiv sind, bedeutet das bei einer Millionen getesteter Menschen 5.000 (fünf tausend!!!) bekommen erst einmal einen Schrecken.

Durch weitere Tests kann dies wieder klargestellt werden – aber der erste Schrecken bleibt. Dieser Betafehler ist übrigens auch einer der Gründe, weshalb Screenings sehr vorsichtig und zurückhaltend eingesetzt werden sollten.

Ist PRISM ein Screening?

Ich befürchte ja. Denn es gilt die Regel: Je sicherer etwas entdecken werden soll, desto eher hört man „das Gras wachsen“, verdächtigt „Unschuldige“. Und je mehr Leute (Screening)  „durchsucht werden“, desto mehr Unverdächtige werden fälschlich beschuldigt. Ein Fall ist recht bekannt geworden, der Berliner Soziologe Andrej Holm war „plötzlich Terrorist“.

Mein „educated guess“ ist: Die Zahl der fälschlich Beschuldigten wird mit jedem Screening wachsen, bald werden wir ein Heer von Menschen haben, die man sich genauer anguckt. Vielleicht tarnen die sich nur, sind „Schläfer“?

Kein Ausweg aus der Screening-Falle?

Doch – es gibt einen Ausweg. Die Medizinstatistik zeigt: Nur die untersuchen, die eine Prädisposition haben. Also sich Gefahren aussetzen oder durch Genetik oder Verhalten eine höhere Gefahr zur Erkrankung haben (Chemie, Umweltgifte, Tropenreisen).

Wenn man in der Logik von PRISM bleib: Erst die Menschen über Modelle der Psychologie und Soziologie erkennen und filtern, die überhaupt in Frage kommen, und dann screenen. Und selbst dann werden Unschuldige verdächtigt werden.

Das hatten wir aber schon mal – Big Data ist nicht gut oder schlecht, wenn es „right sized data“ ist. Sorgfalt, Theorie, Empirie, Statistik helfen. Dafür gibt es ja Profis.

Dieser Beitrag enthält bewußt sich jeglichen Kommentars, wie demokratische Staaten mit ihren Bürgern umgehen sollten, ob zum Schutz aller erst einmal die gesamten Bevölkerung oder einzelne Gruppen einem Generalverdacht unterliegen sollten. Der Beitrag mischt sich trotzdem ein: er zeigt auf, welche Gefahr durch die gewählte Methodik zusätzlich entstehen kann.

Ansonsten könnten schon bald Massenmails versandt werden: „Sorry, aber zu ihrer Sicherheit mussten wir Sie zum Beta-Fehler machen“.

Da bin ich doch lieber das Gesicht in der Menge, als ein Gerücht in Big Data.

 

]]>
https://databerata.de/das-gerucht-in-der-menge/feed/ 0
Störche, Big Data und Lehrer Bömmel https://databerata.de/storche-big-data-und-lehrer-bommel/ https://databerata.de/storche-big-data-und-lehrer-bommel/#respond Mon, 27 May 2013 13:41:52 +0000 http://databerata.de/?p=485 This Is The Beginning!

Jetzt scheint das Thema Big Data endgültig „kommunikabel“ zu sein: Der Titel im SPIEGEL 20/2013 lässt Big Data als gelungene Melange aus CSI, dem Orakel von Delphi und den römischen Auguren vergären. Fazit: Wir Menschen werden vorhersehbar  – weil berechenbar. Ergebnis: Verbrechen werden verhindert, Käufern werden die Wünsche aus den Daten ablesen. Na gut – eine Prise Kritik am System, das den Menschen gläsern werden lässt, ist auch enthalten. Meine Meinung dazu: Der Artikel weckt Interesse und Erstaunen – läßt aber Tiefe vermissen und ist sehr beschreibend.

Dann mach’s doch besser!

Die 100.000€-Frage: „Big Data – brauchen wir es auch?“ Stellen Sie die Frage doch jemandem, der sich auskennt. Vielleicht Ihrem Marktforscher, dem BI-Spezialisten, Ihrem Marketing  – oder dem Controlling. Die Antworten reichen voraussichtlich über die gesamte Palette:  „Ja!“ „Nein!“ „Vielleicht!?“.

OK, fragen sie uns, die Analysten, die Spezialisten. Wir haben den Status der Ratlosigkeit meist schon überwunden und fragen präziser nach. Denn: Aufklärung ist gefragt.

Dem Buzz-Word auf der Spur

Big Data bedeutet eigentlich nur, dass man sehr viele Daten gesammelt hat, dass man sich derer mit Methoden des exzessiven Data-Mining nähert. Oder einfacher:

Man sucht irgendwas im Heuhaufen. Das können Nadeln, Münzen, Werkzeug, ein Nugget oder auch eine Schatzkarte sein. Findet irgend welche Muster. Das ist der erste Schritt.

Im zweiten Schritt verbindet man mathematisch die Muster oder einzelne Dinge aus dem Heuhaufen miteinander, um Zusammenhänge zu finden. Zusammenhänge können sein:

  • „Insassen von Gefängnissen haben einen niedrigeren Ruhepuls“.
  • „In Orten mit einer hohen Dichte an Storchennestern werden mehr Kinder geboren.“
  • „Die Schadenshöhe bei einem Brand nimmt proportional mit der Anzahl an Feuerwehrleuten vor Ort zu“.

Übrigens – alle diese Aussagen sind richtig und statistisch bedeutsam belegt.  Zusammenhänge sagen allerdings nichts über Kausalitäten aus – oder bringen doch die Dorfstörche die Kinder? Sollte man lieber keine Feuerwehr rufen, wenn es brennt, um den Schaden zu begrenzen? Oder einfach alle Menschen mit einem niedrigen Ruhepuls wegsperren, weil sie kriminell werden könnten?

Quatsch, das glaubt doch keiner, meinen Sie? Wir kommen später darauf zurück.

Das Spektrum der Big Data Analyse

Auch das ist Big Data:  Die FAZ interviewte Markus Morgenroth: „Wir können herausfinden, wer loyal ist“, sagt er. Herr Morgenroth arbeitet bei Cataphora. Diese Firma beobachtet das Verhalten von Mitarbeitern in Unternehmen. Dazu werten sie auch die anonymisierten Mails von Mitarbeitern aus. Echte Big Data Analyse, weil Unmengen an Daten zu durchforsten sind, um irgendwas im Heuhaufen zu finden. Echtes Data Mining. Ein mögliches Ergebnis: Performanceanalysen und Loyalitätsanalysen einzelner Mitarbeiter. Im Interview werden auch die Fallstricke solcher Analysen aufgezeigt. Und deutlich gemacht, wie wichtig das Wissen von Sprachwissenschaftler, Psychologen, Sozialwissenschaftler bei der Interpretation dieser Daten sind. Wirklich lesenswert:  http://www.faz.net/aktuell/feuilleton/bilder-und-zeiten/interview-mit-einem-datenanalysten-wir-koennen-herausfinden-wer-loyal-ist-12124514.html

Übrigens: Teile der Arbeit von Cataphora sind Beispiel für eine in Deutschland aus Datenschutzgründen verbotene Anwendung von Big Data Analyse.

Ich lasse meine E-Mails nicht öffentlich rumliegen

Sowieso nicht mit Ihnen? Auch aus Ihren Mails kann ein Profil erstellt werden. OK, an Ihre Mails kommt keiner ran? Nutzen Sie Twitter? Facebook? Xing? LinkedIn? Die Dataminer auch. Was kann da passieren?  Nicht nur die Themen, über die sie schreiben, auch Wörter, die Emotionen (Sentiment) ausdrücken und in Sätzen mit Faktenaussagen stehen, können Sie kennzeichnen. Big Data bedeutet in diesem Fall: Mustererkennung und Korrelation.

Das ist dann in Ordnung, wenn der Schutz Ihrer Person gewährleistet ist. Nennt man ja „Datenschutz“. Das ist dann fragwürdig, wenn Sie persönlich als „Target“ aus der Analyse rauspurzeln und aufgestellt werden.

Oh, da habe ich Sie missverstanden

Soso, Analysen von riesigen Datenmengen machen Unternehmen und Behörden schlauer. Muss man denn Big Data haben, um heutzutage richtig entscheiden zu können? Nein. Ja. Es kommt darauf an, was Sie machen wollen.

Quantitative Marktforschung

Anwendung: Ich möchte fundierte Aussagen haben zu den Marktchancen meines Produkts, des Relaunches meines Produkts oder zu Produkteigenschaften. Ich möchte Zielgruppen identifizieren und deren Needs, möchte verstehen, was der Grund für diese Zielgruppen ist, mein Produkt zu kaufen oder nicht zu kaufen. Das gibt mir die Chance, Veränderungen vorzunehmen, die mein Produkt besser vermarkten lassen. Über weitere Informationen, die ich habe oder beschaffe, weiss ich, wie und wo ich die Zielgruppen erreiche (TV, Print, BTL, PoS, PoI,  Social Media, Web). Die genauere Auswertung der Storch / Kinderzahl Korrelation zeigt mir, dass ich in ländlichen Gebieten und ähnlichen Stadtbezirken  (auch ohne Storchennester) mit einer höheren Kinderzahl rechnen kann und eher Babyartikel anbieten könnte.

Marktforschung  mit right-sized-Data ist notwendig, wenn ich auch theoretisch fundierte Aussagen haben möchte, die sich auf ähnliche Szenarien übertragen lassen und zeitlich kurz- bis mittelfristig gültig sind. Mit Mafo wird die Fabrik gläsern, die Wirkzusammenhänge werden sichtbar.

Big Data Analyse – Wat is en Dampfmaschin?

Anwendung: In der Analyse von Big Data geht es mehr um das „Was“ als um das „Weshalb“: Ich möchte adhoc direkt Menschen mit meiner Botschaft erreichen. Mit geringem Streuverlust, möglichst in einer 1:1 Situation und mit der Aussage, welches der Medien dafür wann genutzt werden sollte.  Mich interessiert nicht, dass dieses Wissen kurzfristig unnütz werden kann, weil sich Medien und Nutzung durch Menschen schnell verändern können. Mich interessieren keine Gründe, Einstellungen von Menschen, weil ich kein Modell des Verhaltens in Bezug auf meine Produkte oder Produktgruppen brauche, sondern schnell Erfolge. Selbst um den Preis, das die Ergebnisse Artefakte sind, die bei einer Analyse großer Datenmengen schnell entstehen können. Beispiel: Die Zahl der Störche auf den Dächern nehme ich als Indikator dafür, ob ich einen Babyartikel-Markt auf der grünen Wiese neben dem Dorf baue – oder nicht. Die Zahl der Feuerwehrleute am Brandort ist für mich als Versicherung ein Indikator für den Schaden, den ich regulieren muss – oder sogar ein Indikator für Betrug, wenn niemand da war.

Big Data Analysen mit den richtigen Tools analysiert ist nützlich, um Zusammenhänge schnell zu erkennen und handeln zu können. Big Data Analyse ist notwendig, wenn das mit Echtzeitdaten erfolgen soll. Mit Big Data wird der Einzelne gläsern – die Wirkmaschine ist eine schwarze Kiste. Oder mit den Worten von Heinrich Spoerl (Die Feuerzangenbowle): „lso, wat is en Dampfmaschin? Da stelle mehr uns janz dumm. Und da sage mer so: En Dampfmaschin, dat is ene jroße schwarze Raum, der hat hinten un vorn e Loch. Dat eine Loch, dat is de Feuerung. Und dat andere Loch, dat krieje mer später.“

Lehrer Bömmel aus der Feuerzangenbowle – ein Protagonist von Big Data. Da hätte auch DER SPIEGEL d’rauf  kommen können. Wenn er aus dem Rheinland käme 🙂 

Weitere Informationen: Da gab’s doch hier im Blog was zu?

]]>
https://databerata.de/storche-big-data-und-lehrer-bommel/feed/ 0
Wenn unsere Aufmerksamkeit blinzelt https://databerata.de/wenn-unsere-aufmerksamkeit-blinzelt/ https://databerata.de/wenn-unsere-aufmerksamkeit-blinzelt/#respond Wed, 27 Mar 2013 19:13:26 +0000 http://databerata.de/?p=417

Wenn unsere Aufmerksamkeit blinzelt.
von Dirk W. Eilert, Eilert Akademie, Berlin

Vielen Dank, Dirk, für diesen Big Data Beitrag der anderen Art.

Einleitung
Die Analyse von „Big Data“ ist für unser Gehirn eine alltägliche Übung – über 1 GB an Informationen erreichen all‘ unsere Sinne in jeder Sekunde. Dass wir damit zu Recht kommen, verdanken wir einem meistens perfekten Zusammenspiel von limbischen System und frontalem Kortex – oder: Intuition und Denken. Und wir können unsere Filter trainieren und neu konfigurieren.

Dirk W. Eilert
Es gibt in der Forschung Hinweise darauf, dass Menschen, die regelmäßig meditieren, Mikroexpressionen besser erkennen. Und das auch, wenn sie nie ein spezielles Training zur Mikroexpressionserkennung absolviert haben. Woran genau das liegt, hat die Wissenschaft noch nicht rausgefunden. Zwei Vermutungen liegen nah. Der bekannte deutsche Neurophysiologe Wolf Singer sagt dazu: „Es ist noch unklar, ob Meditationsgeübte die Mikroexpressionen besser wahrnehmen, weil sie einen reduzierten attentional blink haben oder weil sie die Kontrolle von Emotionen besonders trainiert haben.“ (den kompletten Beitrag von Wolf Singer finden Sie hier)

Der attentional blink (deutsch: Aufmerksamkeitsblinzeln) ist ein Phänomen der Kognitionspsychologie. Dabei handelt es sich um eine sehr kurze Aufmerksamkeitslücke, die auftritt, wenn uns in einer schnellen Folge visuelle Reize präsentiert werden – so wie es auch bei Mikroexpressionen der Fall ist. Da uns diese Lücke normalerweise nicht auffällt, ist es eine faszinierende Erfahrung, wenn man es zum ersten Mal erlebt.

In diesem Experiment sehen Sie eine schnelle Abfolge von Buchstaben. Jeder Buchstabe wird dabei für nur 100 Millisekunden eingeblendet. Ihre Aufgabe ist es zu erkennen, welche beiden Buchstaben nach dem M erscheinen.

Hier können Sie das attentional blink-Experiment machen:

[embedplusvideo height=“379″ width=“625″ standard=“http://www.youtube.com/v/z4HRCHvLUig?fs=1″ vars=“ytid=z4HRCHvLUig&width=625&height=379&start=&stop=&rs=w&hd=0&autoplay=0&react=1&chapters=&notes=“ id=“ep7986″ /]

Und haben Sie es geschafft, die beiden Buchstaben nach dem M zu erkennen? Die meisten sehen nur den ersten Buchstaben nach dem M. Das ist ein völlig natürliches Phänomen. Denn jedes Mal, wenn unser Gehirn auf etwas Neues fokussiert (in unserem Video-Experiment der erste Buchstabe nach dem M) oder wenn wir etwas Überraschendes sehen, entsteht für ungefähr eine halbe Sekunde eine Aufmerksamkeitslücke – das ist der attentional blink. Das kann auch in einem Gespräch passieren. So können Ihnen wichtige nonverbale Signale – wie Mikroexpressionen – entgehen.

Nicht nur Meditieren hilft das Aufmerksamkeitsblinzeln zu reduzieren. Auch wenn Sie regelmäßig trainieren, Mikroexpressionen und andere nonverbale Signale zu erkennen, wird diese Lücke in Gesprächen kleiner. Und je kleiner die Aufmerksamkeitslücke, desto mehr bekommen Sie mit.

Dirk W. Eilert, Berlin

]]>
https://databerata.de/wenn-unsere-aufmerksamkeit-blinzelt/feed/ 0
Nochmal: Deutschland braucht Eier! https://databerata.de/deutschland-braucht-eier/ https://databerata.de/deutschland-braucht-eier/#respond Tue, 26 Mar 2013 19:05:18 +0000 http://databerata.de/?p=411 Deutschland braucht Eier! Marktforschung kehrt auf den Boden der Realität zurück

Lesen, denken, handeln! Verlinkung zu Marktforschung.de, denn dort hat Dr. Daniel Salber hat eine Kolumne geschrieben, die Pfefferminz ins Hirn bringt und die mit welken Blättern bedeckten Schamzonen der Mafo-Zunft zum Frühling einlädt:

Zitat: „Blickte ein Psychologe auf die geistige Situation der Zunft, müsste das Ergebnis mit den Worten „manisch-depressiv“ beschrieben werden. Auf der einen Seite spirituelle Erwartungen an gigantische Datenflüsse rund um den Globus und die Hoffnung, nach dem 1000. Marmeladen-Test endlich „gesellschaftliche Innovationen“ anstoßen zu dürfen. Auf der anderen Seite lässt sich die Branche von Google die Butter vom Brot nehmen. Beschwörungen der „Qualität“ klingen wie das Pfeifen im Walde. Wenn Marktforschung = Datensammeln ist, können das die „Multis“ in der Tat besser“. Zitat Ende.

Und es geht in diesem Tempo und Ductus weiter.

Das ist ein echter Aufruf zum Nachdenken, Aufatmen, sich zu besinnen und dann mit frischer Kraft (und notfalls gestrafften Hosenträgern) wirklich beizutragen.

Selten so einen vernichtend ermutigenden Beitrag in letzter Zeit gelesen.

Und bald ist Ostern!

]]>
https://databerata.de/deutschland-braucht-eier/feed/ 0
Size doesn’t matter, Mr. Big https://databerata.de/size-doesnt-matter-mr-big/ https://databerata.de/size-doesnt-matter-mr-big/#respond Sun, 24 Mar 2013 23:10:48 +0000 http://databerata.de/?p=382 Big Data – warum eigentlich nicht?!
The bigger the better! Steckt nicht in „Größe“ ein Vorteil in der Datenanalyse?

Erst einmal – wir sind hier nicht an der Frittenbude, wo wir einen Double-Cheese-Tripple-Salad Monster Big Burger bestellen und wirklich mehr bekommen – sondern im Bereich der Datenanalyse.  Wir wissen zwar oder ahnen – irgendwo in den Terrabyte an Daten, da steckt was. Wissen über das Unternehmen, Prozesse, Marketing, Kunden, Vertrieb, unsere Produkte.

Aber was genau ist drin in der Wundertüte? Und, genau: Was hat BIG damit zu tun? Es ist nicht alles das gleiche, was „Big“ genannt wird. Groß werden Datenmengen,

  1. wenn man nicht genau drauf achtet, was man alles sammelt,
  2. wenn’s passiert ist, und Daten sich über die Zeit angehäuft haben,
  3. wenn man einen breiten Datenstrom hat, der erst mal gesichert werden musste, um ihn später auszuwerten,
  4. wenn man äußerst seltene Ereignisse aus einem Riesen-Datenhaufen extrahieren möchte. Zum Punkt 4 wird es eine weitere Episode DataBerata Big Data in Kürze geben.
  5. ein Modell sich aus großen Datenmengen zusammensetzt (Beispiel: Planck Daten zur Entstehung des Kosmos  – siehe:  Artikel aus der Süddeutschen)

In den Fällen 1, 2 und 3 – Entspannung: Hier ist faktenbasiertes Aufräumen der richtige und einfache Weg. Ist wie Keller aufräumen, oder Garage oder Dachboden. Nicht entspannend? Oh je, schlechtes Beispiel.

Also – weitere Entspannung: Am besten setzt man sich mit einem (externen) Experten zusammen, sortiert aus und legt Regeln fest, was man braucht. Um Fragen zu beantworten. Das haben wir hier schon mal behandelt. Externe haben den Vorteil, dass man denen erst mal alles erklären muss. Und darüber mindestens 40% der (Selbst-) Erkenntnisse kommen. Der Rest ist Erfahrung, eigene, die des Experten / der Expertin.

Und diese Erfahrung rät: Wenn trotzdem der Wunsch nach der Speicherung großer Datenmengen auftaucht (Grund: weil, man weiß ja nie), bitte erst mal die folgende, wahre Geschichte durchlesen:

Es muss nicht immer Kaviar sein – oder: Wie gut eine gute Stichprobe funktioniert. Das wissen wir spätestens seit 1936 durch einen Wettbewerb. Aufgabe: Wer prognostiziert den künftigen Präsidenten besser, der Meinungsforscher George Gallup oder die Zeitschrift Literary Digest?

Literary Digest versandte 10 Millionen Fragebögen an alle seine Leser  (es kamen etwa 2,4 Millionen zurück) in der Annahme, diese würden die Wähler in USA repräsentieren = BigData!

 Gallup befragte 1.500 US-Amerikaner (nach einem heute noch verwendeten Stichprobenverfahren) = Rightsized!

Wie ging der Wettbewerb aus? Gallup sagte das Ergebnis sehr genau voraus – Literary Digest lag 19% Punkte daneben und prognostizierte den unterlegenen Kandidaten als neuen Präsidenten.

Aus der Marktforschung wissen wir: Eine Vollerhebung (also alle relevante Personen oder Dinge oder Meinungen werden erfasst) ist teurer und nicht automatisch besser als eine Studie, die eine Stichprobe nutzt. Zudem hat die Vollerhebung den Nachteil, dass sie eventuell gar nicht „voll“ ist. Z.B. relevante Personengruppen nur unvollständig befragt wurden. Die Literary Digest machte zwei Fehler: Einmal hielt sie ihre Leserschaft für repräsentativ zur Grundgesamtheit der US-Wähler. Dann hat sie sich nicht um die Verzerrungen gekümmert, die durch die Antwortverweigerer entstand. Eine wichtige Lektion auch für Big Data.

Fazit: Big (Data) ist nicht immer besser (Fall 1 – 3)Size doesn’t matter. 

PS: George Gallup gründete übrigens mit dem Ruhm einer guten Prognose ein weltweit operierendes Mafoinstitut.

PPS: Aufmerksame Leser kennen diese Geschichte bereits teilweise. Aus der Weihnachtszeit …. Da war das Wetter auch ähnlich wie diesen März.

]]>
https://databerata.de/size-doesnt-matter-mr-big/feed/ 0
Wir brauchen mehr Emotionen! …oder vielleicht doch mehr Fakten? https://databerata.de/wir-brauchen-mehr-emotionen-oder-vielleicht-doch-mehr-fakten/ https://databerata.de/wir-brauchen-mehr-emotionen-oder-vielleicht-doch-mehr-fakten/#respond Fri, 22 Mar 2013 08:41:40 +0000 http://databerata.de/?p=356 Es folgt ein einfache Aufgabe. Eine erfrischende Mischung zwischen Bullshit-Bingo und Persönlichkeitstest.

Im folgenden finden Sie allgemeine Aussagen, die jeder von uns in Arbeitszusammenhängen schon mal gehört hat. Wenn Sie sich an die letzten zwei Wochen erinnern – welche der Aussagen haben Sie da noch nicht gehört oder gelesen? Bitte merken Sie sich die Ziffer(n) der Aussage(n), die Sie seit 14 Tagen nicht gehört  haben.

  1. „Wir müssen weiter auf stabiles Wachstum setzen.“ 
  2. Für unsere Zielgruppe ist das nicht relevant!“ 
  3. „Diese Lösung hat keine Zukunft!“
  4. „Das haben wir schon immer so gemacht!“
  5. „Diesen Bereich müssen wir konsolidieren!“
  6. „Das ist nicht zielführend!“
  7. „Das passt nicht zu unserem Kerngeschäft!“
  8. „Das wird so nicht funktionieren!“
  9. „Der Markt wird es richten!“
  10. „Da sind Sie zu früh, viel zu früh!“
  11. „Das bekommen wir woanders billiger!“
  12. „Das wussten wir doch schon vor der MaFo!“
  13. „Das wussten wir noch nicht, von daher habe ich Zweifel an der MaFo!“ 
  14. „Wir brauchen mehr Emotionen!“

 Auswertung: 1 – 14 Punkte,  Ihre Kategorie ist:  Zielgruppe für den folgenden Beitrag.

Diese Mischung als Killerphrasen und Management-Mantras kennt jeder, der sich einmal – sei es Dienste leistend, beratend oder selbst (mit)entscheidend – in größeren Medienprojekten in der Wirtschaft bewegt hat. Und mögen sie auch im einen oder anderen Fall stimmen: Normalerweise ist das besondere Merkmal solcher Sätze, dass sie a) ohne irgendeine Daten-Grundlage einfach(b) behauptet werden. Doch sie sind fast immer zu einfach und so gut wie nie sind sie nachprüfbar. Dies mag etwas merkwürdig anmuten, unser professioneller gesunder Menschenverstand bäumt sich irgendwie auf angesichts der Vorstellung, dass man mit Wissen arbeitet, dessen Gültigkeit gar nicht geprüft werden kann. Doch tatsächlich wird diesen (und vielen ähnlichen) Statements ihr Wahrheitsgehalt in dem meisten Fällen alleine durch die Wichtigkeit der Person verliehen, die sie in den Mund nimmt. Unüberprüfbare, obendrein ungenaue, aber trotzdem (oder vielleicht gerade deshalb?) fest geglaubte Sätze in den Köpfen von Entscheider/innen sind eine der gebräuchlichsten Geißeln der Menschheit. Ich persönlich glaube ja, dass es bei denen um die eigentlichen apokalyptischen Reiter handelt – schließlich heißt es in der Offenbarung des Johannes (Offb. 6,4): …wurde ermächtigt, der Erde den Frieden zu nehmen, damit die Menschen sich gegenseitig abschlachteten. Und es wurde ihm ein großes Schwert gegeben, auf dem geschrieben stand: „Das hat noch nie funktioniert!“.

Ist das wirklich so? Betrachten wir als Beispiel den letzten Satz, der in genau dieser Form in ungezählten Meetings bei der Präsentation von Plakaten, Broschüren, Filmclips, Websites, Buchumschlägen, Verpackungen oder auch Produkten gefallen sein mag. Noch einmal:

Wir brauchen mehr Emotionen!

Dieser Satz formuliert anscheinend ganz eindeutig eine Diagnose, ein Ziel und impliziert zugleich eine Handlungsaufforderung: (a) Wir haben zu wenig Emotionen, (b) wir brauchen mehr davon und (c) es muss etwas geschehen! Sehr gut, Applaus! Doch: Was meint der wichtige Mensch und (Art Director, Geschäftsführer, Manager, Abteilungsleiter, Kunde…), der in der Regel als Absender dieses Statements in Frage kommt, mit „Emotionen“? Das Wort ist ja mitnichten so eindeutig, wie die Sprecherin oder der Sprecher (die es gewohnt sein mögen, dass ihre soziale Umwelt kollektiv vortäuscht, sie verstehe jede ihrer Äußerungen mühelos), so denken mag.

Wie definiert man also die relevanten Begriffe? Der Begriff „Emotion“ hat einen sehr breiten Horizont, der von hormonellen Veränderungen wie dem sprichwörtlichen Adrenalinausstoß über körperliche Symptome (Muskelanspannung, Atmung) begleitende Ausdrucksbewegungen (Mimik), charakteristische Auslösereize (Dunkelheit, Spinnen) bis zu typischen Handlungs- (Angriff, Flucht) oder Denkmustern (Grübeln) reicht. Welcher von diesen Aspekten ist genau gemeint, wenn „mehr Emotion“ verlangt wird? Alle gemeinsam? Oder soll das wegen seines Emotionsmangles kritisierte Objekt beim Betrachter einfach „mehr Emotionen“ auslösen? Wenn ja: welche (es gibt in der einschlägigen Literatur zwischen 7 und 10 verschiedene Primäremotionen)? Generell eher positive oder negative? Soll der Betrachter sich aufgewühlt, involviert und betroffen oder erfreut und belustigt fühlen? Soll es eine eher dezent-verhaltene Stimmung oder eine echte, „heiße“ Emotion sein…?

Unterstellen wir einmal, dass die Frage so richtig beantwortet ist: Ja, genau! Es sollen mehr intensive Emotionen ausgelöst werden, und zwar positive! Nun stellt sich unmittelbar die zweite Frage, nämlich die nach der Messung: Woran könnten wir denn erkennen, dass „mehr“ Emotionen vorhanden sind? Wie misst man sie…? Welcher Aspekt der Emotionen soll überhaupt erfasst werden? Fragen wir die Zielpersonen nach ihren Gefühlen? Beobachten wir sie heimlich? Traktieren wir sie mit Mess-Elektroden? Und: haben wir hierzu bereits Daten oder müssen neue erhoben werden? Wissen wir, wie viel Emotion jetzt gerade, am Ausgangspunkt unserer Betrachtung – als Statistiker würde man sagen: Base Line – vorhanden ist? Nur dann könnten wir ja feststellen, ob es einen Zuwachs gegeben hat.

Schließlich ergibt sich eine quantitative Frage: Wie viel Emotion darf, kann, soll es denn sein? Was ist „mehr“ und wann ist es genug, kann es vielleicht sogar zu viel sein? Viele Ziele haben als Kriterium keine ins Unendliche verlaufende positive Steigung. Das ist vor allem für viele „weiche“, psychologische Faktoren der Fall: Selbstbewusstsein wird bei fortgesetzter Steigerung irgendwann zu Arroganz, Motivation zu Fanatismus, Bindung zu Abhängigkeit, Wettbewerbsfähigkeit zu destruktiver Kampfeinstellung. Heißt „mehr“ hier also vielleicht einfach „genügend“ oder „in optimalem Ausmaß“? Wenn ja: an welchen Kriterien können wir das festmachen?

Nun wird sich unser(e) fiktive(r) Entscheider(in) sich um alle diese Fragen keine Gedanken gemacht haben und möglicherweise in hohem Maß befremdet und unwillig reagieren, wenn man nachfragt. Doch es geht nicht anders: Ohne präzise Begriffe und Messungen entkommen wir dem Reich der Mythen nicht, ohne systematische Intervention und Beobachtung können wir uns nur auf unser Glück verlassen. Umgekehrt erkennen wir an solchen Gedankenspielen andeutungsweise, welche Probleme entstehen, wenn wir mit ungenau definierten Begriffen umgehen und dies möglicherweise ohne auf Messungen von Kriterien und Zielsetzungen Bezug zu nehmen. Und diese Herausforderungen bleiben die gleichen, wenn wir weniger weiche und komplexe  Dinge in den Fokus nehmen. Know-how über Messen und Methoden spielt bei diesem Vorgang an vielen verschiedenen Stellen eine Rolle, z.B. bei…

  • …der geeigneten Visualisierung von Daten und Informationen.
  • …der Tabellierung von Zahlenwerten.
  • …der Qualitätssicherung von Daten, also der Prüfung auf Konsistenz, Fehlerbereinigung bzw. der Ausreißeranalyse.
  • …dem Aggregieren (Verrechnen, Zusammenfassen) von Daten zu interpretierbaren Metriken und Informationen.
  • …dem Prüfen von Abhängigkeiten zwischen Daten.
  • …dem Unterscheiden relevanter und irrelevanter Daten und Informationen.
  • …dem Entdecken von Mustern in Daten (z.B. Typologien),
  • …der Vereinfachung von komplexen Datengeflechten,
  • …dem Prüfen der statistischen Zuverlässigkeit von Daten und Informationen.

Nur – was können wir tun? Wissenschaftliche Präzision gedankenloser Geschwätzigkeit entgegenstellen? Eine Gute Frage – Gegenfrage: Was meinen Sie, welches App mehr Downloads erzielen wird? Ein Lehrgang „Systematisches Messen und faktenbasiertes Argumentieren in 13 Kapiteln“ – oder das App: „Bullshit-Bingo  – jetzt mit noch mehr Killerphrasen“.

Und wenn Sie sich für A) entscheiden, was hörten Sie als nächstes? „Für unsere Zielgruppe ist das nicht relevant, wir brauchen mehr Emotionen!“

Sie wissen was zu tun ist!

]]>
https://databerata.de/wir-brauchen-mehr-emotionen-oder-vielleicht-doch-mehr-fakten/feed/ 0
Wozu. das. Alles? https://databerata.de/wozu-das-alles/ https://databerata.de/wozu-das-alles/#respond Tue, 19 Mar 2013 10:42:50 +0000 http://databerata.de/?p=365 Was kommt nach Big Data? Nein, nein, Sie haben nichts verpasst, Big Data boomt noch eine Weile, wird den Kennern und Könnern wertvolle Informationen liefern – aber einer Menge in dieses Buzzword Verknallte enttäuscht mit einem welken Riesenrosenstrauß zurücklassen.

Ohne Zweifel sind geeignete Modelle in der Lage, große Datenmengen auf Zusammenhänge zu untersuchen. Was man dazu braucht, gibt es schon länger im Repertoire derjenigen, die Empirie und Statistik beherrschen. Das sind Physiker, Biologen, Chemiker, Astronomen, Ingenieure, Statistiker, Marktforscher, Sozialwissenschaftler, …

Was jeder Wissenschaftler lernt, ist, nicht einfach zu suchen, sondern Hypothesen zu testen. Eine Hypothese ist eine Regel, eine Idee eines Zusammenhangs, eine Kausalität. Mit Hilfe der Statistik können diese Hypothesen auf der  „Testbank“ überprüft werden.

Los geht’s – wir spielen das Thema durch
Eine Supermarktkette möchte das Sortiment neu in den Regalen präsentieren. Statt Produkt zu ähnlichem Produkt (Wasser zu Wasser, Wein zu Wein)  sollen Events, Lebensereignisse, Situationen als „Klebstoff“ zwischen Produkten erkannt werden. Ein Test soll im Sommer stattfinden, Situationen sind: z.B. „Strand / Baggersee / Schwimmbad“. Wie finden wir das raus?

Teilnehmende Beobachtung: Mit Papier und Bleistift mischen wir uns unter die Leute, führen Strichlisten und ergänzen diese um das, was die Menschen am Baggersee, am Strand und im Schwimmbad dabei haben. Oder besser, was sie offen dabei haben. Die Hygieneartikel werden nur selten offen rumliegen. Das ist der Nachteil dieses Verfahrens – man guckt den Beobachteten weder in den Kopf noch in die Tasche. Ein weiterer Nachteil: Wir wissen nicht genau, wie repräsentativ so eine Location ist. Ausser wir wählen Locations nach Stichprobe aus (siehe auch diesen Blogbeitrag zu Stichproben).

Befragung: Persönlich-mündlich (vielleicht noch am Strand), per schriftlichem Fragebogen, per Befragung im Web oder per Telephon können wir Menschen danach fragen, was sie alles so an den Strand, ins Schwimmbad, an den Baggersee mit nehmen. Und weil wir Hintergrundinformationen erfragen (Alter, Geschlecht, Wohnort, Häufigkeit Besuch Schwimmbad, Strand, Baggersee, „habituelle“ (gewohnheitsmäßige) Einkaufsstätten für die Produkte), weiss die Supermarktkette bald mehr.

Bonanalyse: Der Kassenbon ist inzwischen weit mehr als eine Rechnung und Quittung. Über die Auswertung der Kassenbons werden Lagerbestände erfasst, es wird nachbestellt, Schnelldreher und Regalschläfer werden ermittelt. Und es geht noch mehr: Jeder Kassenbon enthält die Informationen zu einer Geschichte des Einkaufenden. Gucken Sie mal in den Wagen vor sich, hinter sich, neben sich, wenn Sie wieder mal in der längsten Schlange warten (oder stellen Sie sich nie  an der längsten Schlange an?). Fröhliche und traurige Geschichten, Partys und lange Familienwochenenden offenbaren sich. Am traurigsten finde ich die Geschichten, deren Einkaufswagen eine Flasche Korn, Zigaretten, Fleischsalat und ein Bund Möhren zum kaschieren enthalten.

Jetzt kommt Big Data ins Spiel (nicht nur bei dem traurigen Beispiel, sondern bei der Analyse der Kassenbons): Mittels statistischer Methoden (z.B. Clusteranalysen, Faktoranalysen) können aus allen Bons mit den Tausenden von Produkten und den Millionen von Käufern „Haufen“ gebildet werden. In jedem Haufen sind einige wenige bis viele Produkte. Manche Produkte können in mehreren Haufen – zumindest virtuell – liegen.
Was tun damit? Nun ja – wir suchen uns sogenannte „Markierprodukte“. Markierprodukte stehen als Indikatoren für eine bestimmte Situation. Die können wir aus einer teilnehmenden Beobachtung (s.o.) gewonnen haben. Das könnten Sonnenmilch oder eine Sonnenbrille oder ein Einmalgrill sein. Dann schauen wir uns an, was sonst in diesen Produkthaufen mit dem Markierprodukt steckt.  Und ob das reicht, eine Situation zu erkennen und zu beschreiben.
Haben wir dann alles, um die Ausstattung für Strand, Baggersee oder Schwimmbad dem Kunden im Supermarkt an einem Platz, in einem Regal zu präsentieren? Nein. Was fehlt?
Naja, zum Beispiel die Information, welches Wetter zum Zeitpunkt und am Ort des Einkaufs für die nächste Zeit prognostiziert wurde.
Wie repräsentativ dieser Tag für alle relevanten Tage ist. Aber auch, ob Menschen zum schönen Wetter hinfahren – raus aus dem Regen.
Oder eine Hypothese, was Menschen alles einkaufen, wenn ein kühles verregnetes Sommerwochenende ohne Baggersee voraus ist.
Um dann dafür die geeigneten Produkte zusammen zu packen und zu präsentieren.
Aber dazu haben wir bestimmt eine Befragung gemacht, die uns die Hypothesen liefert, nicht wahr?

Fazit

Wenn Ihnen demnächst im Supermarkt eine Aktionsfläche auffällt, die ständig gerade für Ihre Situation im Moment passende Produkte anbietet, freuen Sie sich. Hier nutzt jemand wirklich das Orchester der Analysemöglichkeiten. Und zählt nicht nur die Instrumente.  

Was kommt nach Big Data? Nichts, wenn sich Big Data nicht einem Konzept, einer Strategie, Hypothesen und einem echten Interesse am Forschungsgegenstand unterordnet. Eine Menge Einsichten und Erkenntnisse, wenn man damit sauber arbeitet. 

Prognose: Nach der Enttäuschung mit Big Data kommt das saubere Arbeiten mit repräsentativen Stichproben, Hypothesen, Modellen. Big Data ist nicht wie das Suchen im Heuhaufen. Denn da weiss man, dass man eine Stecknadel sucht.

 

]]>
https://databerata.de/wozu-das-alles/feed/ 0
Studie zeigt: Wie eine gute Suche Ihre Kunden zufriedener macht. https://databerata.de/studie-zeigt-wie-eine-gute-suche-ihre-kunden-zufriedener-macht/ https://databerata.de/studie-zeigt-wie-eine-gute-suche-ihre-kunden-zufriedener-macht/#respond Tue, 15 Jan 2013 15:36:00 +0000 http://databerata.de/?p=265 Es klingt eigentlich schon überzeugend: Setzen Sie auf Ihrer Website eine „gute Suche“ ein, das macht diese informativer und attraktiver.

Aber ist das wirklich so? Und vor allem – was ist eine „gute Suche“? 

Art Divine, ein Pionier im Bereich der semantischen Suche, wollte es genauer wissen. Zusammen mit Prof. Dr. Thomas Wirth von der Dualen Hochschule Baden Württemberg hat das Bonner Unternehmen eine Studie durchgeführt, in der die Qualität der Antworten auf Suchanfragen auf Websites beurteilt wurden.

Die Beurteiler hatten eine Liste von üblichen Suchanfragen, nichts exotisches. Die Suchergebnisse wurden „blind“ nach Güte beurteilt. „Blind“ bedeutet, dass die Beurteiler nicht wussten, welche Art der Suchmaschine auf einer Site eingesetzt wird. Als „Güte“ wurde gemessen, ob man eine passende Auskunft zur Frage bekommen hat. Weil Menschen subjektiv urteilen, wurde  ausserdem  geprüft, ob alle Beurteiler das selbe Urteil  abgeben – oder sich in der Beurteilung unterschieden. Nach bestandenen Qualitätschecks erfolgte die Auswertung.

Die Ergebnisse sind frappierend:

  • Die beste Suche (eine semantische Suche) liefert über 80% relevante Ergebnisse,
  • Die schlechteste (eine Volltextsuche) nur knapp 20% – über 80% sind irrelevant!
  • Die Semantischen Suchen liefern durchschnittlich 70% „gute Ergebnisse“.
  • Bei den Voltextsuchen erfreuen nur knapp ein Viertel den Suchenden, zwei Drittel der Ergebnisse wurden als „irrelevant“ beurteilt.

Art-Divine_studie.012

Fazit: Eine Gute Suche macht Ihre Kunden zufriedener. Nach den Ergebnissen der Studie von Prof. Dr. Wirth macht eine durchschnittliche Semantische Suche sieben von 10 Menschen zufrieden – eine durchschnittliche Volltextsuche schafft das noch nicht mal bei drei von Zehnen.  Wir wissen nun genauer, dass die Semantische Suche eine gute Suche ist.

Wissensecke

Was ist eine „Semantische Suche“? 

Eine Semantische Suchmaschine versteht eine Eingabe in natürlicher Sprache. Also so, wie wir Menschen uns üblicherweise unterhalten. Ein Beispiel:  „Welche der beiden Strassen hier führt nach Bonn?“  können wir als Menschen beantworten, weil wir den Sinn der Frage verstehen. Unser semantisches Verständnis führt zu Antworten „die Linke“, „die Rechte“, „beide“, „keine, da müssen Sie …“, „weiss ich nicht“.

Was ist eine „Volltextsuche“?

Üblich im Web sind Volltextsuchen. Die suchen nach allen Wörtern einer Suchanfrage in Dokumenten, die sie sich vorher schon mal angeguckt haben (Index). Das ideale Dokument für die obige Frage enthält nach den Kriterien der Volltextsuche also die Wörter  „Welche“ +  „der“ + „beiden“ + „Strassen“ + „hier“ + „führt“ + „nach“ + „Bonn“. Zusätzlich sollte dieses Dokument zumindest die Wörter „Strasse“ und „Bonn“ als Stichwörter notiert haben. Und mit anderen Dokumenten ähnlichen Inhalts häufig verlinkt sein. Dann wird der Link zum besten Ergebnis-Dokument als Suchergebnis präsentiert.

Übrigens: Intuitiv agieren wir unterschiedlich, je nachdem ob wir eine Volltext-Suche oder eine  Semantischen Suche nutzen:

– Bei Volltextsuchen machen wir uns oft  viele Gedanken, was wir denn nun wirklich in den Suchschlitz der Suchmaschine eingeben müssen, gerade auch dann, wenn wir nach Informationen suchen, deren Fachsprache wir nicht beherrschen.

– Natürlichsprachliche Fragen an Semantische Suchen werden mit der Erwartung gestellt, dass wir ein Gegenüber haben, das uns versteht. Oder Verständnis herstellt, indem es zurückfragt. So werden  „knifflige“  Fragen im Quasi-Dialog beantwortet.

 

]]>
https://databerata.de/studie-zeigt-wie-eine-gute-suche-ihre-kunden-zufriedener-macht/feed/ 0
Bitte Zahlen! Vortrag auf der ON Web Convention 2013 https://databerata.de/bitte-zahlen-business-intelligence-mit-webanalytics/ https://databerata.de/bitte-zahlen-business-intelligence-mit-webanalytics/#respond Wed, 26 Dec 2012 16:17:51 +0000 http://databerata.de/?p=207 Online Medien erfüllen den Traum vieler Menschen auf Fern-Wirksamkeit: Ich erziele eine Wirkung bei bekannten oder fremden Menschen, indem ich bewusst Mittel der Gestaltung von Text, Bild, Tönen einsetze.

Anders als bei Filmen oder Printmedien kann ich dazu noch in Interaktion mit Menschen treten, sie zu Handlungen auffordern, überraschen, langweilen, Erwartungen interaktiv erfüllen oder enttäuschen.

Ein wenig ist der Webauftritt eines Einzelnen oder eines Unternehmens damit auch eine zeitweise autonome Repräsentanz, ein Avatar.

Das geschätzte Publikum, der sogenannte User, lohnt meine Anstrengungen durch Treue, Interaktion, Konversion, Promiskuität oder eine grausam hohe Bounce Rate.

Davon bekomme ich üblicherweise nichts mit, wenn ich nicht Webanalytics einsetze. Für Private kein Beinbruch.

Aber nur 10% der Handelsunternehmen im Web (Zumstein / Züger / Meier 2011, Web Analytics in Unternehmen) haben Sensorik dafür installiert. Für 90% ist der Webauftritt eine schwarze Kiste mit Stromanschluß und einem CMS, aus dem wundersamer Weise Aufträge rauspurzeln.

Dabei ist Webanalytics erst die Jolle im Hafen, der Ausbau zum schmucken Info-Containerschiff heisst Business Intelligence (BI). BI verknüpft die Anforderungen des Unternehmens mit Analytics zu einem mächtigen Informationspool.

Was eine Spinne, eine Fliege, Netze, Fliegenfänger und das Vertrauen in Zahlen für eine Rolle dabei spielen, zu BI zu kommen, werde ich am 26.1. auf der ON Convention 2013* der Dualen Hochschule Baden-Württemberg erzählen.

Ich erzähle aber nicht nur was auf Conventions – gerne geht ich mit Ihnen das Thema Webanalytics für Ihr Unternehmen an. Die Auswahl des besten Tools, Schulung von Mitarbeitern oder die gesamten Professional Services können wir mit Erfahrung anbieten. Schicken Sie mir eine E-Mail, lassen Sie uns reden – und machen.

„Bitte Zahlen“ wird dann sehr bald schon die Einladung an die Webanalysten auch in Ihrem Unternehmen sein,

 

* Was ist eigentlich die ON Convention Mosbach?

Zu seinem 11. Geburtstag veranstaltet der Studiengang Onlinemedien an der DHBW Mosbach erstmalig ein eigenes Tagungs-Event. Wir laden hierzu unsere Dozenten, unsere Ausbildungsfirmen und besonders auch alle ehemaligen Studierenden ein. Wir möchten gerne einen Tag mit Ihnen und unseren Referenten über die Zukunft des Netzes aller Netze laut nachdenken. Natürlich sind uns auch interessierte Gäste aus der Online-Branche willkommen! Unterstützt wird die Aktion von der DHBW Friends for Life e.V. Mosbach.

]]>
https://databerata.de/bitte-zahlen-business-intelligence-mit-webanalytics/feed/ 0
Tante Emma lebt im E-Shop. Dank Web Analytics. https://databerata.de/tante-emma-lebt-im-e-shop-dank-web-analytics/ https://databerata.de/tante-emma-lebt-im-e-shop-dank-web-analytics/#respond Thu, 20 Dec 2012 10:59:10 +0000 http://databerata.de/?p=150 In  „Tante Emma“-Läden fanden Beratung und Verkaufsprozess durch Menschen mit Menschen statt:
„Guten Morgen, Frau Meyer. Was kann ich für Sie tun? Bratäpfel an Heiligabend? Für Bratäpfel eigen sich am besten Boskop. Haben Sie denn noch Mandeln, Rosinen und Marzipan zu Hause?“

Das Entstehen von Supermärkten mit einem umfangreicheren Angebot in Detailtiefe und Menge löste die Bedienung ab und etablierte die Selbstbedienung. Der „Laden“ wurde mehr oder minder zu einer Schnittstelle komplexer professioneller (Verkäufer) und privater Logistik (Käufer).

Das Internet bietet seit langem elektronische Supermärkte in großer Vielfalt. Mit einem großen Manko:

Da niemand Rückmeldung geben kann, ob und wie Produkte „ankommen“, und auch Informationen aus dem direkten Kundenkontakt nur selten generiert werden (Ausnahme: E-Mails, Anrufe, Briefe), ist der elektronische Kanal „blind“ und „taub“ gegenüber den Kundenanliegen. Erst einmal.

Das tatsächliche Interagieren von Kunde und Unternehmen (Fragen, Antworten, Beraten, Kaufen, Verändern) wird in technische Module ausgelagert. Da in diesen nur der Kunde als Mensch tatsächlich agiert, benötigen Unternehmen eine elektronische Vertretung, die diese Aktionen und Reaktionen wahrnimmt: Ein lückenloses funktionales Controlling wird zu einem Dreh- und Angelpunkt des Gelingens der elektronischen Repräsentanz.

Web Analytics: Die einfachsten und sicherlich weit verbreiteten Reportings berichten Kennzahlen über das Besucherverhalten:

  • Wie viele Besucher hat eine bestimmte Seite? Bei anonymen Besuchen (üblich für Bereiche, in denen man sich nicht „einloggt“) kann diese Frage übrigens kaum beantwortet werden, weil nur über Hilfsmittel wie Cookies Besucher wieder erkannt werden können.
  • Wie viele Besuche gibt es?
  • Wie lange bleiben Besucher auf der Seite? Auch diese Kennzahl wird häufig missverstanden. Die Bedeutung einer kurzen oder langen Verweildauer kann erst verstanden werden, wenn man einer Seite eine „Rolle“ zugeschrieben hat. Lange Verweildauern auf Seiten, die wie ein Busbahnhof funktionieren und schnell verteilen sollen bedeuten: Überarbeiten notwendig. Auf Content-Seiten ist eine längere Verweildauer wünschenswert.
  • Welche Seiten werden nach einer Seite angesprungen – sind dies die Seiten, die die Redakteure als Folgeseiten angedacht haben?
  • Welchen Weg nehmen Besucher durch den Auftritt? Diese Clickstream- oder auch Trampel­pfadanalysen geben einen guten Einblick in die Wirksamkeit von Marketing­maßnahmen. Manchmal wird eine sorgfältige und aufwändige 3-D Darstellung eines Gerätes von den Nutzern als Navigationsmöglichkeit übersehen, als Werbung missverstanden. Stattdessen wird oftmals die Suche oder verborgene Links aufgespürt, um eben genau dieses Produkt auf der Bühne anzusteuern.

Business Intelligence: Neben diesen allgemein nutzbaren Standardinformationen bedient die „institutionalisierte Sicht auf den Kunden“ weitere Möglichkeiten des Informationsbedarfs:

  • Welche Erfolge hat eine Mailingkampagne zu einem neuen Produkt? Mailingkampagnen bedienen sich üblicherweise als Einsprung ins Web einer „Landingpage“, also einem speziell für diesen Zweck errichteten Flughafens im gesamten Auftritt. Dabei bringen die dort landenden anonymen Kunden eine Kennung mit, die ein Beobachten während des Aufenthalts bis hin zum Warenkorb (oder auch des Absprungs zum Wettbewerb) ermöglichen.
  • Welches Layout einer Seite hat eine höhere Konvertierung von Nutzern zu Kunden (Conversion-Rate)? Mit A/B Testings, einem statistischen Verfahren, wird die optimale Conversion  ermittelt, das optimierte Design dann genutzt.
  • Wie viele Warenkörbe werden bei wie vielen Besuchen angelegt? Wie hoch ist dann der Anteil derjenigen, die diese Warenkörbe auch versenden (Warenkorbquote)? Eine niedrige Quote sollte weiter analysiert werden. Liegt es z.B. an verlockenden Angeboten, die der harten Wahrheit von Preis und Menge im Warenkorb nicht mehr stand hielt? Oder waren es schlicht technische Probleme, die ein Absenden des Warenkorbs verhindert haben?

Aber das wichtigste Element des Kundenverstehens ist das Verstehen der Daten. Selbst klug gefragt und analysiert, bekommt der Shop Betreiber trotzdem nur Daten. Diese Daten müssen weiter befragt werden, bis die Kunden wieder lebendig werden und sprechen –  fast wie im Tante-Emma-Laden.

 

Gekürzter und veränderter Auszug aus: Hans-Werner Klein, „Prozessualer Komplexität mit Mitteln des Crowdsourcing begegnen“. In „Complexigence. Komplexität verstehen und aktiv managen. Norderstedt 2012“ Hrsg. Carsten Fabig, Alexander Haasper.

]]>
https://databerata.de/tante-emma-lebt-im-e-shop-dank-web-analytics/feed/ 0
Jetzt versteht einer die Kunden. Besser. https://databerata.de/jetzt-versteht-einer-die-kunden-besser/ https://databerata.de/jetzt-versteht-einer-die-kunden-besser/#respond Tue, 18 Dec 2012 10:59:41 +0000 http://databerata.de/?p=136 Es war einmal vor gar nicht langer Zeit bei der Art-Divine GmbH in Bonn.

Ein namhafter Online-Händler hatte festgestellt, dass Kunden sich in seinem zugegebenermaßen umfangreichen Hilfebereich nicht zurechtfanden. Dies führte zu unnötig vielen Kundenanfragen per Telefon und e-mail, also auf den kostspieligen Kontaktkanälen. Die Neugestaltung des Hilfebereichs und insbesondere die Informations-Architektur sollten konsequent an den Kundenanliegen ausgerichtet werden.

Das Unternehmen stand also frei nach Precht vor der Frage: Was wollen meine Kunden eigentlich von mir – und wenn ja, wie viele? Hierzu gab es zwar kein explizites und von allen Beteiligten akzeptiertes Wissen, aber eine Menge hoch interessantes Datenmaterial: 1,4 Mio Sucheingaben aus dem Hilfebereich, 80.000 e-mails und 150.000 ausgefüllte Feedbacks standen zur Verfügung und warteten auf eine inhaltliche Auswertung.

Das Expertenteam von Art-Divine gewann daraus in einem mehrstufigen, teilautomatisierten Verfahren ein Kategorien-Modell mit 250 trennscharfen Kategorien. Mittels Clustering, regelbasierten und trainingsmengenbasierten Kategorisierungs-Verfahren, linguistischer Modellierung und eines Hauchs Magie waren nach zwei Wochen die in dem Material vorhandenen Kunden-Anliegen modelliert und 90% der verfügbaren Kunden-Äußerungen eindeutig zugeordnet.Neben dem Modell selbst und den nachgewiesenen Häufigkeiten der einzelnen Anliegen waren die mitgelieferten Konfidenz-Werte und Delta-Umgebungen eine wichtige Hilfestellung. Gaben Sie doch Aufschluss, mit welcher Sicherheit man sich auf die Erkenntnisse stützen konnte und an welcher Stelle mögliche Abweichungen in Betracht  gezogen werden mussten.

Die Ergebnisse sind natürlich vertraulich zu behandeln. Nur soviel darf erzählt werden:

  • Das Unternehmen wurde von den Kunden in unterschiedlichen Rollen wahrgenommen und kontaktiert. Einmal herausgearbeitet erwies sich dies als wertvolles Ordnungskriterium und ließ auch die Formulierunghilfen für die Mitarbeiter noch einmal in einem anderen Licht erscheinen.
  • Die Anliegen waren über alle Kontaktkanäle hinweg die gleichen. Die Häufigkeiten wichen je Kanal deutlich von einander ab: Neben Schadenersatz- oder Erstattungs-Themen traten besonders solche Fragestellungen überdurchschnittlich häufig per e-mail auf, in denen sich ein Kunde persönlich angegriffen oder ungerecht behandelt fühlte.

Als Konsumenten nehmen wir halt besonders dann Mühe auf uns, wenn’s ums Geld geht – oder um die Ehre.

Vorweihnachtliche Grüße

Jens

]]>
https://databerata.de/jetzt-versteht-einer-die-kunden-besser/feed/ 0
Wie Sie wahrscheinlich einen 6er im Lotto haben werden (inkl. 2er Tipps) https://databerata.de/wie-sie-wahrscheinlich-einen-6er-im-lotto-haben-werden-inkl-2er-tipps/ https://databerata.de/wie-sie-wahrscheinlich-einen-6er-im-lotto-haben-werden-inkl-2er-tipps/#respond Mon, 17 Dec 2012 14:40:22 +0000 http://databerata.de/?p=128 In „meiner“ Wissenschaft, der Statistik, gibt es den wundersamen Begriff der Wahrscheinlichkeit. Der umgangssprachliche Begriff „wahrscheinlich“ (der Sie vielleicht diesen Artikel lesen machte, stimmst?) meint oftmals „eher, ziemlich sicher, bestimmt“. „Wahrscheinlich sehen wir uns Weihnachten mit der Familie“ bedeutet zumindest hier im Raum Bonn: Eine Torte mehr backen.

Die wissenschaftliche „Wahrscheinlichkeit“ hat in der Statistik hat eine eigene Fachrichtung, die Stochastik.

Trotz des vertrauenswürdigen Namens war die Stochastik von Wissenschaftlern anfangs nicht sonderlich anerkannt. Die Mathematik hat lange Zeit Wahrscheinlichkeitsrechnungen nicht als wissenschaftlich angesehen. Klar – die Mathematik kennt Gesetzmässigkeiten und ein-eindeutige Lösungen. 21 + 21 = 42. Und das zu 100%. Wenn nicht 42 rauskommt, gab es Fehler bei der Eingabe im Rechner oder Unachtsamkeit im Kopf.

Zudem hat die Stochastik eine ihrer Wurzeln im Glücksspiel. Besser gesagt in den Versuchen, Gesetzmässigkeiten beim Würfeln und Wetten zu erkennen und zu nutzen. Professionelle Spieler wandten sich an bekannte Mathematiker ihrer Zeit, um ihre Chancen beim Spielen und Wetten zu erfahren. Und um mit diesem Wissen zu gewinnen.

Das war schlau von den Spielern, denn manchmal liegen wir mit unserem Alltagsverständnis und Bauchgefühl bei der Einschätzung von „Wahrscheinlichkeiten“ arg daneben. Da sollte man die Profis fragen.

Den Lottogewinn mit Jackpot zu bekommen, wird meistens überschätzt:  Einen 6er im Lotto mit Jackpot – das ist nicht unwahrscheinlich. Allerdings ist die Wahrscheinlichkeit nicht sehr hoch für einen einzelnen Spieler. Genauer: Die Wahrscheinlichkeit beträgt etwa eins zu 139 Millionen.

Um statistisch gesehen mit einer theoretischen Wahrscheinlichkeit von 1 (das sind 100%) den Jackpot zu knacken, müssten Sie allerdings 2,7 Millionen Jahre alle Samstage spielen.

Und das ist nur die theoretische Wahrscheinlichkeit.

Sie wollen ganz sicher gehen, und ihre Chancen auf einen Lottogewinn zu maximieren? Nichts einfacher als das, hier der ultimative Tipp (Tipp 1).

Mein Vorschlag: Gehen Sie in sich, wie viel Sie im gesamten Leben für Lotto ausgeben werden. Nehmen Sie die Summe und setzen Sie diese an einem Tag komplett ein. Aber spielen Sie unterschiedliche Zahlenreihen. Fassen Sie danach das Thema nie wieder an. Sie haben ihre Chance statistisch gesehen und wahrscheinlichkeits-theoretisch optimal genutzt.

Hat nicht geklappt? Schade – aber das Geld ist nicht weg: 50% davon haben andere Spieler, 50% geht mittelbar wieder an Sie zurück – über den Staat. Es hat geklappt? Wissen Sie, das Menschen die gönnen können, glücklicher sind? Werden Sie noch glücklicher – meine Emailadresse zum Kontakt für „Teilen & Gönnen“ ist hawe@databerata.de.

Mein Weihnachts-Tipp (Tipp 2): backen Sie noch eine Torte zu Weihnachten, wenn sich die databerata.de lesende Verwandtschaft „wahrscheinlich“ angekündigt hat. Aber wundern sie sich nicht, wenn diese fernbleibt. Vielleicht hat sie ja „Ihren“ Jackpot gewonnen und ist nun längere Zeit verreist.

 

]]>
https://databerata.de/wie-sie-wahrscheinlich-einen-6er-im-lotto-haben-werden-inkl-2er-tipps/feed/ 0
Klare Empfehlung: Weihnachtslektüre https://databerata.de/weihnachtslekture-fur-kopf-und-bauch/ https://databerata.de/weihnachtslekture-fur-kopf-und-bauch/#respond Thu, 13 Dec 2012 06:59:39 +0000 http://databerata.de/?p=102 Kennen Sie Herrn Rolf Dobelli? Ich mag seine Bücher (Kunst des klaren Denkens; Kunst des klaren Handelns), die nach Lektüre und vor allen Dingen bei Änderung des Verhaltens das Reintappen in so manche Falle verhindern können.

Häufig zitiert Rolf Dobelli den Nobelpreisträger David Kahneman. In seinem Buch „Schnelles Denken, langsames Denken“ legte er die Grundlagen für eine gesamtheitliche Sicht auf die Prämissen unseres Handelns: Ist es Intuition vs. Nachdenken? Oder Intuition und Nachdenken?

Wenn Sie eine Stunde mit David Kahneman verbringen wollen, hier gibt es ein Gespräch mit ihm und David Brooks (New York Times) auf Fora TV. Sie haben die Möglichkeit sich einzelne Sequenzen anzuschauen.

Ich finde: Kahnemann lesen ist mindestens genauso spannend wie „Mentalist“ gucken und erkenntnisreicher als die beste erste Staffel „Lie to me“.

Nachricht zur Weihnachtszeit: Unsere Augen können nicht nur gucken, sondern liefern auch noch Rohstoff um zu lesen und zu verstehen.

]]>
https://databerata.de/weihnachtslekture-fur-kopf-und-bauch/feed/ 0
Stichproben in der Weihnachtsbäckerei https://databerata.de/stichproben-in-der-weihnachtsbackerei/ https://databerata.de/stichproben-in-der-weihnachtsbackerei/#respond Tue, 11 Dec 2012 11:53:04 +0000 http://databerata.de/?p=92 Was verstehen Sie unter „repräsentativ“? Eine Villa in Grunewald? Das weitläufige Landgut in der Provence? Eine Form der Monarchie?

Statistiker nutzen diesen Begriff auch.  Auch wenn sie nicht zu Wohlstand oder Reichtum gekommen sind – nur sind es bei ihnen die „repräsentativen Stichproben“, die erwähnt werden.

Repräsentativ – damit ist nicht gemeint, mit einer goldenen Stricknadel den Dresdner Stollen im Ofen zu überprüfen, ob er schon fertig gebacken ist, oder noch Teig an der Nadel klebt.

Wir meinen damit die Annahme, dass ein Teil einer Menge sich genauso verhält wie diese gesamte Menge.

Stichproben kennen wir in der Lebensmittelkontrolle: In einige Säcke mit Rohkaffee wird mit einem Probelöffel gestochen. Dann wird die Probe auf Güte, Feuchtigkeit und „schlechte“ Bohnen überprüft. In Käse wird gestochen, um dessen Reifegrad zu testen.

Die Stichproben bei Menschen fallen nicht so eindringlich aus. Will man was über das Verhalten oder die Meinung von Menschen wissen, kann man diese beobachten oder befragen. Und weil das zu teuer würde, wenn man das bei allen macht, gibt es Stichproben.

Und hier die Crux: So eine Stichprobe sollte eine Miniatur der Grundgesamtheit sein. Daher muss man erst einmal festlegen, was ist die Grundgesamtheit ist.

Beispiel? Gerne: Meinungsforschung schien mit dem Beginn des Internetzeitalters einfacher zu werden. Nehmen wir mal als Grundgesamtheit: Einwohner Deutschlands Alter 14-99.

Einfach? Gehe ins Netz mit deinem Fragebogen, suche 1.000 Leute zusammen und dann günstig und schnell Fragen beantworten lassen. Aber für welche Grundgesamtheit standen 1.000 Surfer? Genau, bestenfalls für die Surfer.

Und wenn man damals statt der 1.000 vielleicht 10.000 genommen hätte? Die Größe der Stichprobe hat nicht unbedingt was mit der Repräsentativität zu tun. Da habe ich halt 10.000 Surfer befragt – die stehen aber immer noch nicht für die angezielte Grundgesamtheit.

Das wäre, als wenn ich den Kuchen nur direkt am Rand bestichprobe, oder alle Bohnen nur eines Sackes testet.

Wie gut eine gute Stichprobe funktioniert, wissen wir spätestens seit 1936 durch einen Wettbewerb. Aufgabe: Wer prognostiziert den künftigen Präsidenten besser, der Meinungsforscher George Gallup oder die Zeitschrift Literary Digest?

Gallup befragte 1.500 Amerikaner (nach einem heute noch verwendeten Stichprobenverfahren).

Literary Digest versandte 10 Millionen Fragebögen an alle seine Leser  (es kamen 2,4 Millionen zurück) in der Annahme, die würden Amerika repräsentieren.

Wie ging der Wettbewerb aus? Gallup sagte das Ergebnis sehr genau voraus – Literary Digest lag 19% Punkte daneben und prognostizierte den unterlegenen Kandidaten als neuen Präsidenten.

George Gallup gründete übrigens mit diesem Ruhm einer guten Prognose ein weltweit operierendes Mafoinstitut – und konnte sich sicherlich leisten, ganz repräsentativ zu wohnen, fast wie ein König.

 

]]>
https://databerata.de/stichproben-in-der-weihnachtsbackerei/feed/ 0
Complexigence https://databerata.de/complexigence/ https://databerata.de/complexigence/#respond Sun, 09 Dec 2012 15:00:53 +0000 http://databerata.de/?p=28 Guten Tag,

das ist ja ein komplexes Wort, oder? Complexigence? Erst mal – es ist ein Kofferwort, so heissen diese Wörter bei den Sprachwissenschaftlern. Oder auch Portmanteau. Es besteht aus mindestens zwei Teilwörtern. Und Complexigence besteht aus „Complexity“ & „Intelligence“.

Aber was ist es? Klingt eher nach Jazz, Miles Davis. Oder der neue Name eines alten Unternehmens, aus dem wissenschaftlichen Verlagswesen?

Ist aber der Titel eines Buches der Herausgeber Alexander Haasper und Carsten Fabig. Die auch den genialen Titel erfunden haben. In 2 Jahren ist das Wort mit einem (R) versehen und findet sich im Duden, wetten?

Ich habe ein Kapitel beigesteuert – das Thema ist: „Prozessualer Komplexität mit Elementen des Crowdsourcing begegnen“ .

Ich beschreibe in diesem Beitrag, wie Unternehmen dann, wenn die Zusammenarbeit zwischen Abteilungen immer komplexer wird, es ruhig den Mitarbeitern überlassen können, sich zu organisieren. Manchmal reicht es aus, ein Tool und Vertrauen bereit zu stellen. Das Mittel der Wahl (Crowdsourcing) kennen wir aus gut funktionierenden Gruppen. Jeder macht achtsam und in Abstimmung mit den anderen, das was er / sie kann. Und Vertrauen dürfte uns allen auch im Umgang mit Mitarbeitern und Kollegen vertraut sein.

Weiterlesen auf buch.de

Danke an Alexander Haasper und Carsten Fabig für dieses Buch und diesen Titel.

Allen eine gute Woche und – „Wer findet, braucht nicht weitersuchen!“

Hawe

 

]]>
https://databerata.de/complexigence/feed/ 0