Big Data – Der DataBerata https://databerata.de DataBlog Mon, 02 May 2022 15:56:26 +0000 de hourly 1 https://wordpress.org/?v=6.7.1 https://databerata.de/wp-content/uploads/2013/08/cropped-DSCF4573-1-32x32.jpg Big Data – Der DataBerata https://databerata.de 32 32 Global Pulse – Big Data Analytics für Projekte der UN https://databerata.de/global-pulse-big-data-analytics-fuer-projekte-der-un/ https://databerata.de/global-pulse-big-data-analytics-fuer-projekte-der-un/#respond Mon, 18 Jun 2018 11:11:57 +0000 http://databerata.de/?p=955 United Nations Global Pulse

Wie schafft es die UN, ein Monitoring in Echtzeit hinzubekommen, um bei sich anbahnenden lokalen oder globalen sozio-ökonomischen Krisen sehr schnell und effizient einen Überblick zu verschaffen, möglichst schon Krisen im Entstehen zu bemerken um dann früher über Massnahmen entscheiden zu können?

„Big Data“ könnte helfen: Die UN wird dies mit der Auswertung „Digitaler Quellen“ erreichen – das sind Nachrichten, Tweets, Sensorik, öffentliche Datenquellen. Geeignete Verfahren aus dem Umfeld Big Data können diese riesigen Datenmengen analysieren und mit der Expertise von Fachleuten als Informationspool mit Warnfunktionen bereitstellen.

Eine sehr gute Kombination aus „low-tech-sensors“ mit „high-tech-analytics“

Zur Zeit gibt es Global Pulse Labs in New York, Jakarta und Kampala. 

Ein wichtiges Projekt, dass helfen wird, die Welt für viele zu einem angenehmeren Ort zu machen.

Hier geht es zur Global Pulse Website der UN: Weiter

]]>
https://databerata.de/global-pulse-big-data-analytics-fuer-projekte-der-un/feed/ 0
Herbst 2017: Industrie 4.1, AI und Dark Data sind da – und Hadoop ist obsolet? https://databerata.de/industrie-4-1-ai-dark-data-sind-da-und-hadoop-ist-weg/ Thu, 02 Nov 2017 15:22:12 +0000 http://databerata.de/?p=1754
„Grau, teurer Freund, ist alle Theorie
und grün des Lebens goldner Baum
Johann Wolfgang von Goethe; Faust 1, Studierzimmer.
„The proof of the pudding is in the eating“
Jurgen Moerman

In den vergangenen Monaten hat sich in unserer Branche sehr viel getan, mit Wucht geht es raus aus der manchmal akademischen Ecke hin zum praktischen nutzenorientierten Handeln.

Das wird von manchen Industrie 4.1 genannt. das .1 soll für „die nächsten praktischen Schritte“ stehen.
Bisher dachte ich, das sei – nicht zuletzt durch die Initiativen wie LNI40 –   längst inkludiert und würde täglich geschehen.
Nun denn, wir freuen uns, die nächste Stufe der Industrie 4.0 Dienstleistungen, 4.1, schon vor der offiziellen Kundgabe betrieben zu haben: Datenbasierte Optimierung, Steuerung und Wartungsprognose für den Wirkbetrieb „in echt“.

Was bedeutet das genau?
Wir nutzen seit Gründung der Twenty54Labs  Tools der komplexen Statistischen Analyse für die Analyse und Modellbildung von Maschinendaten. Damit lassen sich sowohl „Predictive Analytics“ wie auch „Rezeptverbesserungen“ und „Digitale Zwillinge“ modellieren und überprüfen.  Die Vorteile gegenüber dem automatisierten „Number Crunching“, wie es häufig bei Hadoop basierten Analysen vorgenommen wird, liegen auf der Hand: Bewährte Verfahren aus der empirischen Forschung, leichte Überprüfung der Modelle auf Verletzung statistischer Standards, Berechnungen der Eintrittswahrscheinlichkeiten von Ereignissen und empirisch basierte, datensparsame  Modellierung von Maschinen und Abläufen werden erleichtert.
Übrigens: Mit der Veröffentlichung des Hype Cycles 2017 hat Gartner Inc. „Hadoop“ als „obsolet“ bezeichnet (mehr Infos – dem Link folgen).

Der nächste Schritt: Wir vervollständigen  unser Angebot um  Hardware / Software zur analyticsbasierten  Steuerung.

 Wir nutzen für den Support des Wirkbetriebs state-of-the-art Industrie-Controller, die hochperformant sind und die sehr strenge SicherheitsTests bestanden haben. Diese sind non-cloud, on premise (also vor Ort) und hochsicher kommunikabel.
Als Bedienteile (MMI)  werden stationäre oder portable iPads eingesetzt. Unsere Controller haben sich seit über 5 Jahren in der  „industrial automation“  (Zementfabriken, Autowaschanlagen, Vergnügungsparks, Veranstaltungszentren, Filmstudios, Fluglinien, ÖPNV) und „property automation“ (große Anwesen und Industrieanlagen indoor und outdoor) bewährt. Erfindung, Entwicklung und Programmierung stammen von unserem CTO Tony de Rijk (Santa Rosa, Kalifornien).
Der Industrie 4.1 Dreiklang © Twenty54Labs
Wozu Maschinendaten genutzt werden können: Wartungsbedarf ankündigen, bevor eine Störung eintritt. Rezepte optimieren. Interaktives Stammdatenmanagement mit Hilfe eines Digitalen Zwillings. © Twenty54Labs

Und wir erweitern das Analyse Angebot der Twenty54Labs DataScience Analysen um  „Artificial Intelligence Maschinen (AI)“.  

„AI“ macht mit  ihren industriespezifischen Produkten den Weg frei für eine datenbasierte Analyse und Echtzeitsteuerung von Maschinen. Das geht über die statistische Simulation „offline“ hinaus.
Aus unserem Netzwerk haben wir daher eine Kooperationen mit führenden Anbietern von AI-Analytics geschmiedet.
Input und Prüfmodell stammen weiterhin aus unseren Statistischen Modellen.  Die Ergebnisse der Echtzeitanalysen in Zusammenspiel mit unseren Industrie-Controllern ermöglichen dann die nächsten Schritte der Automatisierung. Gerne auch bei kleinen und mittelständischen Unternehmen.

Vorschlag: Wir  stellen unsere Lösungen vor und kommen für eine  „Puddingprobe“ bei Ihnen  vorbei: Getreu dem Motto unseres CEO Jurgen Moerman „The proof of the pudding is in the eating“ – der Beweis für die  Möglichkeiten einer Sache liegen im Ausprobieren, nicht im Studieren von PowerPoint oder Verkaufsprospekten. Denn Sie wissen ja: Grau ist alle Theorie …. 

Ach ja – Dark Data: Das sind Daten, die ein Unternehmen besitzt, die aber nicht ausgewertet werden, weil sie unbekannt sind, also im Dunkeln liegen. Dieses „verborgene Gold“ zu entdecken ist übrigens eine unserer Lieblingsaufgaben.

]]>
Papa, was machst Du als Databerata eigentlich so? https://databerata.de/papa-was-machst-du-als-databerata-eigentlich-so/ https://databerata.de/papa-was-machst-du-als-databerata-eigentlich-so/#respond Fri, 20 Jan 2017 11:00:11 +0000 http://databerata.de/?p=1726 Wie erklärt man, wenn man nicht Arzt, Bäcker, Händler oder Metzger ist, seinen Kindern, was man so macht? Ich habe es so probiert:

„Ich bin  Data Scientist in meiner eigenen Firma mit dem Namen Twenty54Labs. Die Zentrale der Firma ist in Valkenburg (NL) und es gibt noch Kollegen in Bonn (D) und  Santa Rosa (Kalifornien / USA).

Data Scientist – was macht er denn da genau? 

„Die Aufgabe eines Data Scientist ist es, aus großen Datenmengen Informationen zu gewinnen, Zusammenhänge zu erklären und Empfehlungen abzuleiten. Dazu bedient er sich Werkzeugen aus Mathematik und Statistik.

Wie macht er das denn?

„Unübersichtliche, große, teilweise ungeordnete Datenmengen (z.B. Texte, Zahlen, Tweets, Facebook Posts, Maschinendaten, Bilder – das alles wird „Big Data“ genannt) werden mit Computerhilfe sortiert und auf einander bezogen. So konnten wir zum Beispiel für ein Lager mit Ersatzteilen einer Fabrik rausfinden, wie die Teile heissen, die da im Regal liegen. Selbst wenn die Schilder abgegangen sind und auf dem Boden rumliegen oder man früher und heute unterschiedliche Namen verwendet. Oder bei Maschinen rausfinden, ob bald irgendwas kaputt geht – bevor es kaputt geht.

„Anschließend werden aus den ersten Ergebnissen Ideen abgeleitet, was das denn bedeuten kann, was wir rausfinden. Diese Ideen überprüfen wir dann mit Mathe und Statistik: Stimmt’s oder stimmt’s nicht? Und – wie sicher sind wir uns?

Kurz gesagt?

„Ich bin „Rausfinder“ und „Dolmetscher“  zwischen Daten und Menschen. Manche nennen mich auch deshalb „DataBerata“.  Ich arbeitet schon lange mit Zahlen und Menschen und Daten. Das Wissen gebe ich auch gerne weiter – wie Du weisst, bin ich auch Lehrer an einer Hochschule, schreibe Fachbücher, halte Vorträge und gebe mit Kollegen Bücher heraus.

Was braucht man, um Data Scientist zu werden? 

  • Statistik-Wissen und Spass, mit Zahlen zu arbeiten
  • Spass an Mathe als Handwerkszeug
  • Kreativität – manchmal „verrückte Ideen“
  • Kommunikationstalent – also mit Menschen und Computern reden zu können
  • Neugierde, um  neue Dinge zum Nachgucken, also Werkzeuge, selbst zu entwickeln
  • Stark sein – weil ich meine  Ergebnisse  immer noch mal genau angucke und von den Kollegen prüfen lasse, ob sie auch richtig sind
  • guten Menschenverstand und Erfahrung
  • auch ein Studium u.a. in den Fachrichtungen Data Science, Business Intelligence, Sozialwissenschaft, Volkswirtschaft, Psychologie

Kann man das denn wirklich studieren? 

„Inzwischen ja – momentan noch in einigen wenigen Studiengängen „Data Science“ oder aufbauenden Masterstudiengängen. Aber die  gibt es zur Zeit schon. Und es werden immer mehr.

In welchen Firmen arbeitet man als Data Scientist? Ausser in der eigenen?

„Überall dort, wo man aus Daten Informationen gewinnen will: Heutzutage eher fast überall. Von Werbeagenturen über produzierende Unternehmen (Lebensmittel, Autos, Kleidung), Handelsunternehmen, Behörden (Kriminalpolizei), in der Marktforschung, bei Versicherungen bis hin zu Lehre und Forschung …

Gibt es denn auch noch freie Stellen?

„Ja – jede Menge, weltweit. Sowohl für Angestellte, wie auch für Selbständige.

Mehr Informationen zum Thema Data Scientist bei mir. Und hier.

 

]]>
https://databerata.de/papa-was-machst-du-als-databerata-eigentlich-so/feed/ 0
Cambridge Analytica. Oder wie man neue Werbemöglichkeiten erfindet. https://databerata.de/cambridge-oder-wie-man-neue-werbemoeglichkeiten-erfindet/ https://databerata.de/cambridge-oder-wie-man-neue-werbemoeglichkeiten-erfindet/#respond Wed, 07 Dec 2016 21:14:16 +0000 http://databerata.de/?p=1697 7.12.2016      Welche Chancen haben Unternehmen, die das Verhalten von Menschen über die Schaltung von Werbung im Web (Adds)  – oder das „Injizieren“ von Kommentaren und Posts – mit ausreichender Wucht zu beeinflussen versuchen?

Als Data Scientist, Autor und Unternehmer interessiert mich dieses Thema aus professioneller Sicht. Und endlich gibt es einen Use Case dazu: Titel „Cambridge Analytica, Trump, Brexit und noch ganz viel mehr!“.

Hier die wichtigsten Ergebnisse.

In „Das Magazin“ erscheint am 3.12.2016 der folgende Artikel über Michal Kosinski, einen Data Scientist, der herausragende Grundlagenforschung betrieben hat.  https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/

Michal  Konsinski hat an der Cambridge University ein Verfahren entwickelt, wie man aus auch kurzen schriftlichen oder symbolischen Äusserungen von Personen auf die Persönlichkeit dieser Person schliessen kann. Diese Texte können unterschiedliche Quellen haben – und auch aus  dem Web (Bsp. Texte oder „Likes“ bei Facebook) bezogen werden. Das klingt wundersam und genial – und ist wie üblich mit einer sehr guten Idee, Fleiss und Forscherdrang umzusetzen.

Es empfiehlt sich, das Ergebnis der Forschungsarbeit im Web zu besuchen. Auf der Website https://applymagicsauce.com/demo.html kann man sich mit eigenen Texten versuchen. Zwischenergebnis nach meinen Recherchen: Das was die Cambridge UNIVERSITY (nicht die Firma!!) macht, ist wirklich fundiert und sehr interessant.

Forschen Sie selbst. Vielleicht mit mit eigenen Texten. Sie werden sehen – ein paar Zeilen eigenen Textes – und sie können „psychografiert“ werden. Vielleicht entdecken Sie auch den „Schwager Effekt“, von Statistikern „n=1“ Effekt genannt: Schwager Effekt:  Zu jeder Statistik findet man einen Schwager, auf den diese Statistik nicht zutrifft. Das „n=1“ bedeutet – der Schwager ist nur eine einzelne Person, und damit kein Beweis „gegen“ die Statistik, die wurde (hoffentlich) an einer repräsentativen Stichprobe erhoben.

Das bedeutet: Die Ergebnisse der Tests werden nicht  immer 100% zutreffend für Sie sein. Sie sind auch nur „n=1“ – also eine einzelne Person. Beim weiteren Erforschen der Seite bekommen Sie aber  Informationen, wie es zu diesem Instrument kam und wie exakt dieses messen kann. Beim Klicken der an den Indikatoren positionierten „?“  wird u.a. erklärt:  „The predictive model was built using a sample of 260,000 participants’ scores on the 100-item long International Personality Item Pool Questionnaire (IPIP), arguably the most popular personality assessment in use today“. Prediction Accuracy (Area Under the Curve) : Between .35 and .50″ (Anmerkung: perfekt wäre eine Güte von 1 = 100%ig richtige Vorhersage, ganz mies 0 = 0%).

Wie hat Herr Kosinski (und seine Kolleg*innen) das also gemacht? In einer Studie mit 260.000 Menschen werden Zusammenhangsmaße zwischen den Ergebnissen von psychologischen / psychiatrischen Tests (Big 5) und „anderen“ Variablen ermittelt. Ziel ist es,  die Fragen des wissenschaftlichen Tests „Big 5“ gar nicht mehr stellen zu müssen, sondern sogenannte „Proxies“ (Stellvertreter) zu finden, die hoch korrelieren. Statt 100 Fragen beantworten zu lassen,  braucht man nur noch diese Proxies (Bilder, Formulierungen, Likes) als Indikator. Dieses Verfahren wird auch bei der Entwicklung von Persönlichkeitstest genutzt, um handhabbare (z.B. kurze),  valide (genaue) und reliable (verlässliche) Messverfahren zu entwickeln.

Die Bildung von Proxies kann mit dem Verlust der Güte eines Test einhergehen – die Vorhersagegenauigkeit leidet. Aber: Wenn ich statt der 100 Fragen der Persönlichkeitstest nur die Anzahl der Likes auswerten muss, um z.B. Neurotizismus zu erkennen, geht’s schneller, man muss nicht Fragebogen ausfüllen lassen, es ist preiswerter. Aber halt nicht so genau.

Herr Kosinski zeigt auf, dass dies auch mit öffentlich zugänglichen Proxies geht: Diese Art der Äusserungen findet man man bei Facebook in jedem Profil. Nun, eine Vorhersagegenauigkeit von .35 bis .50  ist nicht sonderlich hoch, im wissenschaftlichen Sinne. Aber schon nutzbar, wenn man ansonsten nichts weiss über ein Gegenüber oder eine Person hinter einem Facebook Profil. Und, wenn man nichts weiss, aufgrund von Selbstauskünften wie Wohnort und Beziehungsstatus mit der Giesskanne Werbung ausschütten müsste.

Es wird so gut nutzbar sein, dass tatsächlich die ein oder andere Person gefunden wird, die von ihrer Persönlichkeitsstruktur für definierte politische Botschaften oder Produktwerbung aufgeschlossener ist.

Zwischenbemerkung – die sogenannten „Big 5“ zu nehmen, ist der richtige Ansatz: Alle anderen Persönlichkeits-Tests sind eher auf dem Mess-Niveau von Horoskopen. Siehe: https://databerata.de/anleitung-zum-wahrsagen/.

Die Firma Cambridge Analytica (CA) nutzt dieses Vorgehen kommerziell und posaunt: Wir haben nicht nur Trump gekrönt, sondern bereits dem „Brexit“ den Weg  bereitet.

Wie genau soll das gehen?

  1. Cambridge Analytica ermittelt „auf Vorrat“ Persönlichkeitsprofile aus Facebook Profilen
  2. CA bekommt den Auftrag, potentielle Trump-Wähler zu finden und zu beeinflussen
  3. Eine Analyse der Zielgruppe „potentielle Wähler von Trump“ hätte ergeben, dass diese eher zu einer selbstunsicheren Persönlichkeitsstörung  neigen („… ist gekennzeichnet durch Gefühle von Anspannung und Besorgtheit, Unsicherheit und Minderwertigkeit. Es besteht eine andauernde Sehnsucht nach Zuneigung und Akzeptiertwerden, eine Überempfindlichkeit gegenüber Zurückweisung und Kritik mit eingeschränkter Beziehungsfähigkeit. Die betreffende Person neigt zur Überbetonung potentieller Gefahren oder Risiken alltäglicher Situationen bis zur Vermeidung bestimmter Aktivitäten.
    Quelle Wikipedia, https://de.wikipedia.org/wiki/Selbstunsicher-vermeidende_Persönlichkeitsstörung vom 17.1.2017 11:05)
    .
  4. Cambridge Analytica  selektiert aus den gespeicherten Persönlichkeitsprofilen die zutreffenden Zielprofile (a la Kosinski)
  5. und postet auf deren Timeline in Facebook entsprechende Meldungen
  6. … und kann tatsächlich, nicht perfekt, aber ganz gut, Meinungen beeinflussen.

Beim genaueren Hinsehen entsprechen diese Schritte auch einem „traditionellen“, durch  Tracking und Tracing generierten Profiling von Zielpersonen im Web. „Personalisierte Werbung“ heisst der Fachbegriff.   Nur ist dieses Profiling meistens nicht so gut ….

Mit den Veröffentlichungen von und über Cambridge Analytica entstand eine Welle von Kommentaren, die wie einander zitierend sich zumindest an einem Wortspiel probierten: „Big Data – Big Schwindel“ wurde z.B.  am 6.12.16 die Meldungen in der WELT getitelt. Wobei diese nicht-Fach-Artikel mit wenig statistischer und analytischer Fachkenntnis aufwarten konnten.

Hat nun CA Trump auf den Thron geholfen? Dem Brexit zur Mehrheit verholfen? Ob das Schwindel war – das könnten exakte Analysen und Befragungen beantworten. Auf jeden Fall ist Cambridge Analytica ist ein echter PR Coup gelungen. Sehr lautstark krönen sie sich zu den Königsmachern. Und es stimmt: Ihre Werkzeuge greifen auf der Basis Psychografie besser, als es anderen Verfahren des Tracking und Tracing tun (die üblicherweise auf Grund einer Surf-Historie  einer Person ein „Profil“ zuweisen, um dann individuelle Werbung zu schalten).

Meine Meinung ist: Das Ziel von CA dürfte nicht der nächste Auftrag von der AfD oder Herrn Wilders sein, sondern Fuß zu fassen in der lukrativen Welt des Tracking und Tracing: Ein echter Clou! Kategorisiere psychografisch ein Facebookprofil auf Basis der Likes und Statements, spiele „passgenaue“ Werbung (Adds) hinzu, und revolutioniere den Markt der Online Werbung. Damit wäre CA ein idealer „Partner“ für Facebook, Google & Co..

TL; DR

Cambridge ANALYTICA nutzt eine fundierte wissenschaftliche Entwicklung der Cambridge University, um Personen zu „psychografieren“. Diese „Psychografien“ können genutzt werden, um leicht beeinflussbare Menschen zu finden um diese zu „informieren“.

Nutzbar ist dies sowohl für Politiker – aber eher noch für Werbetreibende. Das Big Business mit Big Data könnte erklären, warum Cambridge ANALYTICA so laut mögliche Erfolge rausposaunt.

______________

Stand der Informationen: 17-01-17

]]>
https://databerata.de/cambridge-oder-wie-man-neue-werbemoeglichkeiten-erfindet/feed/ 0
Marktforschung der Zukunft – Mensch oder Maschine? https://databerata.de/marktforschung-der-zukunft-okt16/ https://databerata.de/marktforschung-der-zukunft-okt16/#respond Thu, 06 Oct 2016 12:37:25 +0000 http://databerata.de/?p=1618 „Marktforschung der Zukunft – Mensch oder Maschine?“
Die Herausgeber Bernhard Keller, Hans-Werner Klein und Stefan Tuschl haben erneut Autoren für ein Basiswerk der Zunft werben können.

 

978-3-658-12364-2_Cover_1.inddDas Buch liefert liefert Antworten. Fachlich, verständlich und mit Herzblut geschrieben teilen 19 renommierte Autoren ihre Visionen und Projekte für die „Marktforschung der Zukunft“.  Kommt es zum Showdown? Mensch oder Maschine?

„Marktforschung der Zukunft“ ist kein Roman. Obwohl die Gliederung der Inhalte sich fast so liest. Lassen Sie sich einladen, Marktforschung in der Zukunft zu erkunden. Dazu braucht es eine Kartografie, Leuchttürme und Wege, um dort hinzugelangen. Der vorliegende Band ist weder Dogma, noch vollständig, sondern wie der erste Band: Einladung zum Diskurs.

Der Inhalt:

  • Von Mauern und Windmühlen: Warum sich die Marktforschung neu erfinden muss (Claudia Gaspar, Andreas Neus und Fabian Buder)
  • An den Grenzen der Marktforschung (Dirk Engel)
  • Partnerschaft in der Marktforschung (Marco Ottawa und Veronika Falk)
  • Gemeinsam mehr als die Summe ihrer Teile (Gerhard Keim und Virginie Gailing)
  • Predictive Analytics (Janine Seitz)
  • Zur Zukunft der Online-Felddienstleistung ( Otto Hellwig)
  • Nachholen, Aufholen, Überholen (Stefanie Sonnenschein)
  • Renaissance der Psychologie im Marketing: ein Plädoyer  (Michael Pusler)
  • Oh Mensch – Neue Methoden in der qualitativen Marktforschung (Edward Appleton)
  • Big Data und amtliche Statistik  (Markus Zwick)
  • Das Reziprozitätsprinzip in der Lehre für zukünftige Marktforscher  ( Annette Corves und Oliver Reis)
  • Alles nur ein Spiel? (Stefan Tuschl, Sandra Meister und Sarah Laube)
  • Shorter Smarter Surveys (Markus Eberl)
  • Bekannte, aktuelle und neue Anforderungen an Treiberanalysen (Heiko Schimmelpfennig)
  • Werthaltige Segmentierung (Jürgen Eisele)
  • Ungenutzte Potenziale: Kundenservicedaten in der Marktforschung nutzen (Michael Scharf)
  • Automobil-Marktforschung heute und morgen: Vom Marktforscher zum Wissensmanager und Lotsen bei der Umsetzung (Werner Hagstotz und Karin Schmitt-Hagstotz)
  • Big Data in der empirischen Gesundheitsforschung (Tibor Haunit)
 Ab sofort lieferbar.  Print, eBook
Dieses Buch ist die Folge, nicht die Fortsetzung von „Zukunft der Marktforschung (ZdM)“. ZdM hat die Marktforschungswelt mit Fragen und Analysen aufgewühlt – fast 86.000 (Stand Dezember 2016)  Downloads des Buches / einzelner Kapitel  meldet der Verlag. „Das beste Marktforschungsbuch der letzten Jahrzehnte!“ so die Kritik eines Kollegen.

 

 

978-3-658-05399-4_Cover_1.inddZukunft der Marktforschung – Entwicklungschancen in Zeiten von Social Media und Big Data“  SpringerGabler 2015

]]>
https://databerata.de/marktforschung-der-zukunft-okt16/feed/ 0
CX – Schirmchen auf den Eisbechern der Kundendaten? https://databerata.de/schirmchen-auf-den-eisbechern-der-kundendaten/ https://databerata.de/schirmchen-auf-den-eisbechern-der-kundendaten/#respond Mon, 23 May 2016 10:25:48 +0000 http://databerata.de/?p=1597 Just married. Lautstark scheppern die leeren Dosen mit der Aufschrift „CX*“ hinter dem weißen Cadillac der vielleicht verpassten Chancen. Könnte ich Braut oder Bräutigam gewesen sein? Oder zumindest der Fahrer?

Geht es Ihnen auch so wie manchen unserer Kunden? Statt sich mit der Bedeutung von Daten, Prozessen und IT im Zusammenspiel für das eigene Unternehmen beschäftigen zu können, die Ärmel hochzukrempeln und mit klarem Blick in die Zukunft zu „schaffen“, werden wir in immer schnellerer Folge mit Buzzwords belästigt, die uns von der eigentlichen Arbeit abhalten..

Die manchmal treffen, manchmal sogar schmerzen, aber oft auch zu keinem Ende kommen, weil – ducken! – das nächste Brumm-Wort angeflogen kommt. Selbst die Seminarwelt kommt nicht mehr hinterher –  sondern organisiert Besuche im  Antiquariat der Moderne.

Ich merke gerade: Wir haben momentan (23.05.2016, 12:05) auch nicht mehr so viel Big Data als Buzz-Word. Ist sogar aus der Hype Curve von Gartner verschwunden. Weil BD bereits nutzbar ist – ohne dass es gemerkt wurde. Ach ja, dafür ist nun (Oktober 2017) was besseres erschienen: „Dark Data“. In einem Satz erklärt: Dark Data sind vielleicht nützliche Daten, von denen man nicht weiss, dass man die hat. Sozusagen das „ES“ der Daten.

Customer Experience (CX*) – das Schirmchen auf den Kundendaten

CX kommt mir als langjährig erfahrenem Marktforscher ein wenig wie die Schirmchen auf dem Eisbecher vor. Unter diesem bunten aufgespannten Papier fühlen sich Vanille, Kiwi und Stracciatella wohl. Man kann es nach Verspeisen des Eigentlichen auch mit nach Hause nehmen – aber  hat es wirklich Mehrwert? Oder bleibt es Eye Candy?

Gerade die betrieblichen Marktforscher fänden es gar nicht lustig, wenn nicht zumindest ein Teil ihrer Arbeit sich schon immer um das Thema CX = Customer Experience gekümmert hätte. Nur hiess das immer mal wieder anders.

Es gab Ende der 80er den Begriff des TQM, des Total Quality Management. Ziel des TQM ist eine umfassende Qualitätssicherung – mit einem Fokus auf der Kundenzufriedenheit (CSI) mit dieser Qualität von Produkten und Dienstleistungen. Der Kunde wurde zu einem oder  einer der QualitätsinspektorInnen. Die Studien dazu entwickelten Marktforscher.

Weitere Studien zeigten dann, dass die Kunden-Zufriedenheit (CSI) keinen kommerziellen Wert an sich für Unternehmen generiert. Nicht ein zufriedener Kunde, sondern der treue Kunde wurde das Ziel der Bemühungen, der Begriff und Index „Customer Loyalty“ (CLI)  wurde geprägt. Die Studien dazu entwickelten Marktforscher.

Nach der Erhebung und Kommunikation eines KPI kommt unweigerlich die Frage nach den Treibern für diese Zahl. Was genau macht Kunden zufrieden? Was genau macht Kunden loyal einem Unternehmen oder Produkt gegenüber? Die Basis zur Analyse dieser Daten entwickelten Marktforscher.

Puzzle the pieces: Die Elemente von TQM und CSI, CLI fusionierten bald zu einem umfassenden Angebot, die Daten nicht nur zur erheben, sondern auch zu managen. CEM wird etabliert. Die Marktforscher nutzen ihre Erfahrung aus TQM, CSI, CLI und entwickeln immer bessere Methoden, um das CEM zu befeuern.

Haben Sie heute schon Kundenerleben gehabt?

Das „Kundenerleben“ ermitteln bedeutet eigentlich „Management der Stammdaten“ von Kunde und Produkt: Kauf, Nutzung, Service, „Lebensende“ des Produkts, Pre-Sales und Neukauf – immer dann gibt es das „Kundenerleben“.

Nicht nur das: Das Kundenerleben findet auch unterschiedlichen Orten statt. Offline und Online, zu Hause und unterwegs und an der Arbeitsstelle. Kundenerleben ist also immer und überall!

Die Marktforscher freuen sich: Für CX / CEM ist es notwendig, dem Kunden auf vielen Kanälen zu begegnen. Für Marktforscher erprobte Praxis, Daten und Erkenntnisse bereit zu stellen.

Das diese allemal wichtiger sind als Meinungen wissen wir. Und können es hier nachlesen:

„If we have data, let’s look at data. If all we have are opinions, let’s go with mine.” – Jim Barksdale, ehemaliger Netscape CEO.

Das Scheppern verklingt in der Ferne. Wetten? Gleich kommt der nächste Cadillac um die Ecke. Schnell ein paar Dosen dran gebunden. Aufschrift kommt gleich …

______________________________

* Für Kenner der Automarke Citroën: Nicht gemeint ist der / die Nachfolgerin der DS.

]]>
https://databerata.de/schirmchen-auf-den-eisbechern-der-kundendaten/feed/ 0
Predictive Analytics? Ich sehe was, was Du nicht siehst! https://databerata.de/ich-sehe-was-was-du-nicht-siehst/ https://databerata.de/ich-sehe-was-was-du-nicht-siehst/#respond Thu, 15 Oct 2015 10:40:25 +0000 http://databerata.de/?p=1568 Ich sehe was, was Du nicht siehst? Predictive Analytics!

Von Hans-Werner Klein (erschienen am 15.10.2015 in: „Das ganz große Ding – Predictive Analytics / Big Data“ Marktforschung.de – Das Dossier)

Predictive Analytics von einem Marktforscher durchleuchten lassen, das hat schon was. „Predictive“ waren die meisten Produkt-Marktforschungen schon immer, gerade deshalb wurden sie schließlich gemacht: Unternehmen erstellen schließlich Geschäftspläne auf Basis von datenbasierten Prognosen.

Soziologische Analysen hatten auch zumeist die Idee, dass man Verhalten von Gruppen analysieren und vielleicht auch vorhersagen kann. Mit den größten Wert auf „Predictive Analytics“ legen politische Parteien – und schauen sich ganz genau an, wie welche Themen in der Bevölkerung zu einem Erfolg der Partei am Wahltag führen können. Vielleicht kann ich diesen Beitrag für das marktforschung.dossier mal anders angehen. Vielleicht aus der Ecke Literatur, Film, Kunst oder  literarisch-philosophisch?

Was ist der neue Aspekt in diesem Thema?

„Das Ende des Zufalls“ proklamiert Rudi Klausnitzer in seinem 2013 erschienenen gleichnamigen Werk [1]. Untertitel: „Wie Big Data uns und unser Leben vorhersehbar macht“. Wenn Big Data und Vorhersehung genannt werden, darf die Marktforschung nicht fehlen. Oder doch? Wir werden umsatteln müssen in Data Scientists, Data Journalists, Data Designer, oder Datatainer. Erhalten aber damit auch den Status den „most sexy Job“ unseres Jahrzehnts auszuüben. Deal?

Predictive Analytics wird aus drei großen Quellen gespeist, die auch die Auktionen der Vermarktung von Daten in Zukunft bestimmen werden:

•Zum ersten die Ausweitung des Marktes für solche Prognosen. Wir sind, ohne es zu ahnen, umzingelt von uns betreffenden Prognosen: TV-Gewohnheiten, Sahne zum Kuchen, Unfallprognosen, Fahrverhalten, Kreditwürdigkeit – sogar kriminelle Aktivitäten mit Wochentag und Uhrzeit in unserem Wohnviertel können vorhergesagt werden. Das alles betrifft uns direkt. Da ist kein Flyer, kein Banner oder ein Mailing zwischengeschaltet.

•Zum zweiten die Ausweitung des Marktes für Werkzeuge, um diese Prognosen erstellen zu können. Als ältere quantitative Marktforscher sind Ihnen SAS und  SPSS ein Begriff. Geballtes Fachwissen auf den Feldern Statistik und Empirie, Kenntnisse des Marktes, der Kunden und Auftraggeber lassen diese Tools zu Zauberkästen der Experten werden. Aber braucht man die wirklich noch? Ausweitung des Marktes bedeutet zurzeit häufig, Werkzeuge zu bauen, die auf dem iPad Ergebnisse visualisieren können ohne Kenntnisse der Statistik. Automatisierung und propagierte Einfachheit durch Deprofessionalisierung gaukeln Verständnis und Erklären können auch komplexer Sachverhalte vor.

•Zum dritten die Ausweitung des Marktes für Daten, um die Werkzeuge zu füttern, um diese Prognosen sicherer und individueller zu machen. Dass Daten der Rohstoff des 21. Jahrhunderts sind, ist inzwischen Techno-Folklore von Kaffeekränzchen. Aber wo kommen diese Daten so plötzlich her? Quellen sind alle unsere Aktionen, die mit unseren „Credentials“ wie Kreditkarte, bestellte Waren, Newsletter, aufgerufene Seiten, gebuchte Urlaubsreisen, Einsatz von Bonus-Karten „bezahlt“ werden. Oder auch vom Kaffeekränzchen, wenn Smartphones genutzt werden, die eine umfangreiche Sensorik an Bord haben. Es ist schon verflixt: Wir können immer mehr wissen, dank Google & Co. Und bezahlen mit unseren Daten an Google & Co. Und als Marktforscher lassen wir  uns von diesen Databrokern die Butter vom Brot klauen.

Predictive Analytics im Film

Ein Moment des Innehaltens: Hatte ich nicht auch eine literarisch-philosophische Deutung versprochen? Oder ist es eine zu „steile These“, dass technologische und Marktentwicklungen auch von Literatur und Kunst getrieben werden? Das 1996er Klapphandy von Motorola war ein Klon des Communicators aus Star Trek, stimmt’s? Und hieß dann auch noch werbewirksam StarTAC.

Das Thema „Predictive Analytics“ als „Precrime-Detection“ wurde uns 2002  in dem Film „Minority Report“ näher gebracht. Der Film basiert auf einer Erzählung des Autors Philip Kindred Dick aus 1956. Der Plot: In Washington des Jahres 2054, werden drei Frauen mit der Fähigkeit der Hellseherei, sogenannte Precogs, benutzt, um Verbrechen vorherzusehen. Die noch-nicht-Kriminellen können vor dem Verbrechen von den Precops verhaftet werden. In einen Dämmerzustand versetzt, können sie weder morden noch betrügen.  Philosophisch-moralisch ein harter Brocken. Auch technologisch nicht ganz einfach umzusetzen, wenn man auf  Menschen statt Maschinen als Quellen der Predictive Analytics setzen würde.

Aber inzwischen sind wir noch nicht im Jahr 2054 aber weiter als 1956 oder 2002. Vielleicht  haben Sie die eine oder andere Meldung zum Thema „Precops“ gesehen. Auch die Bayrische Polizei setzt solche Analyse- und Prognoseprogramme ein. Und meldete am 23. Juni 2015 [2]: „In den Prognosegebieten hatten wir weniger Wohnungseinbrüche und mehr Täterfestnahmen“. Rückgänge der Einbrüche von 17,5 bis 42 Prozent [3] führen zu der Prognose des Bayrischen Innenministers: „Deshalb werden wir Precobs oder eine vergleichbare Prognosesoftware dauerhaft für die Bayerische Polizei anschaffe“. Diese Beispiele zeigen die ganz neuen Möglichkeiten von individualisierter Prognostik auf.

Verraten und verkauft [4]

Wie sieht es mit dem Informationsgold aus, das unsere Branche generieren sollte? Wir Marktforscher sind die ersten gewesen, die Daten „monetarisiert“ haben. Der nächste logische Schritt einer Kommerzialisierung von Daten wird allerdings von anderen gegangen: Kommerzielle Anbieter haben Angebote im Portfolio, die wie Zukunftsvisionen klingen, aber schon unter dem Begriff „Demand Side Platform“ (DSP) genutzt werden.

Die von Google & Co. mit Informationen versorgte Branche der Vermarkter von Anzeigenplätzen  hat „Bietermodule“ entwickelt: In Echtzeit wird einem dreistufigen Verfahren zuerst der „Wert“ eines Kunden auf Grund seiner Surfhistorie (Suchanfragen, besuchte Seiten, online Käufe) ermittelt. Diese Kundenwert-Profile  werden dann im zweiten Schritt auf einer Plattform in Echtzeit interessierten Unternehmen angeboten und schließlich an den Meistbietenden versteigert.

Das alles entspricht dem Datenschutz, der Bieter erwirbt keine Informationen, sondern nur den direkten temporären Zugang zu einem potenziellen Kunden. Der Surfer, also Nutzer einer Website, bekommt von dem im Hintergrund laufenden Prozess nichts mit. Was er bemerken könnte, wäre, dass er andere Angebote als seine Freundin oder der Nachbar als Nutzer der Website bekommt. Diese haben ein unterschiedliches Profil auf derselben Website, haben einen anderen kommerziellen Wert oder bevorzugen andere Produkte. Das Erstellen der Profile und Ermitteln des Wertes passiert sozusagen in Echtzeit, während sich die Seite aufbaut und der Nutzer auf dieser Website noch nicht mal seinen ersten Click gemacht hat. Dazu wird die Surf- und Suchhistorie ausgewertet.

Hier wird der bedeutende Unterschied zur Marktforschung deutlich: Das über den potenziellen Kunden generierte Wissen steht zwar sofort verwertbar zur Verfügung, aber verfällt wieder unmittelbar. Es werden keine Modelle über Zielgruppen generiert, die erst mit Expertenwissen in Kommunikation umgesetzt werden müssen.

Und das Verhalten des Kunden wird mit jedem Schritt ausgewertet: Eine Rückkopplungsschleife verfeinert die Parameter der Kundenorientierung. Jeder weitere Click, jede „Conversion“ (Kauf, Nutzung von Services) optimiert die Auswahl von Interessenten und passender Kampagne „on the fly“. Das treibt den Preis für den Kunden auf der Bieterplattform in die Höhe. Steht ein Interessent unmittelbar vor einem Online-Kauf, ist der Preis am höchsten. Hier könnten immer noch (sehr teuer ersteigerte) Angebote des Wettbewerbs ihn weg locken.

Nebenbei – das ist nicht nur eine Bedrohung der Marktforschung, sondern auch der Werbewirtschaft. In einem Blogartikel beschreibt Dominik Grollmann 2014 dies mit der provokanten Überschrift „Kauf, Du Sau“ [5].

Mein Fazit

Während man die Berichte und Artikel über Precops und andere Ergebnisse prädiktiver Analyse als schlichtes Infotainment abtun könnte, ist unsere Profession bedroht. Denn theorielose Automaten generieren Wissen, das ad hoc genutzt und sogleich wieder vergessen wird. Diese Automaten werden verwendet, um zum Beispiel Absatz im Web zu optimieren. Prozesse im Web bestimmen auch zunehmend unser Verhalten offline – und so haben diese Automaten Einfluss in unsere Welt aus Stein und Mörtel.

Marktforschung dient oft auch der Lösung strategischer Fragestellungen: Predictive Analytics. Diese benötigen eine angemessene Wahl von Methoden und Menschen. Genauso fundamental und nicht ersetzbar sind auf das Erkenntnisinteresse des Auftraggebers kritisch zugeschnittene Analysen und deren Interpretation und Bewertungen. Bei allen Möglichkeiten einer Prozessoptimierung in der Datengewinnung – der wichtigste Benefit der Marktforschung macht die Beratung aus, die Fähigkeit, einen Auftraggeber im Dialog nahtlos bei der Gewinnung und Nutzung der Ergebnisse zu begleiten.

Diese Beratung sollte extern durchgeführt werden – in Instituten, die nicht als Anhängsel von Marketingmaschinen wie Google & Co. funktionieren. So entgeht man der Gefahr, von Google & Co. als reinen Datenlieferanten und Vertriebsautomaten überrollt zu werden und sichert sich die Chance, diese Daten im Interesse des Auftraggebers angemessen zu nutzen. Und eröffnet sowohl den Marktforschern wie den Instituten eine arbeitsreiche und erfolgversprechende Zukunft.

Ergänzungen

WATSON übernehmen Sie (IBM Watson Analytics)?
IBM hat mit WATSON schon seit längerem ein mächtiges Analysetool im Angebot. In dem gestern erschienenen Artikel auf Computerbild wird „Watson Analytics“ vorgestellt, eine Gruppe von Tools die „Predictive Analytics“ mit Cognitive Computing (aka KI oder AI) ermöglichen. Die Use Cases im Artikel ergänzen meinen Beitrag: Wie wird das Wetter? Diese Frage beantwortet dann auch die Frage: Wie wird das Geschäft?  Quelle: http://www.computerwoche.de/a/watson-uebernehmen-sie-heisst-es-bei-ibm,3217241

OK, „Watson übernehmen Sie!“ ist wirklich die Lösung? Technologie löst Probleme? In meinem Artikel aus Sicht eines „DataBeratas“ und Marktforschers sehe ich das etwas anders. Dazu passt auch eine Studie von Alexander Linden (Gartner), die gestern 14.10.2015 veröffentlicht wurde: „… Most pitfalls will not result in an obvious technical or analytic failure. Rather they will result in a failure to deliver business value.“
Das ist auch unsere Erfahrung in „Large or Complex Data“ Projekten. Big Data Analytics schafft es über immer besser werdende Tools Datenschätze zu heben. Aber was nützt es, wenn Unternehmen vor einer Suppe sitzen, und Watson nichts als Gabeln ausgräbt? Auch hier hilft wohlmöglich das Know-How der Marktforscher-Zunft.

Quelle: http://www.information-management.com/news/big-data-analytics/big-data-analytics-raises-ethical-risks-10027583-1.html

Schluß mit „sexy“?

Das MIT meldet am 16.10.2015 große Erfolge mit seiner „Data Science Machine“: Gerade noch wurde der Data Scientist zum „sexiest Job“ in diesem Jahrzehnt gekürt (siehe obenstehenden Artikel) – erfolgt jetzt die Demütigung?

MIT: „System that replaces human intuition with algorithms outperforms 615 of 906 human teams.“ „http://news.mit.edu/2015/automating-big-data-analysis-1016“

Lesenswerter Artikel – zum ersten Mal, dass ich versucht bin, zu solchen Maschinen „Hallo Kollege“ zu sagen. Und mich sofort an „Die Physiker“ von Dürrenmatt zu erinnern. Wenn Maschinen richtig gut sind und uns „outperformen“, kann das zum Wohle aller oder vieler oder weniger eingesetzt werden, solche Maschinen können „Erntehelfer“ oder Waffen sein.

Fußnoten

[1] Rudi Klausnitzer „Das Ende des Zufalls: Wie Big Data uns und unser Leben vorhersagbar macht“, Ecowin März 2015

[2] Quelle abgerufen 1.10.15, 12:49 www.stmi.bayern.de/med/pressemitteilungen/pressearchiv/2015/204/index.php

[3] Anmerkung HWK: Unklare Datenlage – u.a. keine Angaben zum Vergleichszeitraum in den Dokumenten zu finden

[4] Dieser Abschnitt ist ein gekürzter und überarbeiteter Text aus „Zukunft der Marktforschung“ Springer Gabler 2015

[5] www.ibusiness.de/marketing/db/499304grollmann.html (abgerufen am 24.08.2014, Hinweis: Zugriff nur nach Anmeldung)

]]> https://databerata.de/ich-sehe-was-was-du-nicht-siehst/feed/ 0 Alien oder Bro – da kommt was auf Sie zu! https://databerata.de/alien-oder-bro-da-kommt-was-auf-sie-zu/ https://databerata.de/alien-oder-bro-da-kommt-was-auf-sie-zu/#respond Wed, 06 May 2015 08:38:21 +0000 http://databerata.de/?p=1439 cropped-DSCF5257.jpgHat Ihr Auto einen Kosenamen? Reden Sie mit ihm während der Fahrt?  Schauen Sie es manchmal einfach nur freundlich an? Warten Sie ab, was jetzt auf Sie zu kommt.

Vernetztes Fahren, Connected Car, Mobile Informationssysteme, CarPlay, MirrorLink, NorthStar, E-Call, Maut, Infotainment. Die Digitalisierung von Fahrzeugen trägt unterschiedliche Namen – und bietet unterschiedliche Technik an.

Manche Technik wird Gemeingut sein.  Der E-Call wird ab 2018 verpflichtend in neu konzipierte Fahrzeuge eingebaut. Und selbst im General-Anzeiger Bonn wird dargestellt, was es mit dem E-Call* auf sich hat, was dieser für Fahrer und Insassen im Notfall tun wird.

Vergessen wird dabei oft,  welche Möglichkeiten zusammen mit dem E-Call durch die Tür kommen könnten. Und diese Möglichkeiten tragen emotionale Züge.

Wie ist Ihr Auto in Zukunft? Der Bro an Bord? Oder der Daten-Alien?

Mit dem E-Call als Kommunikations-Gerät mit Datenanschluss und  Ortung (GPS) passiert tatsächlich etwas Neues:  Fahrzeuge werden ab Werk mit einer „schnurlosen Datensteckdose“ ausgestattet. Das soll neu sein? Haben nicht viele Autofahrer immer ihr Smartphone dabei? Ja – viele Fahrerinnen und Fahrer sind  jetzt schon über ihr Smartphone mit der Welt verbunden. Aber: Smartphones sind persönliche, vertrauliche Gegenstände, sowas wie Tech-Bros oder Tech-Chicks. Die schlafen nicht im Auto sondern in der Hosentasche oder Handtasche und sind nur Beifahrer, nicht Teil des Fahrzeuges.

Die „Datensteckdose Auto“ ist etwas anderes. Bereitgestellte Technik und die Psychologie  spielen dabei eine große Rolle dabei, wie anders das Auto dabei wird.

Mögliche Szenarien, die sich individuell und nutzungsabhängig entwickeln können:

  • Auto als Freund und Beschützer für den Notfall – oder Pannenfall
  •  Auto als Abrechungsstelle für Maut oder Verkehrsverstöße
  • Auto als Petze, wo man war und wie man dahin kommt
  • Auto als Bro oder Chick, das einem Tipps gibt
  • Auto mit Gedächtnis über Reparaturen, Updates, Austausch
  • Auto als Mobilitäts-App, immer auf dem neuesten Firmwarestand

Es wäre  interessant, das emotionale Image des Autos über die Zeit vor und nach E-Call zu verfolgen – in Zusammenhang mit der Psychologie des Nutzers, seinen emotionalen Bildern von Autos und Technologie, die Staat, Automobilhersteller und der Nutzer mit einbringen.

Denn die Emotionalisierung von Autos findet seit jeher statt. Es wird eine interessante Interaktion von Herstellern, Käufern, Fahrern, Öffentlichkeit, vielleicht sogar Medien stattfinden: Die entscheidet, ob wir einen niedlichen Herbie, ein Highttech K.I.T.T. oder einen uns ausspähenden Alien vor der Haustür haben.

Sicher ist: Auto und Technik bleiben wie jeher emotional. Nicht für Sie?  Dann lesen Sie achtsam die folgenden 9 Zeilen – und stellen Sie sich die Bilder dazu vor:

  • DSCF7400Citroën DS
  • Ente
  • Käfer
  • Mini
  • 911
  • R4
  • Defender
  • Jeep
  • Fiat 500

Die Erinnerung an Fahrzeuge von Kindheit und Jugend, das erste eigene Gebrauchte, Familienausflüge, erste Liebe, das alles  wird auch zur Emotionalisierung aktueller Fahrzeuge genutzt. (Käfer, Mini, Fiat 500). Die echte Digitalisierung und Kommunikation könnte zu einer zusätzlichen Ebene der Emotionen und Verbundenheit führen. Also – Alien oder Bro – was kommt Ihrer Meinung auf Sie zu?

_Zum_Thema_____________________

E-Call ist ein ab 2018 verpflichtendes europaweites Notrufsystem in PKW und kleinen Nutzfahrzeugen. Es  „drückt“ für Sie den „roten Knopf“ im Falle eines Unfalls. Gleichzeitig mit dem Auslösen des Airbags. Wenn der Knopf gedrückt wird, wird europaweit der SOS Ruf an die 112 abgesetzt. Eine entsprechende Notrufstelle empfängt diesen Anruf. Parallel versucht der E-Call auch u.a. ihren Standort mitzuteilen – damit die Rettung weiß, wohin. Ein digitaler „Minimal-Datensatz“ enthält weitere Daten. Die Infrastruktur soll nach Beschluss der EU bereits ab Oktober 2017 kostenlos zur Verfügung stehen.  Mehr dazu auf E-call bei wikipedia.

]]>
https://databerata.de/alien-oder-bro-da-kommt-was-auf-sie-zu/feed/ 0
Anleitung: So verlieren Sie jetzt Kunden noch schneller https://databerata.de/kunden-schneller-verlieren-keine-liebe-anerkennung-aufmerksamkeit/ https://databerata.de/kunden-schneller-verlieren-keine-liebe-anerkennung-aufmerksamkeit/#respond Thu, 12 Mar 2015 11:00:42 +0000 http://databerata.de/?p=1409 Der Weg in’s Unglück: Keine Liebe, keine Anerkennung, nur Aufmerksamkeit geben. 

Lieben Sie Ihre Kunden? Also kennen sie ihn/sie genau, die Vorlieben, Kommunikationswege, Verhalten und, in welcher „Sprache der Liebe“ er oder sie angesprochen werden möchte?

Sprache der Liebe?

Gary Chapman* hat für die Paartherapie ein einfaches und wirksames Modell entwickelt – auch zum selber ausprobieren im Privaten geeignet. Sein Bestseller:  „Die fünf Sprachen der Liebe“ führt folgende Wege zum Herzen auf – hier mal mit Beispielen aus dem Alltag B2B und B2C ergänzt:

  • Lob und Anerkennung (Lautet Ihre Devise „Herzlichen Dank für Ihren Kauf“ oder „hahaa – wieder ein Dummer reingefallen“?)
  • Zeit zu zweit (Welche Kunden mögen kein 1.000 Leute Event sondern lieber eine  1:1 Betreuung bei einem Kamingespräch?)
  • Geschenke, die von Herzen kommen (nicht teuer, aber zielgruppengerecht achtsam gewählte Goodies & Incentives)
  • Hilfsbereitschaft (… und echte Serviceorientierung: in der Not zeigen sich Freunde)
  • Die fünfte Sprache „Zärtlichkeit“ sehe ich im geschäftlichen Umfeld nicht als Kanal.

Liebe – eine gewaltige Sache, nicht wahr?

Wenn es denn keine Liebe für Ihre Kunden gibt: Geben Sie Ihren Kunden denn Anerkennung? Anerkennung kann z.B. bedeuten:
Sie bieten Produkte an, die nachhaltig und fair produziert und zu einem angemessenen Preis angeboten werden. Ihre Kunden können mit gerechten Gewährleistungs- und Kulanzregelungen rechnen, wenn was schief geht. Oder: Kunden nutzen gerne ihre Produkte, weil sie dadurch auch selbst Anerkennung bekommen.

OK – Liebe ist nicht – auch keine Anerkennung für die Kunden – was bleibt?

Wer weder Liebe noch Anerkennung bekommt, lechzt nach Aufmerksamkeit. Kennen sie vielleicht von den krawalligen Nachbarskindern. Aufmerksamkeit ist wohlfeil, für negative und verletzende Aktionen bekommt man sogar mehr Aufmerksamkeit, als für neutrale Aktivitäten. Für einen Shitstorm also  eher als für einen positiven  Beitrag im Social Web.

Und wir wissen – das Web ist voll von „nutzergeneriertem Content“ – ein großer Teil davon ist „Social Media“. Dieser  wertvolle Rohstoff „User Content“ muss aufbereitet und zu wertvollen Informationen verdichtet werden.

Nutzen Sie die Marktforscher-Expertise –  und deren vorhandene Werkzeuge. Qualitative und quantitative Marktforschung ist im gesamten Lebenszyklus von Produkten und Dienstleistungen der wirksamste Kanal zum Kunden.

Die vorletzte „Grosse Welle“ hat gar den Kunden als Controller im Bereich „Total Quality Management“ eingesetzt. Nun ist es laut geworden im Controlling: Kunden sind inzwischen gewohnt, zu Wort zu kommen. Ungefragt. Sie haben das Gefühl, gesehen und gehört werden zu müssen. Sie brauchen Aufmerksamkeit. Nicht nur von Unternehmen, sondern auch von anderen Kunden.

Diese  Kunden berichten über ihre User Experience – verteilen fünf Sterne oder schreiben Produkte kaputt. Das kennen wir – und können es auch kritisch betrachten. Marktforscher finden aufmerksam und konzentriert im lauten Gewusel heraus, welche Sprache die Kunden sprechen und hören wollen. Auf Handelsplattformen wie Amazon, Bewertungsportalen wie Ciao, oder als „Stream of opinion“ in Twitter und Co. liegen Kundenmeinungen vor. In produktspezifischen Foren werden Erfahrungen ausgetauscht – Nutzer helfen Nutzern. Auf Facebook betreiben viele Unternehmen selbst eine Art Kundenportal.

Ersetzen diese Kundenmeinungen in Echtzeit die Analyse der Kundenloyalität? Meiner Meinung nach nicht. Aber sie ergänzen unsere Analysen mit einer Unzahl an Informationen aus Nutzersicht.  Liefern so wertvolle Inhalte. Wie findet man das raus? Es gibt Werkzeuge, um diese unstrukturierte Texte zu analysieren, und damit unseren Erfahrungen und Kenntnissen zeitnah nutzen. Die neuesten Tools sind sehr einfach zu bedienen, setzen keinerlei „Anlernen“ des Tools voraus und funktionieren Sprachen übergreifend.

Also ran!  Informationen strukturieren, bündeln, bewerten, in einen Kontext stellen. Und vielleicht nebenbei eine 5-Sterne Mafia entlarven und gekaufte Facebook Freunde – des Wettbewerbs – überführen.

Dies ist ein Aufruf, Kundenmeinungen auszuwerten, auch wenn wir sie diese Kunden nicht selbst gefragt haben.

Und das ist mehr als Aufmerksamkeit – das ist schon Anerkennung, und ein bisschen – Liebe dem Kunden gegenüber. Sie wissen ja inzwischen, weshalb.

* Chapman, Gary: Die fünf Sprachen der Liebe; ISBN 3-86122-621-9

 

]]>
https://databerata.de/kunden-schneller-verlieren-keine-liebe-anerkennung-aufmerksamkeit/feed/ 0
Verbrechen gegen die Menschlichkeit? https://databerata.de/verbrechen-gegen-die-menschlichkeit/ https://databerata.de/verbrechen-gegen-die-menschlichkeit/#respond Wed, 07 Jan 2015 16:51:25 +0000 http://databerata.de/?p=1333 Gute Vorsätze umsetzen, Gute Umsätze generieren. Sehr Lesenswert.

Nehmen Sie ihr Web-Business wirklich ernst? Machen Sie etwas ausser Traffik bei Google kaufen? Was – Sie kaufen sogar bei „Traffik-Generatoren„? Puh, und investieren auch in Affiliate. Aha. Sind Sie auch sonst mutig? Ich meine, haben Sie echte Zahlen, was das alles bringt? Ob Sie nicht sogar vielleicht übervorteilt werden?

Was ich meine? Lesen Sie den Artikel von Avinash Kaushik (Leuchtturm und Macher im Bereich Webanalyse). Oder nehmen Sie direkt Kontakt zu mir auf. Schliesslich habe ich über 10 Jahre erfolgreich WebAnalyse bei der Telekom eingeführt und betrieben. Und weiss was Sie wissen sollten. Ich erstelle gerne praktikabel und effizient Ihre WebAnalyse inkl. Betrugsabwehr. Reden wir miteinander.

Hier der Link zu meinem Angebot 2015.

Hier der Link zu Avinash Kaushiks Artikel, von diesem stammt auch der etwas „laute“ Titel: „Digital Marketing Analysis Crimes against Humanity“ http://www.kaushik.net/avinash/digital-marketing-analytics-crimes-against-humanity/

]]>
https://databerata.de/verbrechen-gegen-die-menschlichkeit/feed/ 0
Mitherausgeber: „Zukunft der Marktforschung“. Buch https://databerata.de/zukunft-der-marktforschung-ein-buch/ https://databerata.de/zukunft-der-marktforschung-ein-buch/#respond Sat, 06 Dec 2014 15:15:03 +0000 http://databerata.de/?p=1187 „Zukunft der Marktforschung“ erschienen und schon Bestseller 

Blog-Artikel sind Momentaufnahmen – mit der selben Sorgfalt und Liebe zum Detail erstellt wie Bücher.  Unser Buch zur „Zukunft der Marktforschung“ ist ein Sammelwerk, der Kommentar vieler kenntnisreicher Menschen zum Thema „Welche Rolle wird die Marktforschung künftig für Unternehmen noch spielen?“.

Bücher werden höchstens neu aufgelegt und dabei „verändert“. Blogs werden weitergeführt und sind – wenn es optimal wird – lebendig.

Daher planen wir, das Buch im Web weiterzuführen. Der Diskussion über die Zukunft der Marktforschung eine Site zu geben. Über das „wo“ führen wir gerade Gespräche, das „wie“ ist uns auch schon klar: lebhaft und kenntnisreich.

Zum Buch:

Inhalt

Welche Rolle wird die Marktforschung künftig für Unternehmen noch spielen?

Muss die Marktfor978-3-658-05399-4_Cover_1.inddschungsbranche ihren Stellenwert zwischen Big Data, Social Media, kurzlebigen Data-Hypes und realem Geschäft immer neu definieren?

Sind „Data-Experten“ die Marktforscher der Zukunft?

Wie wird „klassische Marktforschung“ in zehn Jahren aussehen?

Renommierte Experten aus Marktforschungsinstituten, Marketing- und Kommunikationsagenturen, Wissenschaftseinrichtungen und der Unternehmenspraxis zeigen auf, was die Branche künftig beachten muss, um weiterhin erfolgreich zu sein: von der Nachwuchsausbildung über die Entwicklung neuer Methodiken bis hin zur Nutzung von hoch dynamischen Forschungsfeldern.

Die Herausgeber

Bernhard Keller, Markt- und Vertriebsforscher, ist Director bei Maritz Research.

Hans-Werner Klein, Wissensvermittler zwischen Menschen und Daten, ist CIO bei Twenty54Labs.

Prof. Dr. Stefan Tuschl ist Professor für Quantitative Methoden an der Hochschule für Angewandte Wissenschaften (HAW) Hamburg.

 Der Link zum Bestellen

 

]]>
https://databerata.de/zukunft-der-marktforschung-ein-buch/feed/ 0
Zukunft ist, wo der Ball sein wird, nicht wo er ist* https://databerata.de/bewegt-euch-dahin-wo-der-ball-sein-wird-nicht-wo-er-ist/ https://databerata.de/bewegt-euch-dahin-wo-der-ball-sein-wird-nicht-wo-er-ist/#respond Fri, 24 Oct 2014 12:51:04 +0000 http://databerata.de/?p=1070 Freitag 17.10.2014. Kamer van Oranje, Oosterbeek (NL)

Das Treffen von Oosterbeek (NL) hat Freunde, Kollegen und Partner von Twenty54Labs zusammengebracht um über ein spannendes Thema über das  „Bedürfnis nach Wissen“  zu sprechen. Informatica, Cortex, Consetto und Twenty54Labs stellen sich der Frage, welche Bedürfnisse aktuell und zukünftig den Datenmarkt treiben werden.

DSCF7828
Datenquelle

In der verzaubernden Umgebung einer alten Orangerie in Oosterbeek (dort wurden auch die Photographien gemacht)  lassen wir leerzitierte Begriffe wie „Large Scale Data, Complex Data, Data Migration, Data Matching, Interfaces, Multi-Modale Datenbanken, Bi-Temporale Datenspeicherung, NoSQL, DataMining, Semantic Analytics, Natural Language Technology“ einfach mal links liegen und beschäftigen uns mit dem was dies bedeutet, und wie es nützlich gemacht werden kann.

Was bedeuten die Begriffe aus der Welt von „Big Data“ für die notwendige Wissensarbeit in Unternehmen, der Forschung, Verwaltung, Politik?   Welche Tools können wir jetzt schon bereit stellen, um Fragen für und in der Zukunft etwas sicherer zu beantworten?

Wandel der wichtigsten Elemente der Wirtschaft: Noch immer Menschen, Kapital, Prozesse?

Nein, immer stärker werden Prozesse als wichtiger Faktor durch Daten ersetzt. Prozesse sind kopierbar geworden. Daten sind richtig behandelt „unique capital“.

Was benötigen Daten, um richtig behandelt zu werden und in einem „Verhüttungsprozess“ von Erz zu Metall zu werden?

DSCF7805
Der Denker

 

 

 

 

 

 

 

 

 

 

 

Sensoren, IT basierte Prozesse, Produktionsinformationen, Kundeninformationen, Umgebungswerte für Prozesse liefern große Mengen an Daten, die in Relation gesetzt werden, mit einander verknüpft werden.

Was ist der Knackpunkt?

Unser Gehirn filtert sekündlich relevante Informationen aus einem Strom von etwa einem GigaByte Daten. In kritischen Situationen (Geisterfahrer auf meiner Spur in 200m Entfernung) werden nur wenige Byte genutzt. Wissensarbeit muss ebenfalls relevantes von nicht relevantem unterscheiden können. Aus Daten Informationen machen, um nicht in einem „information overflow“ zu ertrinken. Wenn man Durst hat, setzt man sich nicht in eine gefüllte Badewanne, sondern trinkt die gewünschte Portion.

Was wird benötigt?

  • Textarbeiten werden die Grundlage der Ernte (Natural Language Processing)   Etwa 70% der relevanten Daten eines Unternehmens liegen als Text vor. E-Mails, Handbücher, Unternehmensdarstellungen, Prozessbeschreibungen, Social Media Quellen, CRM Informationen, Produkt-Dokumentationen, Gesetzestexte liegen oftmals brach. Werden nicht ausgewertet – noch schlimmer: Werden nicht verknüpft. Nun sind aber Gesetzestexte oder juristisch relevante Verordnungen relevant für die Produktion und Wartung von Produkten. Rückmeldungen aus FaceBook und Co, den Hotlines und Emails machen auf Produktschwächen aufmerksam, die die Produktion wissen sollte. Oder sogar die Juristen eines Unternehmens interessieren.Ein Bestandteil zukunftssicherer Wissensarbeit ist der Umgang mit Texten. Das klappt am besten durch ein Zusammenarbeiten von inhaltssicheren Experten und maschinellen Prozessen, um große Datenmengen qualitativ hochwertig bearbeiten zu können. Die Verarbeitung von Texten hat in den letzten drei Jahren durch ausgefuchste Algorithmen der „Natural Language Technology“ mächtige Verbündete bekommen. Dabei sind keine monatelangen Lernprozesse für die Ziel-Sprachen notwendig. Vom Start weg verstehen Statistische Textanalysen jede Sprache (bis auf asiatische Sprachen) Consetto UG aus Darmstadt versteht die Kunst der Statistischen Textanalyse aufs Feinste.

 

  • Speicherung wird intelligent sein (performante Datenbanken für große und komplexe Daten)
    Nur sinnvoll verknüpfte Daten können für Systeme (Design, Produktion, Vertrieb, Wartung, End-of-Life) den notwendigen Input geben. „Vitamin B“ ist der Wachstumsfaktor für die intelligente Nutzung von Daten überhaupt. „B“ = Beziehungswissen der Daten untereinander stellt für herkömmliche Datenbanken  bei großen und komplexen Datenmengen ein Schreckgespenst dar. „Süßes oder Saures?“ – die Frage stellt sich nicht bei Datenbanken mit Speicherungs- und Verknüpfungsprozessen, die unserem Gehirn sehr ähnlich sind.Ist man in der Lage, große Datenmengen systemisch verknüpft zu speichern und zu verwenden, macht auch das Problem der Komplexität keine Arbeit mehr, sondern Freude. Freude an phantasievollen, kreativen Arbeiten mit Daten. Querdenken statt „DataCubes“, konfigurieren statt Anstoßen von IT Change Requests sind dann Realität. Die Cortex AG aus Isernhagen bei Hannover stellte dies sehr deutlich dar.

 

  • Daten aus unterschiedlichen Quellen werden zu einem größeren Ganzen verbunden (Wegebau und Logistik)
    Jahrzehnte über werden bereits Daten in Unternehmen, der Verwaltung und Wissenschaft gesammelt. Eine große Anzahl von Programmen, Datenbanken und Systemen wurde installiert und dümpelt im Sinne einer Verknüpfung vor einsamen Inseln vor sich hin. Erst Schifffahrtslinien und Hafenbau können (übertragen) diese Inseln mit einander verbinden. Tools werden benötigt, um Daten auszulesen, zu transportieren in andere Systeme, diese zu bearbeiten und als Informationen weiter zu geben. Informatica gehört seit dem Anfang der Datenverarbeitung zu den großen großen und leistungsstarken Verknüpfern von Datenquellen und -senken.

 

  • Integratoren verbinden Bedürfnisse mit Technologien (Manufakturen für Datenanbau, -ernte und Nutzung)
    Querdenken und Verknüpfen von Datenmodellen, Prozessen und Ingenieurskunst der Datentechnik sind gefragt, wenn die Zukunft bedient werden soll. Die Integration von Prozessen und Daten lässt die richtigen Fanggebiete für die Daten erkennen. Durch multi-purpose-Geräte wie das iPad wird die Unterscheidung zwischen Hard- und Software überflüssig. Daten können mobil „on the fly“ erfasst werden oder aus Sammlern remote ausgelesen werden. Und auch die Nutzung wird mobiler: Informationen um Entscheidungen zu treffen werden in Echtzeit vor Ort benötigt – und können vor Ort remote aktualisiert werden. Das erleichtert u.a die Wartung von Maschinen und medizinischen Geräten. Die Schritte der Integration umfassen „going me“ (Individualisierung aus Datenmassen), „going mobile“ (Informationen vor Ort) „going realtime“ (Daten sind wirklich aktuell).

Das Treffen von Oosterbeek wird eine Institution werden. Zukunft wird gemacht, nicht erwartet. 

DSCF7813
Platz für Gedanken

 

 

 

 

 

 

 

 

 

 

 

*Im Original heisst es: „I skate to where the puck is going to be, not where it has been.“ (Der Eishockeyspieler Wayne Gretzky)

]]>
https://databerata.de/bewegt-euch-dahin-wo-der-ball-sein-wird-nicht-wo-er-ist/feed/ 0
Lara gesteht. Urmel war bezahlt. DataKrimi II https://databerata.de/lara-gesteht-urmel-war-bezahlt-datakrimi-ii/ https://databerata.de/lara-gesteht-urmel-war-bezahlt-datakrimi-ii/#respond Wed, 10 Sep 2014 15:39:21 +0000 http://databerata.de/?p=1035 Was bisher geschah: Lara, eine Schauspielerin aus Lübeck hat ihr erstes Engagement in ihrer Heimatstadt. Eine freie Bühne hat ihr die Hauptrolle in einem Krimi angeboten.

Statt eines Textbuches findet sie einen 3-seitiges Papier, in der sie als Lara die Rolle in einem verwirrenden Krimifragment spielt, in der Post. Lara wird im Anschreiben gebeten, das Drehbuch weiterzuschreiben. Sie bittet einen befreundeten Datenspezialisten, die Geschichte zu entwirren. Das Textbuch wird als „bereinigtes Fragment“ im Blog des DataBerata veröffentlicht.

Eine eher unübliche Voranalyse einer Datenanalysen beginnt. Wenn Daten bereits vorliegen, sollte „Data-Cleansing“ – also das Reinigen der Daten eine gute Idee sein, um mit wenig Beifang in die Arbeit zu gehen. Dazu werden gebraucht: Faktenrecherche und Tools wie das TextMining (also semantische Analysen).

Was sind die Fakten?DSCF7306

Zeit?
Friedensdemo: Die Friedensdemonstration hat am Holstentor am 11.8.von 11-14 Uhr stattgefunden.
Wetterbedingungen: Es gab ein Unwetter mit Nacht am Tag am 11.8. gegen 15:30
Datum und Uhrzeit, an dem das Script spielt, lassen sich genau nachvollziehen.

Orte?
Die angegebenen Orte sind real – tatsächlich findet man die angegebenen Plätze:
Das Theaterpuppen-Museum gibt es, an einer Ecke baumelt ein Drachen an einer Kette.
An dem Museum führt eine Einbahnstraße entlang, die gepflastert ist.
Auch Details sind stimmig: Auf dem Weg vom Holstentor zum Museum sind Schuhläden, die wie immer einen rechten Schuh nach draußen stellen, zum schnellen Anprobieren.
Das Schwimmbad an der Waknitz ist existent. Seit 1922 oder länger.

Ereignisse?
Todesfall an dem fraglichen Tag: Recherche bei den Einsatzkräften ergibt, es gab keinen Einsatz von Polizei oder Rettung in der Nähe des Museums
Es wurde kein Bestatter beauftragt.
Bisher wurde keine Leiche, auf die die Beschreibung zutrifft, im Wasser oder auf Land gefunden.
Der Drache hängt (immer noch / wieder) an seinem Platz. Die Frage nach einem „Fall“ wurde nervös mit „nein, nein!“ beantwortet. Beschädigungen des Drachens sind auch mit Teleobjektiv nicht auszumachen).

Was macht Lara daraus?

Ein Drehbuch eines Lübeck Krimis – demnächst in der Freien Bühne zu sehen. Sie hat den Drachen dafür engagiert, oder besser: eine Kopie. Für Urmel musste sie zahlen!

Was hat das mit DataBeratung zu tun?

Eine Menge – oft sind Aufträge oder Ausschreibungen wie ein DataKrimi verschlüsselt. Fakten müssen geprüft werden, Zusammenhänge entschlüsselt, Hintergründe recherchiert werden. Daten sollten erst einmal geprüft und bereinigt werden, damit man „an die Schätze kommt“ und nicht von Verpackung und Merkwürdigkeiten abgelenkt wird. Data Cleansing entwickelt sich immer mehr zu einer unabdingbaren Voraussetzung, bevor Complex & Large Scale Data (unzureichend Big Data genannt) analysiert werden können.

Dazu gehört neben neuester Technologie (Semantik, Multivariate Verfahren – die ein DataBerata nutzen sollte) auch Expertenwissen. Also das Know How der Auftraggeber, die Kenntnis in den Fachbereichen.

Gibt’s noch einen DataKrimi?

Ja – ich freue mich auf meinen DataKrimi aus Würzburg. Diesmal helfen Zahlen einen besonders merkwürdigen Fall aufzuklären.DSCF7516

]]>
https://databerata.de/lara-gesteht-urmel-war-bezahlt-datakrimi-ii/feed/ 0
Zimmer frei: Marktforscher in „Wohngemeinschaft“ https://databerata.de/zimmer-frei-marktforscher-in-wohngemeinschaft/ https://databerata.de/zimmer-frei-marktforscher-in-wohngemeinschaft/#respond Wed, 07 May 2014 10:34:13 +0000 http://databerata.de/?p=899  

Die Research Plus bietet ein  interessantes Format – drei bis vier Impulsvorträge in rascher Folge, 15-20 Minuten jeweils. Unser Veranstaltungsort: Das Theater der „Wohngemeinschaft“, Köln, Richard-Wagner-Strasse, die Keimzelle einer sich ausbreitenden Bewegung. Gestern habe ich es zum ersten Male erlebt und auch ausprobiert.

15 Minuten sind gerade lang genug, um was erzählen zu können, aber auch kurz genug, um den Wunsch nach mehr zu wecken. Und das findet dann an der Theke oder im Gastraum der „Wohngemeinschaft“ statt. Wirklich tolle Location.

Die Themen am 6. Mai 2014

Wohnen und Leben im Jahr 2030 – wie kann man solch eine Vision bauen, ohne die Gegenwart einfach frisch angestrichen in die Zukunft zu projizieren? Dr. Tanja Pferdekämper (RWE Effizienz, Dortmund) hat interessante und gangbare Wege aufgezeigt. Stichwort: Unsere Autos sind eigentlich eine Vorwegnahme unserer Wohnzimmer der Zukunft. Elektronische Helferlein, Assistenzsysteme, Klimatisierung, Entertainment, Infotainment, Energieeffizienz. Ich freue mich auf die Zukunft, immer! Hier geht es zum Zukunftshaus in Bottrop (Video).

Facebook-Sucht: Gibt es die und was könnten Gründe sein? Prof. Dr. Christian Bosau zeigte mit einer empirischen Studie die psychologischen Abgründe einer Abhängigkeit von Social Media auf. FoMO ist es – The Fear of Missing Out – die Furcht, etwas zu verpassen, das die Peer-Group schreibt, postet, unternimmt, für richtig oder falsch bekundet. Soziale Kontrolle 3.0. Global Village. Gruppenzwang featured by Facebook. Sollte man drüber nachdenken! Nachgucken kann man hier.

Tonnenweise Meinungsäusserungen zu Produkten und Firmen im Web. Was kann Mafo damit machen? Zusammen mit dem Startup Consetto aus Darmstadt brachten wir einen kleinen Usecase auf die Bühne, eine Auswertung des Facebook-Accounts von FRoSTA. Ins Detail kann man bei 15 Minuten nicht gehen – aber aufzeigen, wie man mit Hilfe semantischer Werkzeuge automatisiert Meinungsäußerungen klassifizieren, auszählen, in Zusammenhänge bringen kann. Und dabei interessante Einblicke in die Dynamik von Social Media erhält. Semantische Analysen machen es möglich, schnell und effizient große unstrukturierte (sprachliche) Datenmengen zu analysieren.

Hat Spass gemacht – Danke an die Veranstalter. Ich komme wieder.

Meinungsvielfalt ist Trumpf: Hier der Artikel zur Veranstaltung auf der marktforschung.de.

]]>
https://databerata.de/zimmer-frei-marktforscher-in-wohngemeinschaft/feed/ 0
Wir müssen reden … https://databerata.de/wir-muessen-reden/ https://databerata.de/wir-muessen-reden/#respond Fri, 11 Apr 2014 14:31:21 +0000 http://databerata.de/?p=845 Wieder Zufallsfunde – Querdenken beim Brötchen holen. Unser Big Data Prozessor zwischen den Ohren versteht Zusammenhänge – und Spass. Zum Beispiel, wenn „Dinge“ plötzlich mit einander kommunizieren wollen.

Da braucht es kein „Internet of Things“, nur Augen, Hirn und Kamera.

Der Rheinländer vertraut dem Hermes Boten. In bestem Bönnsch.

IschGlaube

Hermes Bote: Versprochen. Hier versenden Sie einfach und sicher.
Jürgen Hausmann: Isch glaub‘ et Disch!

Auch die Musiker scheinen zu kommunizieren – oder die Plakatkleber schaffen Zusammenhänge und lachen sich einen …

Roger Cicero und Peter Kraus im Dialog über die Zukunft …

ZumSchluss

Roger Cicero: Was immer auch kommt
Peter Kraus: Das Beste kommt zum Schluss

Schönen Tag noch

]]>
https://databerata.de/wir-muessen-reden/feed/ 0
O.M.G. – wir haben Mr. X getötet! https://databerata.de/o-m-g-wir-haben-mr-x-getoetet/ https://databerata.de/o-m-g-wir-haben-mr-x-getoetet/#respond Tue, 18 Feb 2014 11:08:50 +0000 http://databerata.de/?p=826 Zukunft der Marktforschung bald ohne Mr. und Mrs. X?

Vom 05-07 März 2014  in Köln an der Fachhochschule findet die GOR 14 statt (General Online Research Conference).

Hier gehts zum Programm …

Ich bin am 6.3. von 15:45 bis 16:45 auf dem Podium mit erfahrenen Kollegen zur Diskussion bereit, wenn es um das Thema geht:  „Is Mr. X dead?“ Unter der kundigen Leitung von Prof. Horst Müller-Peters (marktforschung.de) werden wir uns des Themas „Anonymität in der Marktforschung“ annehmen.

Vielleicht werden wir selbst Hand und Verstand anlegen? Und unsere ureigene heilige Milch-Kuh schlachten im vorauseilenden Gehorsam gegenüber Mr. Big Data? Oder wir tanzen traurig den letzten Walzer vor dem Ende der „echten“ Marktforschung? Ich bin sehr gespannt.

6.3.2014 (15:45-16:45) auf der GOR 14 Podiumsdiskussion 

  • Jörg Blumtritt, founder and CEO of Datarella
  • Dr. Lorenz Gräf, founder Globalpark, Boostpark and StartPlatz
  • Hans-Werner Klein, DataBerata, market research consultant
  • Finn Raben, Director General ESOMAR
  • Professor Dr. Rolf Schwartmann, Cologne Media Law Research Center
  • Stephan Thun, CEO Maritz Europe

Ich freue mich, Sie / Euch dort zu treffen. Bis zur GOR 14 in Köln dann.

PS: Diese Konferenz wird jährlich von der Deutschen Gesellschaft für Online-Forschung e.V. (DGOF) mit lokalen Partnern veranstaltet. Die ideale Veranstaltung, um sich mit Menschen vom Fach auszutauschen, Trends zu analysieren und zu diskutieren. Drei Tage Vorträge, Diskussionen, Sessions, Posters – „Binge Learning“ ist möglich 🙂

]]>
https://databerata.de/o-m-g-wir-haben-mr-x-getoetet/feed/ 0
The Sexiest Job of the 21rst Century https://databerata.de/the-sexiest-job-of-the-21rst-century/ https://databerata.de/the-sexiest-job-of-the-21rst-century/#respond Mon, 02 Sep 2013 21:36:01 +0000 http://databerata.de/?p=704 Seitdem ich Daten erhebe, entdecke, verarbeite, analysiere, interpretiere und in Informationen und Nutzen verwandle, also seit Beginn meines Arbeitens Mitte der 80er als Marktforscher wusste ich: Das ist der interessanteste Beruf der Welt.

Nun ja – wir schrieben das 20. Jhd. Weder die Zahlen noch das Zahlen waren so richtig „sexy“. Dabei haben wir Marktforscher bei der Geburt vieler Dinge und Prozesse geholfen – oder sie gerade angeregt. Zoomkameras, SMS, Kundenorientierung, Spielekonsolen, Happy Endings von Filmen, Käse, Wurst, Werbung (nur die witzige), Schokoriegel und Ökoprodukte. Das Aussehen von Laptops und die Nutzbarkeit der Software darauf.

Jetzt, im 21. Jhd gibt es „Big Data„. Also Große Datenmengen, in denen gesucht wird nach Zusammenhängen, Ideen, Kunden, potentiellen Kündigen und „sehr sehr bösen Menschen“. Und es gibt jede Menge von Big Data Haufen.

Mit diesem Thema beschäftigt sich ein Buch von Rudi Klausnitzer (Das Ende des Zufalls). Klausnitzer ist erfahrener Publizist und Medienwerker. Ihm gelingt es, aus der Sicht eines Nicht-Statistikers zu verstehen und weiterzudenken, was Big Data für unseren Alltag bedeutet. Für unser Leben, unsere Sicherheit bedeuten kann.  Schon mal empfehlenswert, weil gut und kundig geschrieben.

Wirklich faszinierend in seinem Buch ist das „Weiterdenken im Thema“, der fundierte Bau eines „Ökosystems“ von Big Data, ganz neue Berufe, die entstehen.

Ich überlasse Herrn Klausnitzer die Kartographie:

Data Scientist … ein/e Experte/Expertin im Umgang mit Zahlen, Statistiken, Methoden. Fachleute, Handwerker, die wissen, wie und für was man Big Data nutzen kann, und für was nicht. Die Konzepte bauen, Strategien entwerfen, aber auch die zahlreichen Tools richtig einsetzen können. Geschätzter Bedarf ca. 4,4 Mio Experten weltweit in 2015. Zusätzlich rechnen McKinsey und Gartner noch mit 1,5 Mio Managern, die Big Data richtig einsetzen können.

Data  Designer … ein/e Experte/Expertin in der Darstellung von Ergebnissen. Bei Palomar 5  bin ich den ersten Data Designern begegnet – die als Künstler und Zahlenfreunde auch komplexe Zusammenhänge darstellen können. Klausnitzer denkt an darstellende Kunst, es gibt bereits jetzt Beispiele aus einer Musik, die CERN aus dem Wechsel von Materie in Antimaterie und zurück entstehen lässt. Link: Sonata in LHCb. Sicherlich noch etwas „nerdig“, aber zukunftsweisend.

Data Journalist / Storyteller …. eine wirkliche Kunst, die Informationen aus Datenanalysen lebendig, vorstellbar, verständlich zu kommunizieren. Hier schliesst sich der Kreis zur guten quantitativen Marktforschung: Ein guter Fragebogen hat eine Story, ein Drehbuch, macht neugierig auf die nächsten Fragen.  Da werden keine Listen abgefragt – sondern Cliffhanger eingebaut. Natürlich nur so stark, dass die Ergebnisse nicht verfälscht werden. Storytelling ist die Kunst, fundierte Informationen an Viele zu verteilen.

Datatainment ist eine Stufe mehr noch als Infotainment mit Ergebnissen aus Big Data. Das können für ein breites Publikum Data Designer, Storyteller sein, die die Informationen der Data Scientists umsetzen und nützlich und unterhaltsam darstellen. Das Literatur nützlich und unterhaltsam sein sollte ist übrigens eine Idealvorstellung der Dichter,  die im 18. Jhd, in der Aufklärung wieder auftauchte. Damals wurden Fabeln erzählt, die unterhaltsam Wissen verbreitet haben. Es gibt sie schon, die Datatainer – wie zum Beispiel den begnadeten Hans Rosling, der in weniger als 5 Minuten die Geschichte von 200 Ländern in 200 Jahren erzählt, darstellt, visualisiert. Link zu einem BBC Beitrag auf youtube. Sein Motto: The Joy of Stats.

Wer meine Vorträge kennt, kennt auch meinen Lieblings“fabulogen“ James Thurber. Sehr weitsichtig hat er in den 20ern/30ern des letzten Jahrhunderts Lösungen für die Websiteanalyse (Link: The Fairly Intelligent Fly) und gegen die Seuche der schlechten empirischen Forschung, die „Soziale Erwünschtheit“ gefunden (Link: The Owl who was God). Unterhaltsam und lehrreich.

Und was war das mit „The Sexiest Job of the 21rst Century?“ Ist nicht von mir, sondern von Thomas H. Davenport und D.J. Patilim und im Harvard Business Review nachzulesen.

Und Sie haben sich gefragt, was ich als DataBerata eigentlich so mache?

 

Buch: Rudi Klausnitzer, Das Ende des Zufalls, Salzburg 2013.

 

 

 

 

]]>
https://databerata.de/the-sexiest-job-of-the-21rst-century/feed/ 0
Das Gerücht in der Menge https://databerata.de/das-gerucht-in-der-menge/ https://databerata.de/das-gerucht-in-der-menge/#respond Thu, 20 Jun 2013 09:02:46 +0000 http://databerata.de/?p=599 Ach – schon so lange her, dass Jay Leno scharfzüngig und hinterlistig wie immer formulierte:  “We wanted a president that listens to all Americans – Now we have one”.

Es ist recht einfach, zu den Enthüllungen über die gigantische Überwachungsmaschinerie der USA eine Meinung zu haben. Besonders, wenn diese Meinung „wohlfeil“ ist, und sich in einer fundamentalen Empörung über diese Unverschämtheit oder einem Unverständnis über diese Empörung im schwarz/weiß verliert.

Und dann auch noch das Baby Big Data mit der Wanne Big Brother ausgeschüttet wird. Aber der Reihe nach.

… bau ’ne Maschine für uns

Die Maschine soll rausfinden, ob von Einzelnen oder Gruppen von Menschen eine Gefahr für Einzelne, Gruppen oder das Staatswesen ausgeht. Wir suchen: potentielle Terroristen.

Da haben wir klassischerweise zwei Möglichkeiten, am besten in Kombination:

  • Gesucht: Das Gesicht in der Menge! Soziologie und Psychologie. Soziologen erforschen, wie Gruppen von Menschen funktionieren, Psychologen wie Einzelne in diesen Gruppen sich verhalten. (ja, ist komplexer, aber wir bauen eine Maschine!). Das machen Soziologen und Psychologen schon seit Jahrzehnten – es gibt funktionierende Modelle von Gesellschaften und Menschen, dicke Bücher mit Theorien. Und andere dicke Bücher, die diesen Theorien widersprechen.  Trotzdem funktioniert es, wie das erfolgreiche Profiling in der Forensik immer wieder zeigt.

Über die Analyse von Big Data Analysen eröffnet sich eine weitere Möglichkeit:

  • Gefunden: Das Gerücht in der Menge! Mit Hilfe von möglichen umfassenden Datensätzen zum Verhalten, der Einstellung, Meinung von Menschen – und Datenquellen, die von Beobachtungen über Bewegungsprotokolle (Bahnfahrkarten, Flugtickets, Knöllchen, Sicherungskameras, Selbstäußerungen in Facebook, Foursquare, ..)) bis hin zu Observation reichen können. Und einer rein auf Ähnlichkeiten (Koorelationen) und Vergangenheitsdaten beruhenden Mustererkennung wird nach möglichst Verdächtigen gesucht. Naja – eigentlich rät man rum.

Screening: Wo lauert die Gefahr?

Die gewünschte hohe Sicherheit, möglichst alle „Gefahren“ zu erkennen hat zur Folge, dass auch „harmlose“ Menschen erst mal als potentielle Gefahr identifiziert werden können. Klar – Sie nicht. Oder doch?

Das Problem, falsch negative (da ist was, ich merke es aber nicht)  oder falsch positive (da ist nichts, aber das System schlägt Alarm) ist bei jedem Screening gegeben.

Im Alltag der Marktforschung kennen wir es Alpha- vs. Betafehler. Besonders augenfällig ist es bei sogenannten „Screenings“ in der medizinischen Diagnostik.

  • Beim Test auf schwere Erkrankungen wird darauf Wert gelegt, möglichst alle Erkrankten zu finden. Gute Tests haben eine „Entdeckungsquote“ von 99,9 Prozent oder besser. Wir testen einfach mal eine Millionen Menschen auf diese Erkrankung, wir wissen, etwa 0,1% der Bevölkerung erkrankt sein könnten.  99,9% Sicherheit bedeutet: von 1.000 Erkrankten in den 1.000.000 werden 999 als erkrankt erkannt. Das ist gut, oder?
  • Leider haben diese Tests auch die eingebaute unangenehme Eigenschaft,  falsch positiv zu testen. Also eine Erkrankung zu signalisieren, obwohl da keine ist. Wenn etwa 0,5% der Ergebnisse falsch positiv sind, bedeutet das bei einer Millionen getesteter Menschen 5.000 (fünf tausend!!!) bekommen erst einmal einen Schrecken.

Durch weitere Tests kann dies wieder klargestellt werden – aber der erste Schrecken bleibt. Dieser Betafehler ist übrigens auch einer der Gründe, weshalb Screenings sehr vorsichtig und zurückhaltend eingesetzt werden sollten.

Ist PRISM ein Screening?

Ich befürchte ja. Denn es gilt die Regel: Je sicherer etwas entdecken werden soll, desto eher hört man „das Gras wachsen“, verdächtigt „Unschuldige“. Und je mehr Leute (Screening)  „durchsucht werden“, desto mehr Unverdächtige werden fälschlich beschuldigt. Ein Fall ist recht bekannt geworden, der Berliner Soziologe Andrej Holm war „plötzlich Terrorist“.

Mein „educated guess“ ist: Die Zahl der fälschlich Beschuldigten wird mit jedem Screening wachsen, bald werden wir ein Heer von Menschen haben, die man sich genauer anguckt. Vielleicht tarnen die sich nur, sind „Schläfer“?

Kein Ausweg aus der Screening-Falle?

Doch – es gibt einen Ausweg. Die Medizinstatistik zeigt: Nur die untersuchen, die eine Prädisposition haben. Also sich Gefahren aussetzen oder durch Genetik oder Verhalten eine höhere Gefahr zur Erkrankung haben (Chemie, Umweltgifte, Tropenreisen).

Wenn man in der Logik von PRISM bleib: Erst die Menschen über Modelle der Psychologie und Soziologie erkennen und filtern, die überhaupt in Frage kommen, und dann screenen. Und selbst dann werden Unschuldige verdächtigt werden.

Das hatten wir aber schon mal – Big Data ist nicht gut oder schlecht, wenn es „right sized data“ ist. Sorgfalt, Theorie, Empirie, Statistik helfen. Dafür gibt es ja Profis.

Dieser Beitrag enthält bewußt sich jeglichen Kommentars, wie demokratische Staaten mit ihren Bürgern umgehen sollten, ob zum Schutz aller erst einmal die gesamten Bevölkerung oder einzelne Gruppen einem Generalverdacht unterliegen sollten. Der Beitrag mischt sich trotzdem ein: er zeigt auf, welche Gefahr durch die gewählte Methodik zusätzlich entstehen kann.

Ansonsten könnten schon bald Massenmails versandt werden: „Sorry, aber zu ihrer Sicherheit mussten wir Sie zum Beta-Fehler machen“.

Da bin ich doch lieber das Gesicht in der Menge, als ein Gerücht in Big Data.

 

]]>
https://databerata.de/das-gerucht-in-der-menge/feed/ 0
Störche, Big Data und Lehrer Bömmel https://databerata.de/storche-big-data-und-lehrer-bommel/ https://databerata.de/storche-big-data-und-lehrer-bommel/#respond Mon, 27 May 2013 13:41:52 +0000 http://databerata.de/?p=485 This Is The Beginning!

Jetzt scheint das Thema Big Data endgültig „kommunikabel“ zu sein: Der Titel im SPIEGEL 20/2013 lässt Big Data als gelungene Melange aus CSI, dem Orakel von Delphi und den römischen Auguren vergären. Fazit: Wir Menschen werden vorhersehbar  – weil berechenbar. Ergebnis: Verbrechen werden verhindert, Käufern werden die Wünsche aus den Daten ablesen. Na gut – eine Prise Kritik am System, das den Menschen gläsern werden lässt, ist auch enthalten. Meine Meinung dazu: Der Artikel weckt Interesse und Erstaunen – läßt aber Tiefe vermissen und ist sehr beschreibend.

Dann mach’s doch besser!

Die 100.000€-Frage: „Big Data – brauchen wir es auch?“ Stellen Sie die Frage doch jemandem, der sich auskennt. Vielleicht Ihrem Marktforscher, dem BI-Spezialisten, Ihrem Marketing  – oder dem Controlling. Die Antworten reichen voraussichtlich über die gesamte Palette:  „Ja!“ „Nein!“ „Vielleicht!?“.

OK, fragen sie uns, die Analysten, die Spezialisten. Wir haben den Status der Ratlosigkeit meist schon überwunden und fragen präziser nach. Denn: Aufklärung ist gefragt.

Dem Buzz-Word auf der Spur

Big Data bedeutet eigentlich nur, dass man sehr viele Daten gesammelt hat, dass man sich derer mit Methoden des exzessiven Data-Mining nähert. Oder einfacher:

Man sucht irgendwas im Heuhaufen. Das können Nadeln, Münzen, Werkzeug, ein Nugget oder auch eine Schatzkarte sein. Findet irgend welche Muster. Das ist der erste Schritt.

Im zweiten Schritt verbindet man mathematisch die Muster oder einzelne Dinge aus dem Heuhaufen miteinander, um Zusammenhänge zu finden. Zusammenhänge können sein:

  • „Insassen von Gefängnissen haben einen niedrigeren Ruhepuls“.
  • „In Orten mit einer hohen Dichte an Storchennestern werden mehr Kinder geboren.“
  • „Die Schadenshöhe bei einem Brand nimmt proportional mit der Anzahl an Feuerwehrleuten vor Ort zu“.

Übrigens – alle diese Aussagen sind richtig und statistisch bedeutsam belegt.  Zusammenhänge sagen allerdings nichts über Kausalitäten aus – oder bringen doch die Dorfstörche die Kinder? Sollte man lieber keine Feuerwehr rufen, wenn es brennt, um den Schaden zu begrenzen? Oder einfach alle Menschen mit einem niedrigen Ruhepuls wegsperren, weil sie kriminell werden könnten?

Quatsch, das glaubt doch keiner, meinen Sie? Wir kommen später darauf zurück.

Das Spektrum der Big Data Analyse

Auch das ist Big Data:  Die FAZ interviewte Markus Morgenroth: „Wir können herausfinden, wer loyal ist“, sagt er. Herr Morgenroth arbeitet bei Cataphora. Diese Firma beobachtet das Verhalten von Mitarbeitern in Unternehmen. Dazu werten sie auch die anonymisierten Mails von Mitarbeitern aus. Echte Big Data Analyse, weil Unmengen an Daten zu durchforsten sind, um irgendwas im Heuhaufen zu finden. Echtes Data Mining. Ein mögliches Ergebnis: Performanceanalysen und Loyalitätsanalysen einzelner Mitarbeiter. Im Interview werden auch die Fallstricke solcher Analysen aufgezeigt. Und deutlich gemacht, wie wichtig das Wissen von Sprachwissenschaftler, Psychologen, Sozialwissenschaftler bei der Interpretation dieser Daten sind. Wirklich lesenswert:  http://www.faz.net/aktuell/feuilleton/bilder-und-zeiten/interview-mit-einem-datenanalysten-wir-koennen-herausfinden-wer-loyal-ist-12124514.html

Übrigens: Teile der Arbeit von Cataphora sind Beispiel für eine in Deutschland aus Datenschutzgründen verbotene Anwendung von Big Data Analyse.

Ich lasse meine E-Mails nicht öffentlich rumliegen

Sowieso nicht mit Ihnen? Auch aus Ihren Mails kann ein Profil erstellt werden. OK, an Ihre Mails kommt keiner ran? Nutzen Sie Twitter? Facebook? Xing? LinkedIn? Die Dataminer auch. Was kann da passieren?  Nicht nur die Themen, über die sie schreiben, auch Wörter, die Emotionen (Sentiment) ausdrücken und in Sätzen mit Faktenaussagen stehen, können Sie kennzeichnen. Big Data bedeutet in diesem Fall: Mustererkennung und Korrelation.

Das ist dann in Ordnung, wenn der Schutz Ihrer Person gewährleistet ist. Nennt man ja „Datenschutz“. Das ist dann fragwürdig, wenn Sie persönlich als „Target“ aus der Analyse rauspurzeln und aufgestellt werden.

Oh, da habe ich Sie missverstanden

Soso, Analysen von riesigen Datenmengen machen Unternehmen und Behörden schlauer. Muss man denn Big Data haben, um heutzutage richtig entscheiden zu können? Nein. Ja. Es kommt darauf an, was Sie machen wollen.

Quantitative Marktforschung

Anwendung: Ich möchte fundierte Aussagen haben zu den Marktchancen meines Produkts, des Relaunches meines Produkts oder zu Produkteigenschaften. Ich möchte Zielgruppen identifizieren und deren Needs, möchte verstehen, was der Grund für diese Zielgruppen ist, mein Produkt zu kaufen oder nicht zu kaufen. Das gibt mir die Chance, Veränderungen vorzunehmen, die mein Produkt besser vermarkten lassen. Über weitere Informationen, die ich habe oder beschaffe, weiss ich, wie und wo ich die Zielgruppen erreiche (TV, Print, BTL, PoS, PoI,  Social Media, Web). Die genauere Auswertung der Storch / Kinderzahl Korrelation zeigt mir, dass ich in ländlichen Gebieten und ähnlichen Stadtbezirken  (auch ohne Storchennester) mit einer höheren Kinderzahl rechnen kann und eher Babyartikel anbieten könnte.

Marktforschung  mit right-sized-Data ist notwendig, wenn ich auch theoretisch fundierte Aussagen haben möchte, die sich auf ähnliche Szenarien übertragen lassen und zeitlich kurz- bis mittelfristig gültig sind. Mit Mafo wird die Fabrik gläsern, die Wirkzusammenhänge werden sichtbar.

Big Data Analyse – Wat is en Dampfmaschin?

Anwendung: In der Analyse von Big Data geht es mehr um das „Was“ als um das „Weshalb“: Ich möchte adhoc direkt Menschen mit meiner Botschaft erreichen. Mit geringem Streuverlust, möglichst in einer 1:1 Situation und mit der Aussage, welches der Medien dafür wann genutzt werden sollte.  Mich interessiert nicht, dass dieses Wissen kurzfristig unnütz werden kann, weil sich Medien und Nutzung durch Menschen schnell verändern können. Mich interessieren keine Gründe, Einstellungen von Menschen, weil ich kein Modell des Verhaltens in Bezug auf meine Produkte oder Produktgruppen brauche, sondern schnell Erfolge. Selbst um den Preis, das die Ergebnisse Artefakte sind, die bei einer Analyse großer Datenmengen schnell entstehen können. Beispiel: Die Zahl der Störche auf den Dächern nehme ich als Indikator dafür, ob ich einen Babyartikel-Markt auf der grünen Wiese neben dem Dorf baue – oder nicht. Die Zahl der Feuerwehrleute am Brandort ist für mich als Versicherung ein Indikator für den Schaden, den ich regulieren muss – oder sogar ein Indikator für Betrug, wenn niemand da war.

Big Data Analysen mit den richtigen Tools analysiert ist nützlich, um Zusammenhänge schnell zu erkennen und handeln zu können. Big Data Analyse ist notwendig, wenn das mit Echtzeitdaten erfolgen soll. Mit Big Data wird der Einzelne gläsern – die Wirkmaschine ist eine schwarze Kiste. Oder mit den Worten von Heinrich Spoerl (Die Feuerzangenbowle): „lso, wat is en Dampfmaschin? Da stelle mehr uns janz dumm. Und da sage mer so: En Dampfmaschin, dat is ene jroße schwarze Raum, der hat hinten un vorn e Loch. Dat eine Loch, dat is de Feuerung. Und dat andere Loch, dat krieje mer später.“

Lehrer Bömmel aus der Feuerzangenbowle – ein Protagonist von Big Data. Da hätte auch DER SPIEGEL d’rauf  kommen können. Wenn er aus dem Rheinland käme 🙂 

Weitere Informationen: Da gab’s doch hier im Blog was zu?

]]>
https://databerata.de/storche-big-data-und-lehrer-bommel/feed/ 0
Big Data, Astrophysik, Eifel https://databerata.de/big-data-astrophysik-eifel-profilbild-databerata/ https://databerata.de/big-data-astrophysik-eifel-profilbild-databerata/#respond Fri, 12 Apr 2013 08:40:45 +0000 http://databerata.de/?p=464 Was ist das, diese Art Antenne?

Es ist tatsächlich eine Antenne vom einem Radioteleskop in der Eifel. Der „Astropeiler Stockert“ wurde 1957 von der Uni Bonn in Betrieb genommen und war lange Zeit das größte und präziseste frei bewegliche Radioteleskop, um Astronomen und Astrophysikern große Datenmengen zur Auswertung bereit zu stellen.

So haben die Daten vom Stockert u.a. nachweisen können, dass unsere Galaxy eine spiralförmige Struktur hat. Eine Art Big Data Analyse, die zur Positionsbestimmung des Unternehmens Erde diente.

DSCF1803

Heute dient der Astropeiler sowohl der Forschung wie auch der Kommunikation. Amateurfunker sind sehr aktiv beim Erhalt des Radioteleskops und nutzen die 25m große Parabol-Antenne, um über den Mond als Reflektor weltweit in Kontakt zu treten.

Das Gebäude, das den Radiopeiler trägt ist auch sehr interessant gestaltet.

]]>
https://databerata.de/big-data-astrophysik-eifel-profilbild-databerata/feed/ 0
Nochmal: Deutschland braucht Eier! https://databerata.de/deutschland-braucht-eier/ https://databerata.de/deutschland-braucht-eier/#respond Tue, 26 Mar 2013 19:05:18 +0000 http://databerata.de/?p=411 Deutschland braucht Eier! Marktforschung kehrt auf den Boden der Realität zurück

Lesen, denken, handeln! Verlinkung zu Marktforschung.de, denn dort hat Dr. Daniel Salber hat eine Kolumne geschrieben, die Pfefferminz ins Hirn bringt und die mit welken Blättern bedeckten Schamzonen der Mafo-Zunft zum Frühling einlädt:

Zitat: „Blickte ein Psychologe auf die geistige Situation der Zunft, müsste das Ergebnis mit den Worten „manisch-depressiv“ beschrieben werden. Auf der einen Seite spirituelle Erwartungen an gigantische Datenflüsse rund um den Globus und die Hoffnung, nach dem 1000. Marmeladen-Test endlich „gesellschaftliche Innovationen“ anstoßen zu dürfen. Auf der anderen Seite lässt sich die Branche von Google die Butter vom Brot nehmen. Beschwörungen der „Qualität“ klingen wie das Pfeifen im Walde. Wenn Marktforschung = Datensammeln ist, können das die „Multis“ in der Tat besser“. Zitat Ende.

Und es geht in diesem Tempo und Ductus weiter.

Das ist ein echter Aufruf zum Nachdenken, Aufatmen, sich zu besinnen und dann mit frischer Kraft (und notfalls gestrafften Hosenträgern) wirklich beizutragen.

Selten so einen vernichtend ermutigenden Beitrag in letzter Zeit gelesen.

Und bald ist Ostern!

]]>
https://databerata.de/deutschland-braucht-eier/feed/ 0