Noch vor nicht allzu langer Zeit hatten Analysten für volkswirtschaftliche Analysen oder Unternehmensbewertungen vergleichsweise begrenzte Daten zur Verfügung. Da gab es einerseits die offiziellen Bilanzen und Zwischenberichte der Unternehmen sowie deren G&V, mit Hilfe derer Fundamentalanalysen gemacht wurden. Es gab volkswirtschaftliche Daten wie CPI, Arbeitslosenzahlen oder Balance of Payments Daten offizieller Stellen. Und dann hatten Analysten noch jede Menge Charts zu Preis- und Kursbewegungen parat, anhand derer sie technische Analysen durchführten. Das war es im Grunde. Unternehmen wurden über die Diskontierung diverser Cashflows oder über Bilanzkennzahlen bewertet. Zukünftige Kursbewegungen wurden über Charts vorhergesagt. Und für volkswirtschaftliche Prognosen dienten eine handvoll Makrodaten staatlicher Stellen. In vielen Wirtschaftskursen wird das heute noch gelehrt. Bei professionellen Investoren und Analysten hat sich die Welt der Daten allerdings dramatisch erweitert. Denn sie verwenden eine Fülle alternativer Daten bei ihren Prognosen und als Grundlage für Investitionen, Kreditentscheidungen und Handelsstrategien. Satellitenbilder, die zeigen, was wirklich in Minen und Lagern vor sich geht, Verkehrsdaten, Signale der Seefahrt, Anzahl von Klicks, Analyse von Suchbegriffen im Internet, Wetterdaten, Buchungszahlen für Restaurants und Lieferservices, Kreditkartendaten, Social Media Posts und Trends, Gender und ethnische Analysen, Nutzerprofilauswertungen und viele, viele weitere.
Neue Blickwinkel
Die Vorteile neuer Daten sind nicht von der Hand zu weisen. Viele volkswirtschaftliche Modelle setzen sogar auf Annahmen wie perfekt informierten Investoren und transparenten Märkten auf. Je mehr Daten zur Verfügung stehen, desto vollständiger kann das Bild werden. Die Handelsdaten an Rohstoffbörsen, etwa mit Futures auf Kupfer, werden heute durch Satellitenbilder von Lagerstätten, Transporten und Minen in wichtigen aber nicht immer transparenten Märkten wie China oder Indien ergänzt. Social Media Analysen werden für Prognosen verwendet, welche Produkte oder Serviceleistungen Verbraucher in Zukunft nachfragen werden. Der gesamte Bereich des ESG lebt von alternativen Daten, um nachhaltige Investitionen und Projekte zu finden und zu analysieren. Richtig implementiert können alternative Daten für Investoren überaus nützlich und profitabel sein und Kreditgebern ein deutlich verringertes Ausfallrisiko und damit mehr Sicherheit, Nachhaltigkeit und Gewinne bescheren.
Neue Wege der Unternehmensbewertung
Doch nicht nur bei einzelnen Investments, der Auswahl von Projekten und Kreditnehmern helfen alternative Daten. Sie eröffnen auch neue Wege der Unternehmensbewertung. Seit vielen Jahrzehnten beschränken sich die meisten Bewertungen auf reine Cashflow Analysen oder Ratios, und seit jeher ist bekannt, wie unzureichend diese Input Faktoren sind. Schließlich setzt ein Aktionär mit dem Kauf der Aktie auf das zukünftige Potenzial des Unternehmens und seine zukünftige Fähigkeit, dieses Potenzial in reale Gewinne umzumünzen. Cashflows, Gewinne und Dividenden der Vergangenheit sind dabei vielleicht ein erster Anhaltspunkt dafür, wie das Unternehmen bisher getickt hat, eignen sich aber nicht wirklich für eine Bewertung der Zukunft. Alternative Daten, wie Unternehmen mit neuen Trends wie aktuell ESG (environmental, social and governance) umgehen, wie sich Manager gegenüber Aktionären auf Hauptversammlungen verhalten, Daten über die Vergütung von Vorstand, Aufsichtsrat und Beschäftigten, die Meinungen und Kommentare auf Social Media zum Ruf des Unternehmens und seiner Produkte und viele mehr können durchaus interessante Rückschlüsse auf die zukünftige Entwicklung zulassen. Doch das steht nicht in der Bilanz oder der G&V.
Problem: Detail, Überblick und Datenflut
Die Datenflut in heutiger Zeit ist enorm und steigt weiter an. Neue Texte und Meldungen auf Unternehmensseiten, Social Media, Satellitendaten, Nachrichten, Kursdaten, Bewegungsdaten, Wetterdaten, Forschungsberichte, Nutzerdaten und viele mehr landen rund um die Uhr 365 Tage im Jahr im Sekundentakt in der globalen Datencloud. Daraus die für die jeweilige Analyse relevanten Daten zu selektieren stellt für Algorithmen von Investitions- und Kreditkomitees eine Herausforderung dar. Glücklicherweise wächst die Rechenleistungskapazität seit Jahren mit der steigenden Datenmenge. Was nach und nach allerdings verloren geht, ist das Wissen, welche Daten und Dynamiken in diverse Algorithmen fließen. Der wachsende Bereich der künstlichen Intelligenz mit sich selbst weiterentwickelnden Modellen wird diese Thematik noch erschweren. Neben häufig medial prominent platzierten Themen wie Diskriminierung durch Algorithmen ist es für den Investor und Kreditgeber noch viel wichtiger, Fehlentscheidungen durch falsche Signale zu vermeiden, die im schlimmsten Fall zur Insolvenz führen können. Zu wissen was im Algorithmus steckt, woher welche Daten warum wie und in welchem Verhältnis gezogen und verwendet werden, sollte im ureigenen Interesse des Managements sein. Die Praxis sieht leider anders aus, und es wird immer schwieriger, den Wald vor lauter Bäumen zu sehen.
Paradoxon: Mehr Transparenz führt zu Intransparenz
Damit stehen wir vor einem Paradoxon. Einerseits erhöht die Existenz von immer mehr erhältlichen Meta- und Alternativdaten die Transparenz, was wirklich in Unternehmen und auf der Welt und zwischen Menschen vor sich geht. Dieses neue Wissen birgt unglaublich viele, neue Chancen und Möglichkeiten für Unternehmen und Finanzinstitute. Andererseits ist diese schier endlose Datenflut für das menschliche Gehirn nicht mehr fassbar und verarbeitbar. Wir brauchen die Hilfe von Rechenzentren und Algorithmen, die zwar von Menschen programmiert wurden, deren Funktionsweise aber sehr häufig nicht mehr durchblickt wird. Die Datenlage selbst erhöht die Transparenz, die Datenverarbeitung hingegen führt zu Intransparenz. Das wiederum birgt für das einzelne Unternehmen eine fülle neuer Risiken. Denken Sie etwa an das rechtliche Risiko, verklagt zu werden, weil Sie die Vergabe einzelner Kredite abgelehnt haben, aber nicht erklären können, aufgrund welcher Datenmenge Sie zu Ihrer Einschätzung gelangt sind. Das Risikomanagement stellt die Verwendung von alternativen Daten vor neue Herausforderungen.
Manipulationsanfälligkeit
Datenanalysen sind immer nur so gut wie die Qualität der Input-Daten. Gerade bei alternativen Daten ist die Anfälligkeit für Manipulation hoch. Lassen Sie uns ein Beispiel aus dem ganz normalen Leben nehmen. Ich hatte unlängst ein neues Tablet bestellt. Im ersten Schritt analysierte ich die Fundamentaldaten. Welchen Chip, welches Betreibssystem, Größe, Speicherplatz, Bildschirmauflösung und dergleichen wollte ich. Die in Frage kommenden Tablets wurden von einer ganzen Reihe Verkäufern auf ebay angeboten. Als Entscheidungshilfe nahm ich die angebotenen alternativen Daten. Das war einerseits die Angabe, wie viele Produkte der Verkäufer schon verkauft hatte, und dann natürlich die Bewertungen der Käufer. Ich wählte am Ende nach sehr sorgfältiger Analyse der Daten einen Verkäufer aus, der bereits über 1000 Stück verkauft hatte und 3000 positive Bewertungen hatte. Dann die Enttäuschung. Die Verpackung war hochwertig, der Inhalt entsprach hingegen überhaupt nicht den Spezifikationen. Das Tablet war Schrott. Ich war Opfer eines Betrugs geworden. Die Bewertungen waren offensichtlich manipuliert. Diese und ähnliche Erfahrungen machen wir immer wieder, bei Kundenbewertungen auf Online Portalen, bei Fake News Nachrichten, Social Media Hacks und vielem mehr. Die technischen Möglichkeiten für Manipulation haben eben auch mitgehalten, man denke nur an Deepfake Videos, die absolut echt wirken. Was nun, wenn auch Ihr Algorithmus in diese Falle tappt?
Fehleranfälligkeit und Eigendynamik
Manipulation ist eine bewusst herbeigeführte Sache, die in vielen Fällen sogar strafbar ist. Doch alternative Daten sind nicht nur manipulationsanfällig sondern schlicht auch fehleranfällig. Ein kurioses Beispiel fand im Januar 2021 statt. Elon Musk hatte seinen 42 Millionen Twitter Followern mitgeteilt, sie sollten doch bitte den Messenger Dienst WhatsApp verlassen und zum Messenger Dienst Signal wechseln. Dumm nur, dass die Follower meinten, Elon Musk beziehe sich auf das Unternehmen Signal Advance, ein Medizintechnik Unternehmen. Der Kurs der „falschen“ Aktie explodierte daraufhin. Oder ein anderes Beispiel: Der noch kuriosere Fall der GameStop Aktien. GameStop, eine verlustreiche Elektronikkette mit schlechten Fundamentaldaten und düsteren Zukunftsaussichten, war zunächst Ziel diverser Shortseller geworden, die in ihren Research Reports GameStop als klaren Pleitekandidaten einstuften und daraufhin massenweise Leerverkäufe machten. Auf der Social Media Plattform Reddit wurde das von Fans der Läden von GameStop aufgegriffen und zur Rettung der Aktie aufgerufen. Binnen weniger Tage schoss der Kurs von etwas über 3 USD auf über 300 USD nach oben. Fundamentaldaten hin oder her.
Nicht reguliert. Nicht standardisiert.
Der Markt für alternative Daten ist weder reguliert noch standardisiert. Wie immer bietet das Chancen aber auch Risiken. Unternehmen, die eigene Datenanalysen mit eigenen Modellen und Algorithmen machen, sind weniger gefährdet durch irreführende Anbieter von Daten und Analysen. Jene aber, die sich auf Drittanbieter von Analysen alternativer Daten verlassen, sollten vorsichtig sein. Der Bereich der ESG Ratings, den wir hier bereits mehrfach kritisch betrachtet haben, ist dabei nur ein Beispiel von vielen. Eine gründliche Due Diligence der Daten und Algorithmen des externen Anbieters gehören zur Sorgfaltspflicht. Dass dabei viele in der Praxis an Grenzen stoßen ist leider Teil der neu geschaffenen Intransparenz durch Transparenz.
Neue Wege, neue Chancen, neue Risiken
Neue Technologien und neue Daten schaffen neue, bisher ungeahnte Möglichkeiten. Mit einher gehen für Unternehmen stets Risiken, die ebenfalls neu sind und eigenständig beurteilt und beachtet werden müssen. Einen Weg zurück gibt es wohl nicht. Die Nutzung alternativer Daten aus der wachsenden Big Data Cloud ist in Gange und lässt sich nicht mehr aufhalten.