

NSA, Google, die Daten und die Fragen
Martina Gröschl in FALTER 11/2014 vom 14.03.2014 (S. 37)
Mathematik: Ist Big Data gut oder böse? Und welche Rolle spielt die Mathematik dabei?
Die Datensammelwut bestimmter Unternehmen und Behörden ist bekannt und hat vergangenes Jahr mit dem Aufdecken diesbezüglicher Aktivitäten der NSA einen weiteren und sicher nicht den letzten unangenehmen Bewusstseinsschub erlangt.
Doch nicht alle Anwendungsmöglichkeiten von Big Data hinterlassen ein ähnlich flaues Gefühl im Magen wie ausgeklügelte Überwachungsprogramme oder der durchschaute Konsument, dessen Kaufverhalten Unternehmen besser kennen als er selbst.
So wäre die Entdeckung des Higgs-Teilchens am CERN ohne Big Data nicht möglich gewesen. Und auch Google beeindruckte schon 2009 mit einer Publikation im Wissenschaftsmagazin Nature, die aufzeigte, dass über das Suchverhalten von Nutzern im Internet Grippeepidemien besser, weil früher vorhersagt werden können als mit den üblichen Methoden staatlicher Gesundheitsbehörden.
Die Idee hinter Big Data ist einfach: Man sammelt so viel Daten wie möglich und sucht nach Korrelationen, also nach mehr oder weniger starken Zusammenhängen. Die Verheißungen von Big Data sind so groß, dass bereits 2008 der damalige Wired-Chefredakteur Chris Anderson in einem viel diskutierten Artikel das "Ende der Theorie" prognostiziert hat.
Damit schlug er in dieselbe Kerbe wie der britische Physiker und Erfolgsunternehmer Stephen Wolfram, der ein paar Jahre zuvor "A New Kind of Science" einläuten wollte, in der Computerexperimente die klassische, deduktive Mathematik ersetzen sollten.
Finden wir künftig also alle Antworten auf unsere Fragen, indem wir möglichst viele Daten durchforsten? Hat die Frage nach dem Warum ausgedient und zählt nur mehr das Was? Eindeutig nicht, sagt der deutsche Wissenschaftstheoretiker und Philosoph Klaus Mainzer in seinem neuen Buch "Die Berechnung der Welt: Von der Weltformel zu Big Data".
Er erinnert daran, dass beide Zugänge die Wissenschaftsentwicklung seit ihren Anfängen begleiten. Wobei die Warum-Frage für Mainzer sogar eine Überlebensfrage war und ist: Bereits unser Gehirn muss unsere Sinneseindrücke filtern, damit wir in den täglich auf uns einprasselnden Signalmengen nicht restlos untergehen.
Durch die Suche nach Mustern, die sich zu Gesetzen und Theorien verdichten, können wir die Komplexität dieser trotz Filterung immer noch ausreichend verwirrenden Signale auf ein erträgliches Maß reduzieren.
Für Mainzer gibt es in dieser Frage kein Entweder-oder. "Datenmassen ohne theoretische Grundlagen bleiben blind. Theorien und Formeln ohne Daten sind aber leer", schreibt er in guter philosophischer Tradition.
Ob in Physik und Technik, Biologie und Medizin, Industrie und Wirtschaft oder einfach nur im täglichen Leben – überall werden heute gewaltige Mengen an Daten produziert. Ohne Komplexitätsreduktion durch Mustererkennung stünden wir diesen Datenmassen ähnlich hilflos gegenüber wie unreduzierten Sinneseindrücken.
Um Aussagen über künftige Entwicklungen oder gar neue Entdeckungen machen zu können, muss man verstehen, nach welchen Regeln diese Muster entstehen. Korrelationen alleine können das nach Mainzer nicht leisten, auch wenn Big Data, gerade wenn es um Prognosen zu menschlichem Verhalten geht, erstaunliche Treffsicherheit erreichen kann.
Ein besonderer Stellenwert kommt in Mainzers Zugang der (klassischen) Mathematik zu. Da Daten mit Zahlen dargestellt werden und die Mathematik auf dem Gebiet der Komplexitätsreduktion durch Mustererkennung eine lange Tradition hat, bietet sich diese Wolframs Unkenrufen zum Trotz als Erkenntniswerkzeug der Wahl an, wobei gilt: je größer der Einfluss des Faktors Mensch (wie zum Beispiel in der Finanzwirtschaft), desto größer die (mathematisch) zu berücksichtigende Unsicherheit.
Mainzers Buch ist ein Plädoyer für Theorie und Reflexion. Dabei bleibt er jedoch keineswegs theoretisch. Er begründet das Warum des Warums anhand zahlreicher Beispiele. Und liefert – wie man es bereits von ihm kennt – trotz seines Praxisbezugs keine leichte Kost. Seine "Berechnung der Welt" ist kompakt und dicht; eine Tour de Force durch die Geschichte inklusive möglicher Zukünfte mit großem Facetten- und Detailreichtum sowie zuweilen hinterfragbarer Liebe zum Fachjargon.
Das vorausgesetzte, insbesondere mathematische Niveau ist hoch – auf diesem erklärt er jedoch paradoxerweise einfach. Die Zusammenhänge, die er aufzeigt, sind tief. Ob sich eingefleischte Big-Data-Verfechter durch Mainzers Argumentation überzeugen lassen, bleibt aber fraglich. Denn das Warum interessiert diese ja nicht.