Unternehmen & Branchen

Geo-IT-Branche: Vom richtigen Blickwinkel auf Daten

Amazon, Google und Facebook machen es vor. Die Rede ist von der Auswertung und Nutzung immenser Datenmengen. Daten, die wir alle mit unserem täglichen Nutzungsverhalten im Internet, via Social Media oder dem Bezahlverhalten offenlegen. Diese Auswertungen umklammern immer fester unser berufliches und privates Leben. Konzerne, Werbetreibende und Sicherheitsbehörden nutzen die neuen Daten- und Analysequellen teils ungehemmt. Und wenn nicht, stellt sich die Frage: Wer soll sie daran hindern? Denn Algorithmen und Big-Data-Auswertungen sind zentraler Bestandteil von immer mehr Geschäftsmodellen, von Profiling und einem behördlichen Tracing – nicht nur in China. Mit dieser Kehrseite analytischer Auswüchse muss sich auch die Geo-IT-Branche zukünftig stärker beschäftigen. Denn das Thema Geospatial sowie Big Data und die sich daraus ergebenden Möglichkeiten der Überwachung mittels digitaler Technologien bergen Gefahren.

Ob die Gedanken frei sind? Wer weiß das schon in unseren Big-Data-Zeiten. Bild: stock.adobe.com (blende11.photo)

Wie ernst die Lage ist, zeigt ein Streifzug durch die Medien der Republik. In einem Interview mit Telepolis stellte Prof. Dr. Christof Paar, Leiter des Max-Planck-Instituts für Sicherheit und Privatsphäre, im Februar 2021 klar: „Unternehmen wie Google und Facebook wissen extrem viel über ihre Nutzer und das ist unfassbar viel wert.“ Und er ergänzt: „Wir leben in einem kapitalistischen System und in diesem ist dieses Wissen von ungemein hohem Wert.“ Kritiker sprechen gar von einem Plattformfeudalismus. Einem Thema, bei dem mittlerweile mancher Experte die Dringlichkeit einer klugen Regulierung der Plattformökonomie erkennt. Denn die „Aussichten auf eine Demokratisierung der Plattformwirtschaft“ werden sich wohl nicht erfüllen. Die Wirtschaftswissenschaftlerin Prof. Mariana Mazzucato umschrieb es bereits 2019 in einem Gastbeitrag im Handelsblatt mit den Worten: „Der Kapitalismus hat sich schon immer dabei hervorgetan, neue Wünsche und Sehnsüchte hervorzubringen. Doch mit Big Data und Algorithmen haben die Technologieunternehmen diesen Prozess sowohl beschleunigt als auch umgekehrt.“ Prof. M. Mazzucato folgert: „Statt in Erwartung dessen, was die Menschen wollen könnten, einfach neue Waren und Dienstleistungen zu erzeugen, wissen die Tech-Konzerne bereits, was diese Menschen wollen werden, und verkaufen insofern unser künftiges Selbst.“

Von Fehlinterpretationen und Fake News

Somit gilt es diesen sensiblen Themenkomplex auch abseits der Versprechungen großer Digitalkonzerne kritisch zu betrachten. Davon zeugte der Vortrag von Prof. Dr. Martin Werner von der Technischen Universität München in seinen Ausführungen zu „Next Steps for Big Geospatial Data“ anlässlich der Münchner GI-Runde im März 2021. Prof. Dr. M. Werner, an der neu gegründeten Fakultät für Luftfahrt, Raumfahrt und Geodäsie tätig: „Nur wer die Welt im Ganzen begreift, kann sie im Ganzen bewegen.“ Leider werden vielfältige Datenquellen heute dafür genutzt, um an der Mathematik sowie Statistik vorbei Fehlinterpretationen zu erzeugen.

Auch Fake News verbreiten sich aufgrund scheinbar seriöser Datenquellen aus dem Internet oder mithilfe von Social-Media-Kanälen. Zudem sind Rückschlüsse auf Basis von Satellitendaten oder Bilder im Internet möglich, die einen massiven Eingriff in die Privatsphäre und den Datenschutz bedeuten.

In diesem Kontext beschäftigt sich Prof. Dr. M. Werner mit besonders großen Datenmengen. Diese Daten werden aus unterschiedlichen Quellen gewonnen. „Wenn wir über Big Data sprechen, dann haben wir zunächst historische Karten. Die kommen seit einigen Jahren in Mode, auch weil wir automatisierte Textverarbeitung viel besser können“, erklärte Prof. Dr. M. Werner. Und er ergänzt: „Wir versuchen mittlerweile nicht nur die Gegenwart mit Sensoren zu erfassen, sondern auch die Historie. Wie haben die Menschen die Welt gesehen, bevor sie Satelliten gebaut haben?“ Dies sei nach Prof. Dr. M. Werners Ansicht eine Zuordnung zur Vogelperspektive von oben. Als weitere Datengrundlagen gibt es Satellitendaten, moderne Radardaten, aber auch von Menschen selbst generierte Daten. Hinzu kommen Social-Media-Daten aus Meinungsäußerungen oder Bots, aus denen sich jede Menge Informationen ableiten lassen.

„FAIR“-Prinzipien

In Summe steckt dahinter „Big Geospatial Data“. Gleichzeitig ist dies die Herausforderung. Und die heißt: mit den Datenmassen richtig umzugehen. Hierzu gehört die Beweisführung, dass Aussagen schlüssig sind, um die richtigen Interpretationen aus den gewonnenen Informationen zu ziehen. Nur so lasse sich nach Prof. Dr. M. Werners Dafürhalten aus den Daten ein Wert für die Wissenschaft oder Gesellschaft erzeugen. Damit verbunden ist gleichzeitig, dass Daten von anderen Wissenschaftlern gefunden werden und frei zugänglich sind. „Standards sind wichtig“, so Prof. Dr. M. Werner. Sprich eine Darstellung, die alle verstehen. Um dies in der wissenschaftlichen Praxis umzusetzen, dienen die sogenannten „FAIR“-Prinzipien als eine Art Leitlinien. Dabei ist „FAIR“ die Abkürzung für Findability, Accessibility, Interoperabilität und Reusability digitaler Daten. Ein wichtiger Ansatz, gerade um den richtigen Blickwinkel auf Daten und deren valider Interpretation zu gewinnen. Und nicht nur das. Denn gleichzeitig geht es darum, dem zunehmenden Hacking krimineller Einzeltäter und Gruppen etwas entgegenzusetzen. Mit einem Blick nach vorne prognostiziert Prof. Dr. M. Werner: „Wir werden in ein Geohacking hineinlaufen, wenn die Genauigkeiten zunehmen.“ Seiner Meinung nach müsse man keine Kriminellen suchen. Vielmehr sei es umgekehrt, sprich, wenn Kriminelle Daten fänden, würden sie mit diesen auch etwas tun.

 


Das Thema Datenanalyse und -nutzung wird auch in der kommenden Ausgabe 3/2021 der gis.Business behandelt.


Keywords: Geo-IT, Geoinformation, Geo, Geoinformatik, GI, Geodaten, Big Data, Big Geospatial Data