Blog

Seite weiterempfehlenSeite drucken

Wasser, Krise, Geodaten

Andreas Eicher
Andreas Eicher 23.04.2018

Kennen Sie den: Warum ist Wasser im Rhein? Damit die Schiffe nicht stauben! Nun, so weit sind wir hierzulande zum Glück noch nicht. Ganz im Gegenteil zu vielen anderen Gebieten auf der Erde, wo Wasser knapp ist und Schiffe wirklich stauben. In diesen Ländern ist der etwas flache Witz längst Realität. So wie in Bolivien. Dort ist der ehemals zweitgrößte See des Landes, der Lago Poopó, fast völlig ausgetrocknet. Ein Grund ist die Wasserentnahme des Zuflusses. Nun liegen die Fischerboote auf dem trockenen Grund des Sees. Gleiches zählt für den Aralsee zwischen Kasachstan und Usbekistan. Er war einst das viertgrößte Binnengewässer der Erde. Oder den Tschadsee in Afrika. Überall auf der Erde ist das Austrocknen von Gewässern zu beobachten. Nach Expertenmeinung nichts Ungewöhnliches. Aber der Mensch beschleunigt diesen Prozess – die übermäßige Wasserentnahme für die Landwirtschaft trägt merklich dazu bei. Hinzu kommen massive Eingriffe in die Ökosysteme durch den Menschen.Weiterlesen


Was darf es sein? Ein dutzend Aal oder tausend Megawattstunden Strom

Andreas Eicher
Andreas Eicher 23.03.2018

Der eine oder andere war bestimmt schon einmal auf einem Fest der Marktschreier. Dort stehen hoch auf ihren Lkws Männer und Frauen, verkaufen lauthals Fisch, Wurst, Käse oder Pflanzen. Das Prinzip: Es geht nicht um ein Stück Aal oder eine Yucca-Palme. Nein, im Dutzend muss es sein, viel und möglichst billig. So schreien die Verkäufer ihre Waren an das Publikum – charmant, schnoddrig, augenzwinkernd versteht sich, aber immer mit Geschäftssinn.Weiterlesen


Von Sturmhauben, Veganern und dem Terrorkampf

Andreas Eicher
Andreas Eicher 27.06.2017

Menschen mit Sturmhauben auf dem Kopf im Supermarkt zwischen den Regalen. Vater, Mutter mit großen Masken, die Kinder tragen kleine Masken. Nein, es handelt sich hierbei nicht um einen Familienüberfall beim Discounter oder Einzelhändler um die Ecke. Vielmehr geht es um die Verschleierung des eigenen Gesichts. Hintergrund des fiktiven und zugleich makabren Treibens sind die fortschreitenden Analysemethoden von Handelsunternehmen in ihren Verkaufsgeschäften. Denn die planen die Gesichtserkennung in ihren Märkten voranzutreiben. Als Reaktion auf den zunehmenden Onlinehandel möchten die Einzelhandelskonzerne dem Big-Data-Treiben im Internet in nichts nachstehen und rüsten auf. So sollen mithilfe analytischer Methoden die Interessen und das Kaufverhalten von Kunden bereits im Supermarkt in zielgerichtete Werbung münden. Spiegel Online schriebt hierzu: „Die Zeiten, in der Verbraucher ziellos und unbehelligt durch einen Supermarkt laufen können, sind vorbei.“ Und das Nachrichtenportal führt fort: „Wer gedankenlos auf einen Bildschirm mit Werbung blickt, bekommt in vielen Märkten bereits heute das zu sehen, was ihn – vermeintlich – interessiert. Kameras analysieren, wie lange jemand den Filmen zusieht und wer vor ihnen steht: Mann oder Frau, alt oder jung – das System wählt zielgruppengerechte Spots aus“ [1].

Krieg, Terror oder die Simpsons

Im Grunde setzen Einzelhandelskonzerne damit einen Trend fort, der seit Jahren in allen Bereichen des wirtschaftlichen, politischen und privaten Lebens Einzug hält. Es geht um die Vermessung des Menschen in allen Facetten, um Bewegungsprofile und letztlich darum zu erfahren, wer, wann, wo und vor allem warum ist. Die Gründe sind vielfältig und münden doch in einem: Dem Denken des anderen möglichst einen Schritt voraus zu sein und sein Kaufverhalten, seine Wünsche, bösen Absichten oder geplanten Taten vorauszusehen. So entsteht eine intransparente Gemengelage aus Marketingzielen, Verkaufsförderung, Gefahrenabwehr und Terrorbekämpfung. Leider in vielen Fällen ohne das Wissen des Untersuchten, der beobachteten Personen. Was im Zuge des Kampfes gegen organisierte Kriminalität und Terror oder im frühen Erkennen möglicher Naturkatastrophen, Unfallgefahren sowie dem Schutz bedrohter Tiere gerechtfertigt erscheint, ist es an anderer Stelle noch lange nicht. Denn ob jemand sich vegan ernährt oder jeden Tag Fleisch kauft, ist eine moralische Frage, die jeder für sich beantworten muss oder auch nicht. Gleiches zählt für den Gang zur Disco, wie lange jemand dort tanzt oder ob er lieber nachts vor dem Bildschirm sitzt und Florian Silbereisen, die Simpsons oder Talkshows schaut. Das ist Privatsphäre. Ein Wort, das übrigens viel im Zusammenhang mit dem Thema Datenschutz in den Medien herumgeistert. Und doch wird der Datenschutz zusehends ausgehöhlt.

Massendatenauswertung und eine harte politische Hand

Schauen wir nach Berlin. Dort hat das Bundesministerium des Inneren, kurz BMI, im Januar dieses Jahres den Startschuss für ZITiS gegeben. Dahinter verbirgt sich die Zentrale Stelle für Informationstechnik im Sicherheitsbereich, deren Sitz in München ist. Auf den BMI-Seiten heißt es hierzu: „ZITiS ist Bestandteil der Cyber-Sicherheitsstrategie für Deutschland. Sie ist eine Forschungs- und Entwicklungsstelle und soll Expertise in technischen Fragestellungen mit Cyberbezug für die Sicherheitsbehörden des BMI abdecken.“ Die etwas unklare Formulierung löst sich zwei Absätze weiter auf. Denn die Aufgaben liegen unter anderem in den Bereichen „der digitalen Forensik“, „der Telekommunikationsüberwachung“, „der Kryptoanalyse (Dekryptierung)“ und der „Massendatenauswertung“, sprich Big Data. Das alles, um Kriminalität zu bekämpfen, Gefahren abzuwehren und Spionage vorzubeugen. Bundesinnenminister Dr. Thomas de Maizière: „Eine ganze Reihe von Ereignissen mit kriminellem, insbesondere aber terroristischem Hintergrund im Verlauf des Jahres 2016 haben unsere Sicherheitsbehörden auch vor technische Herausforderungen gestellt. Daher ist die Einrichtung einer Zentralen Stelle für Informationstechnik im Sicherheitsbereich (ZITiS) im Geschäftsbereich des Bundesministeriums des Innern von großer Bedeutung“ [2]. Ideen, Gedanken, Daten sammeln – immer und überall (Bild: fotolia.com_wladimir1804) Klar ist, dass in Zeiten des Terrors alle möglichen Mittel und Wege gesucht werden, um Daten legal zu sammeln und auszuwerten. Und wo Verschlüsselung besteht, will man im Hause de Maizière diese brechen und nach Möglichkeit „Hintertüren“ einbauen. So positionierte sich der Minister im Rahmen der letzten „re:publica 2017“ nach WDR-Aussagen „klar gegen eine wirksame Ende-zu-Ende-Verschlüsselung: Es sei nicht hinnehmbar, Messenger-Nachrichten nicht so wie SMS auswerten zu können“ [3]. Außerdem ist Bundestagswahlkampf und eine harte politische Hand beim Thema der inneren Sicherheit liegt im Trend, wie die jüngsten Landtagswahlen in Schleswig-Holstein und Nordrhein-Westfalen zeigten. Zwar wehren sich digitale Großkonzerne gegen die Forderungen des Mitlesens und -hörens durch staatliche Stellen. Aber im Grunde besteht eine gewisse Seelenverwandtschaft von Staat und Digitalunternehmen der Marke Google, Amazon & Co. Diese beruht auf dem Sammeln und Auswerten riesiger Datenmengen. Die einen tun es, um die Kontrolle über den Bürger und die Deutungshoheit digitaler Informationen – auch im internationalen Cyberkampf – zurückzubekommen. Die anderen, um den Kunden besser einzuordnen und sein Denken, seine Wege und sein Einkaufsverhalten frühzeitig zu analysieren und vorauszusehen. Vielleicht kommen Sturmhauben dann doch irgendwann in Mode. Sprich beim Einkauf der ganzen Familie: „Habt ihr eure Sturmhauben auf?“ fragen die Eltern vor dem Einkaufen ihre Kinder auf dem Rücksitz. „Ja“, antworten die wie selbstverständlich. Oder es kommt ganz anders und die Menschen sind froh, dass sie alles vor die Nase gesetzt bekommen – und sei es nur die angeblich personalisierteste Werbung. Wir werden es sehen und George Orwell dreht sich in der Zwischenzeit im Grabe um. Quellen: [1] www.spiegel.de/wirtschaft/gesichtserkennung-im-supermarkt-datensammler-ruesten-auf-a-1150335.html  [2] www.bmi.bund.de/SharedDocs/Pressemitteilungen/DE/2017/01/zitis-vorstellung.html  [3] blog.wdr.de/digitalistan/politik-gesetze-und-filterblasen-notizen-von-tag-drei-der-republica-2017/ Weiterlesen


Vom BIM zum „BUM“?

Andreas Eicher
Andreas Eicher 30.05.2017

Das Marktforschungsinstitut „Research and Markets“ prognostiziert in einer Studie „Global Building Information Modeling Software Market 2016-2020“ das Wachstum des weltweiten BIM-Softwaremarkts um 17 Prozent bis 2020 [1]. Das klingt zunächst vielversprechend. Und doch muss bei genauerem Hinsehen eine Antwort lauten: „Setzen sechs“. Nicht was das Wachstum betrifft, sondern die Zusammenhänge. Denn BIM auf Software zu reduzieren, ist mehr als töricht. So schreibt das „Deutsche Architektenblatt“ bereits 2016: „BIM Methode, nicht Software“. Und der Beitrag folgert: „Building Information Modeling, was übersetzt etwa „Bauwerksdatenmodellierung“ bedeutet, ist keine Software. Darunter versteht man vielmehr jene Planungsmethoden und Prozesse, die für die Erstellung, Koordination und Übergabe konsistenter, für alle Beteiligten zugänglicher digitaler Gebäudedatenmodelle erforderlich sind“ [2]. Doch so einfach ist es nicht mit der Definition und dem Verständnis von BIM. Denn die drei Buchstaben und deren Inhalte sind alles andere als klar, sprich definiert. Bereits der „BIM-Anwendertag“ im Jahr 2015 brachte es auf den Punkt: „Dabei ist es sehr interessant zu sehen, wie unterschiedlich die Herangehensweisen sind und dabei voneinander profitieren können. Die einen machen einfach „BIM“ oder „BIM“-Management, die anderen forschen daran und befassen sich damit, wie das eigentlich in die aktuelle Planungslandschaft einzubetten ist. Es gibt noch nicht sehr viele Definitionen von Leistungsbildern oder Abläufen. Auf jeden Fall hat noch keiner die Wahrheit gefunden, aber alle arbeiten zusammen an einer deren Findung“ [3]. Oliver Bürkler, Senior Produkt Manager bei Faro, sieht in diesem Kontext BIM als einen ganzheitlichen Prozess im Bauumfeld und wichtigen Faktor: „Dabei geht es um eine neue Methode und weniger darum, ein Stück Software zu verkaufen.“ Und diesen Prozess müssen Unternehmen leben, wollen sie mit BIM erfolgreich Projekte durchführen. Um das Thema BIM zu „ordnen“, schaltet sich die Politik verstärkt in den Gesamtprozess ein. In einem selbst auferlegten „Stufenplan zur Einführung von Building Information Modeling (BIM)“ möchte das BMVI die digitalen Plan- und Bauvorhaben umsetzen. Das erklärte Ziel heißt, BIM ab 2020 bei neu zu planenden Projekten regelmäßig anzuwenden [4]. Das ist löblich, zeigt aber, dass das Thema hierzulande noch nicht flächendeckend und vor allem bindend zum Einsatz kommt. Gründe waren bis dato unter anderem fehlende Regularien in Bezug auf BIM-Verträge und -Richtlinien sowie der mangelnden Rechtssicherheit in puncto möglicher Preisgestaltungen. Und das sehen Kritiker als Risiko – eben eines Scheiterns des theoretischen Themas BIM in der Praxis.

Von Regularien und Standards beim Bauen 4.0

Um das zu verhindern, arbeiten Politik, Verbände und Unternehmen seit geraumer Zeit an verbindlichen Regularien, Richtlinien und Standards. Einen umfassenden Überblick bietet beispielsweise der BIM-Leitfaden, der als Forschungsprogramm des ehemaligen Bundesministeriums für Verkehr, Bau und Stadtentwicklung (BMVBS) – dem heutigen BMVI – von 2012 bis 2013 entstanden ist. Federführend bei diesem Forschungsprojekt war die Arbeitsgemeinschaft Obermeyer Planen + Beraten GmbH und AEC3 Deutschland GmbH. Mit Obermeyer und AEC3 waren damit zwei Unternehmen in den Forschungsaustrag eingebunden, die sich seit langer Zeit mit der Entwicklung neutraler Standards sowie der Projektarbeit und Beratung von BIM und den Methoden beschäftigen. Der Leitfaden ist „eine erste Annäherung an das Thema BIM und die damit verbundenen Anforderungen, die bei der Einführung dieser neuen Arbeitsmethode in ein Unternehmen oder bei der Anwendung in einem Projekt beachtet werden müssen“ [5]. Im Umkehrschluss zeigt sich, dass es noch vieles zu tun gibt in Sachen Gesetzen, Standards und Richtlinien beim Thema BIM. Alexander Dobrindt, Bundesminister für Verkehr und digitale Infrastruktur, zeigt sich indes zuversichtlich: „Mit BIM lassen sich Dauer, Kosten und Risiken großer Bauprojekte in erheblichem Umfang reduzieren. Unser Ziel ist es, Innovationsführer beim digitalen Bauen zu werden. In Zukunft soll in Deutschland der klare Grundsatz gelten: Erst digital, dann real bauen.“ Und das heißt: BIM fest zu verankern mithilfe eines Masterplans „Bauen 4.0“ [6]. Die hoch gesteckten Ziele aus dem Ministerium Dobrindts sind indes noch im Konjunktiv zu sehen, denn neben einem bis dato fehlenden BIM-Gesamtstandard hat „der öffentliche Auftraggeber in Deutschland bislang kaum Erfahrungen mit der BIM-Methode“ [7].

Einheitliches Verständnis sowie Aus- und Weiterbildung

Um das Thema BIM voranzutreiben, ist das Wissen um die Methode, der Prozesse und vor allem ein einheitliches Verständnis erforderlich. Bereits bei der Definition von BIM unterscheiden sich die Geister. Für die einen bedeutet BIM einen Ordner auf dem Laufwerk oder sie sehen darin überwiegend Software. Für die anderen ist BIM eine fundamentale Prozess- und Methodenänderung im kompletten Lebenszyklus des Bauprojekts. Zwischen diesen Extremen existieren viele Wahrheiten, Auffassungen und Erklärungsversuche. Dass dies für das Gesamtverständnis von BIM hinderlich ist, liegt auf der Hand. In diesem Zuge könnten verstärkte Aus- und Weiterbildungsgänge das Wissen zum Thema BIM fördern. Allerdings ist Deutschland von einer einheitlichen und flächendeckenden Lehre noch weit entfernt. Kurzum: Es mangelt an Wissen im Umgang mit BIM. Und diese Wissenslücke wird sicher weiter verstärken, wenn es keine tief greifenden Änderungen bei der Etablierung neuer Aus- und Weiterbildungsmöglichkeiten gibt. Denn BIM wird gesetzlich zur Pflicht und damit entsteht ein zunehmender Bedarf an gut ausgebildeten Mitarbeitern.
Eines der wichtigsten Themen: Die Aus- und Weiterbildung im BIM-Bereich (Bild: fotolia.com_Trueffelpix)
Diesen Bedarf erkennen die Universitäten und bieten mittlerweile BIM-Seminare, Kurse und Lehrveranstaltungen an. Neben der Bauhaus-Universität Weimar mit der Ausbildung „Building Information Modeling (Kommunikationssysteme)“, dem interdisziplinären BIM-Kurs an der Technischen Universität München oder der Technischen Universität Kaiserslautern mit ihrer Einführung zum Thema BIM. Und auch die Universität Leipzig bot im vergangenen Jahr einen zweitägigen Workshop zu BIM an. Auf den Punkt gebracht ist das bisher zu wenig. Denn trotz zaghafter Fortschritte darf nicht übersehen werden, dass fundierte Aus- und Weiterbildungen bis dato eher selten sind. So beschränken sich die Fortbildungswege meist auf Initiativen privater Organisationen (teils in Kooperation mit Universitäten). Die TÜV Süd Akademie bietet beispielsweise eine Aus- und Weiterbildung zum „BIM Basis Anwender“ und „BIM Professional“ unter „Berücksichtigung der 5 BIM Faktoren: Menschen, Prozesse, Rahmenbedingungen, Technologien und Daten“ an [8]. Beim Unternehmen Hochtief ViCon wurde ein Schulungs- und Zertifizierungssystem entwickelt. Im Rahmen des modular aufgebauten Schulungssystems werden die „Nutzung der BIM-Anwendungen“ vermittelt und wie „mithilfe dieser Werkzeuge Prozesse effizienter gestaltet werden können“ [9]. Und auch „Mensch und Maschine“ (MuM) engagiert sich im BIM-Ausbildungsbereich. Das Unternehmen offeriert eine dreistufige Ausbildung (BIM Ready-Kurse) zum „BIM-Konstrukteur“ sowie „BIM-Koordinator“ und BIM-Manager“. Inhaltlich unterstützen die Kurse von MuM die „openBIM Standards“ der „buildingSMART International“. Die aufgezeigten Aus- und Weiterbildungswege können aktuell nur als Anfang gesehen werden. Ein wichtiger Punkt, den schon die Mancher des BIM-Leitfadens anmerkten: „Dringender Handlungsbedarf besteht in der Aus- und Weiterbildung, die an Hochschulen, Weiterbildungsinstitutionen und Fachakademien auf der Basis eines abgestimmten Grundkonzepts umgesetzt werden müsste. Der Fokus darf dabei nicht allein auf der Softwareschulung liegen, sondern die Zusammenhänge der BIM-Methode müssen ebenfalls vermittelt werden“ [10]. Es bleibt zu hoffen, BIM von der Theorie in die Praxis zu führen. Und vor allem, um die Sicht über den Tellerrand der reinen Software zu fördern. Andernfalls droht bei BIM das „BUM“ und die Beteiligten wachen mit einem großen Knall auf.

Quellen:

[1] http://www.researchandmarkets.com/research/5zdjnr/global_building [2] http://dabonline.de/2016/06/01/bim-methode-nicht-software/ [3] http://cc-bim.de/interview-der-bim-anwendertag-in-muenchen/ [4] https://www.bmvi.de/SharedDocs/DE/Artikel/DG/digitales-bauen.html [5 ] http://www.bbsr.bund.de/BBSR/DE/FP/ZB/Auftragsforschung/3Rahmenbedingungen/2013/BIMLeitfaden/Endbericht.pdf?__blob=publicationFile&v=2 [6]https://www.bmvi.de/SharedDocs/DE/Pressemitteilungen/2017/009-dobrindt-bim-gipfel.html?nn=214506 [7] https://www.bmvi.de/SharedDocs/DE/Anlage/Digitales/bim-leitfaden-deu.pdf?__blob=publicationFile [8] https://www.tuev-sued.de/akademie-de/seminare-technik/gebaeudetechnik-1/bim#tab_1464791179523822650735 [9] http://www.hochtief-vicon.de/vicon/BIM-Beratung/BIM-Training-5.jhtml [10] https://www.bmvi.de/SharedDocs/DE/Anlage/Digitales/bim-leitfaden-deu.pdf?__blob=publicationFile    Weiterlesen


Smart City: intelligent im Superlativ

Andreas Eicher
Andreas Eicher 10.04.2017

Was haben Konstanz, Ludwigsburg und Heidelberg gemeinsam? Richtig, es sind drei Städte in Baden-Württemberg, die touristisch viel zu bieten haben. Sei es der Bodensee für Konstanz, das Ludwigsburger Residenzschloss oder die Altstadt von Heidelberg. Zudem sind alle drei Städte zwischen Bodensee, Stuttgart und Rhein-Neckar beliebte Hochschul- und Universitätsstädte mit renommierten Forschungseinrichtungen. Und auch wirtschaftlich gehören alle drei Städte in ihren jeweiligen Regionen zu den Gewinnern im deutschlandweiten Vergleich. „Viel Freund, viel Ehr“ könnte man bei all den positiven Attributen sagen, zumal auch die Lebensqualität und der -standard in allen drei Regionen hoch sind. Als wäre das alles nicht genug, haben sich Konstanz, Ludwigsburg und Heidelberg um den Status einer Smart-City-Hauptstadt beworben.Weiterlesen


Erneuerbare Energien: Wege, Ziele, Geodaten

Andreas Eicher
Andreas Eicher 02.03.2017

„Step back in time to Old Holland“, so ein Slogan der Stadt Amsterdam. Dieses alte Holland konnten Bewohner und Besucher Mitte Januar 2017 hautnah erleben. Ein Stromausfall sorgte für mittelalterliche Stimmung in Amsterdam. Für Romantiker und Entschleuniger bei Kerzenlicht eine willkommene Abwechslung. Für die Wirtschaft und das öffentliche Leben ein Worst-Case-Szenario. Infolge des Blackouts in der Stromversorgung fielen Züge und Straßenbahnen aus. Und auch in Frankreich wackelt die Stromversorgung. Die frostigen Temperaturen der letzten Wochen sowie Wartungsarbeiten in einigen Kernkraftwerken sorgen für Engpässe. Ein Blick auf den deutschen Strommarkt zeigt, dass eine Stromunterbrechung kein abwegiges Thema darstellt. „Bei Stromausfall bricht in der Stadt das Chaos aus“, titelte der Tagesspiegel bereits 2014 [1]. Gemeint war die Hauptstadt Berlin. Ganz zu schweigen von Osteuropa, wo aufgrund von Krieg kurzerhand der Strom abgestellt wird, Länder nicht versorgt werden oder der gesamte Strommarkt samt Infrastruktur mehr als wackelig ist. Ein Grundproblem zeigt sich unter anderem in der Abhängigkeit von fossilen Brennstoffen. Laut Statistischem Bundesamt „basierte die Energieversorgung in Europa sehr stark auf den fossilen Brennstoffen Kohle, Erdöl und Erdgas.“ Und weiter heißt es: „In den letzten 40 Jahren wurden sie von der Kernenergie als nicht-fossilem Brennstoff ergänzt. Angesichts des Klimawandels und knapper werdender Ressourcen gewinnen die erneuerbaren Energieträger wie Wasser, Wind und Biomasse zunehmend an Bedeutung“ [2]. Ein Papier zum Thema „Erneuerbare Energien in Zahlen“, herausgegeben vom Bundesministerium für Wirtschaft und Energie (BMWi), sieht den Bereich der erneuerbaren Energien bei der Stromerzeugung weiter auf dem Vormarsch. „Gut 187 Milliarden Kilowattstunden Strom (2014: 161 Milliarden Kilowattstunden) wurden im Jahr 2015 aus erneuerbaren Energien erzeugt. Damit konnten die Erneuerbaren ihren ersten Rang im Strombereich vor der Braunkohle deutlich ausbauen und erreichten einen Anteil von 31,6 Prozent am Bruttostromverbrauch (2014: 27,3 Prozent)“, so das BMWi [3]. Das Fraunhofer ISE hat „Aktuelle Fakten zur Photovoltaik in Deutschland“ zusammengestellt. „In Summe produzierten die Erneuerbaren Energiequellen Solar, Wind, Wasser und Biomasse im Jahr 2016 ca. 186 TWh. Sie liegen damit ungefähr auf dem Niveau des Vorjahres“ [4]. Das klingt erfreulich, gerade vor dem Hintergrund, dass der Ausbau des erneuerbaren Energiesektors eine zentrale Säule der Energiewende für das BMWi bedeutet. Mithilfe des Erneuerbare-Energien-Gesetzes (EEG) verfolgt das Ministerium den Umbau der Energieversorgung, um „den Anteil der erneuerbaren Energien an der Stromversorgung bis 2050 auf mindestens 80 Prozent zu steigern“ [5]. Damit sollen vor allem der Klima- und Umweltschutz gestärkt sowie die volkswirtschaftlichen Kosten einer zukünftigen Energieversorgung reduziert werden. Ein wichtiger Moment in diesem Kontext spielt die technologische Entwicklung, um den Bereich der erneuerbaren Energien zielführend und zukunftssicher voranzutreiben – auch und gerade mithilfe von Geoinformationen.

Neue Regelungen und Hemmnisse

Und doch sind Zweifel angebracht am zukünftigen Weg hin zu einer Gesamtstrategie im Energiesektor. Zwar setzt die Europäische Union (EU) darauf, den Anteil erneuerbarer Energien am Energieverbrauch in der EU bis 2030 auf mindestens 27 Prozent zu erhöhen [6], doch trübt das Ende 2016 veröffentlichte Energiepaket der EU den eingeschlagenen Weg. Dieses „Energiepaket“ sieht unter anderem zukünftig stärkere Regeln bei der Einspeisung für erneuerbare Energien vor. Laut Nachrichtenportal „euronews“ sollen „erneuerbare Energien keinen bevorzugten Zugang zu den Netzen bekommen“ [7]. Der Bundesverband Erneuerbare Energie e. V. (BEE) schreibt hierzu: „So sollen nach dem Willen der EU-Kommission Erneuerbare Energien nicht mehr in vollem Umfang bevorzugt einspeisen dürfen, sondern nur Anlagen mit einer Leistung unter 250 kW, wenn gleichzeitig Ökostrom einen Anteil von 15 Prozent an der Stromerzeugung erreicht hat“. Rainer Hinrichs-Rahlwes, Europaexperte im BEE-Vorstand:„Durch die jetzigen Rahmenbedingungen für Fördersysteme fehlen Investoren Investitions- und Rechtssicherheit“. Und er ergänzt: „Das verlangsamt die Energiewende, konterkariert die Klimaschutzziele und verunsichert Investoren“ [8]. Nun liegt es in der Natur der Sache, dass das offizielle Sprachrohr pro erneuerbare Energien die geplanten Einschränkungen kritisch sieht. Gegenwind kommt auch von der Deutschen Umwelthilfe (DUH). Diese kritisiert die Vorschläge aus Brüssel, da „sich die Klimabeschlüsse von Paris darin nicht widerspiegeln und erneuerbare Energien ausgebremst werden“. Für die DUH stelle der Wegfall des Einspeisevorrangs für erneuerbare Energien die Gefahr dar, dass „Strom aus klimaschädlicher Erzeugung den erneuerbaren Strom im Netz verdrängt und mehr Treibhausgase ausgestoßen werden“ [9]. Kritik kam Anfang des Jahres auch von der Süddeutschen Zeitung (SZ). Diese schrieb mit Bezug auf den Rechnungshof: „Die Bundesregierung macht schwere Fehler in der Energiepolitik. Das geht aus einem Bericht des Bundesrechnungshofs hervor, über den die FAZ berichtet. In dem noch unveröffentlichten Dokument, das dem Haushaltsausschuss des Bundestags vorgelegt werden soll, ist die Rede von schwerwiegenden Mängeln bei der Kontrolle der Energiewende“ [10]. Im Grunde werden damit Vorhaben zur Förderung erneuerbarer Energien ad absurdum geführt. Wenn die politisch Verantwortlichen nicht willens sind, verbindliche und vor allem investorenfreundliche Regelungen zu treffen, kommen Initiativen im erneuerbaren Energieumfeld nicht vom Fleck.
Energiewende heißt auch, viele Faktoren zu berücksichtigen (Bild: fotolia.com_K.C.)

Von Technologien, Big-Data und der Wissenschaft

Die Energiewende zu gestalten heißt auch, auf neue Technologien zu setzen. Nicht im Sinne „smarter“ Marketingbegriffe, deren Inhalte und Bedeutungen sich dem Betrachter kaum erschließen. Vor allem deshalb, weil die intelligenten Energielösungen zunächst die Verkaufsstrategien der Unternehmen beflügeln und nicht in erster Linie Aufklärungsarbeit leisten. Etwas realistischer sah das Ganze Wirtschafts- und Energieminister Sigmar Gabriel bereits im Jahr 2014: „Der Umbau der Energieversorgung in Deutschland ist ein Jahrhundertprojekt, das wir zum Erfolg führen wollen. (…) Das Technologieprogramm E-Energy leistet hierzu einen wichtigen Beitrag. So kann etwa der Netzbetrieb durch den Einsatz von Informations- und Kommunikationstechnologien wesentlich effizienter werden“ [11]. In diesem Technologiemix können Geoinformationen einen entscheidenden Mehrwert bieten. Darauf verweist unter anderem der Verband der Geoinformationswirtschaft Berlin Brandenburg e. V.: „Geoinformationstechnologien spielen für viele Entscheidungsfindungen und Prozessoptimierungen eine zentrale Rolle“, unter anderem „bei der Auswahl von Standorten für erneuerbare Energien“ [12]. Beispielsweise setzt das Unternehmen Esri mit GIS-Technologien auf eine schnellere Energiewende. Hierzu hießt es aus dem Unternehmen: „Schon heute dient Esri Technologie den Energieerzeugern, Projektierern und Anlagenherstellern bei der Identifizierung neuer Standorte, bei der Planung neuer Transporttrassen und der Netzanbindungsanalyse“. Konkret verknüpft Esri damit Apps und „Fachschalen zur Zeichnung und Konstruktion von Windkraftanlagen“ [13]. Und auch im Bereich der erneuerbaren Energien spielt Big Data eine wichtige Rolle. Die Deutsche Welle (DW) berichtete in einem Beitrag zu „Windkraft: Mehr Effizienz durch Big Data“ vom Oktober 2016 davon, dass „immer mehr Firmen und Forschungseinrichtungen im Bereich der erneuerbaren Energien (…) auf Big Data“ setzen. Und weiter heißt es: „Sie sammeln riesige Datenmengen, filtern sie und werten sie aus, um den optimalen Nutzen daraus ziehen zu können. Das Potenzial dieser Daten insbesondere im Bereich der Windstromerzeugung ist immens“ [14]. Den Betreiberfirmen sei es mithilfe der Daten möglich, wichtige Informationen über den Zustand der Anlagen zu erhalten sowie Vorhersagen für eine effizientere Nutzung der Turbinen zu treffen. In eine ähnliche Richtung denken auch die Wissenschaftler am Lehrstuhl für Geoinformations-Engineering der Eidgenössischen Technischen Hochschule Zürich (ETH). Der Lehrstuhl forscht an der Entwicklung von Algorithmen und Berechnungsverfahren, „um das technische und ökonomische Potenzial der Wind- und Sonnenenergie in der Schweiz zu bestimmen“. Ein aktuelles Projekt beschäftigt sich mit der Entwicklung eines Programms, das dem Anwender unter anderem die Bestimmung geeigneter Standorte für Wind- und Solaranlagen in der Schweiz ermöglicht [15]. Die Hochschule für Technik Stuttgart (HFT) hat im Rahmen eines Projekts im Studiengang „Vermessung und Geoinformatik“ ein Geoinformationssystem zum Thema erneuerbare Energiequellen aufgebaut. Das sogenannte „GreenEnergyGIS“ „informiert Benutzer über den aktuellen Stand vorhandener Anlagen in Deutschland“ – von Windkraftanlagen über Wasserkraftwerke bis zu Biogasanlagen und Solarkraftwerke. Die Daten werden in einer Karte dargestellt. Als Datengrundlage der GIS-Anwendung dient OpenStreetMap [16]. Solche Vorhaben unterstützten den erneuerbaren Energiesektor. Sie sind ein wichtiges Bindeglied, um mithilfe der Wissenschaft zu neuen Erkenntnissen und Prozessen im Big-Data-Umfeld zu gelangen. Wichtig bei all dem ist es aber, diese Daten sinnstiftend zu verknüpfen und auszuwerten. Im Sinne neuer Wege und Ziele im Bereich der erneuerbaren Energien. Die Zeit drängt. Bezeichnet in diesem Zusammenhang: Graeme Maxton, Generalsekretär des Club of Rome, forderte im Rahmen des 5. Stuttgarter Forum für Entwicklung im Oktober 2016 in Stuttgart eine stärkere Zusammenarbeit aller Akteure – von der Zivilgesellschaft über Nationalstaaten bis zur Wirtschaft. Für G. Maxton sei eine Umkehr unumgänglich und machbar. Denn es sei keine Frage der Technologie oder der Finanzen. „Wir haben alles“, so G. Maxton. Es sei einzig eine Frage der Organisation. Also ein Aufruf zum Handeln. Sonst droht nicht nur „Old Holland“, sondern das alte Europa mit Kerzenschein im Dauermodus. » Mehr zum Thema erfahren Sie in der aktuellen Ausgabe der gis.Business.
Quellen: [1] http://www.tagesspiegel.de/berlin/katastrophenschutz-in-berlin-bei-stromausfall-bricht-in-der-stadt-das-chaos-aus/9444242.html [2] https://www.destatis.de/DE/Publikationen/Thematisch/Internationales/FaltblattErneuerbareEnergien0040003119001.pdf?__blob=publicationFile [3] http://www.bmwi.de/BMWi/Redaktion/PDF/E/erneuerbare-energien-in-zahlen,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf [4] https://www.ise.fraunhofer.de/de/daten-zu-erneuerbaren-energien/daten-zu-erneuerbaren-energien#title-35c311fe59f68fd093cdfb5b33123914 [5] http://www.erneuerbare-energien.de/EE/Redaktion/DE/Dossier/eeg.html [6] http://ec.europa.eu/clima/policies/strategies/2030_de [7] http://de.euronews.com/2016/11/29/heftige-kritik-am-eu-energiepaket [8] http://www.bee-ev.de/home/presse/mitteilungen/detailansicht/verpasste-chance-eu-kommission-verlangsamt-europaeische-energiewende/ [9] http://www.presseportal.de/pm/22521/3496685 [10] http://www.sueddeutsche.de/wirtschaft/erneuerbare-energien-rechnungshof-regierung-macht-teure-fehler-bei-der-energiewende-1.3329829 [11] http://www.erneuerbare-energien.de/EE/Redaktion/DE/Pressemitteilungen/2014/2014-05-07-gabriel-informations-und-kommunikationstechnologien-sind-ein-wichtiger-baustein-der-energiewende.html [12] http://www.geokomm.de/zahlen-und-fakten.html [13] https://www.esri.de/branchen/ver-und-entsorgung/erneuerbare-energien [14] http://www.dw.com/de/windkraft-mehr-effizienz-durch-big-data/a-36211691 [15] http://www.gis.ethz.ch/forschung/gis-fuer-erneuerbare-energien.html [16] https://www.hft-stuttgart.de/Studienbereiche/Vermessung/Bachelor-Vermessung-Geoinformatik/Projekte/greenenergygis/index.html/deWeiterlesen


„Wir stellen uns den Herausforderungen unserer Kunden“

Andreas Eicher
Andreas Eicher 12.10.2016

Die Intergeo in Hamburg läuft. Mittendrin statt nur dabei ist einer der Platzhirsche der Geoinformationsbranche, Zoller + Fröhlich. Das Unternehmen zählt mit seinen weltweit rund 260 Mitarbeitern zu einem der Stammgäste der Leitmesse für Geoinformationen. Die Redaktion von gis.Business sprach mit Simon Kresser, Marketingmitarbeiter beim Allgäuer Unternehmen, über Produkte, Eindrücke und Weitblicke im Sinne des Kunden, im Rahmen der Veranstaltung. Ein Interview – kurz und bündig.Weiterlesen


„Eine Gefahr ist Technologie-Blindheit“

Andreas Eicher
Andreas Eicher 27.09.2016

Im Interview: Tom Köhler, international anerkannter Strategie Experte für Cybersecurity und Governance, Risk & Compliance.Weiterlesen


Location Intelligence: wenn das Wo entscheidet

Andreas Eicher
Andreas Eicher 15.06.2015

„Wer? Wie? Was? … Wieso? Weshalb? Warum? Wer nicht fragt bleibt dumm!“ Kinder- und Erwachsenenohren hören es immer wieder gerne. Das alte Lied zur Sesamstraße. Recht haben die Kleinen im Intro. Fragen stellen ist wichtig im Leben. Und das merken die Kinder spätestens in der Schule und danach als Erwachsene im Berufsleben. Apropos: Unternehmensvertreter stellen immer mehr Fragen. Aufgrund der steigenden Datenflut und damit einhergehender digitaler Fingerabdrücke wissen Organisationen um den wahren Schatz in unserer modernen Welt: Informationen. Im Grunde geht es darum, Informationen zu filtern, miteinander zu verknüpfen und Rückschlüsse für die eigene Verkaufs-, Dienstleistungs- und Marketingstrategie zu nutzen. Längst beschäftigen sich ganze Heerscharen an Experten mit ihren Hochleistungsrechnern und Algorithmen damit, das scheinbar noch so kleine Detail über (potenzielle) Konsumenten herauszufinden. Und das gelingt immer stärker, tiefer und weitreichender. Mit anderen Worten: Willkommen im digitalen Zeitalter und einer „Immer-und-überall-Sicht“ auf Kunden und Bürger. Die Zauberformel dafür heißt Big Business mit Big Data und Location Intelligence.


Big Data

Der Definition des Digitalverbandes BITKOM folgend, bezeichnet Big Data „die Analyse großer Datenmengen aus vielfältigen Quellen in hoher Geschwindigkeit mit dem Ziel, wirtschaftlichen Nutzen zu erzeugen.“ Zu diesen „vielfältigen Quellen gehören nach dem „Gabler Wirtschaftslexikon“ große Datenmengen – beispielsweise aus den Bereichen Internet, der Finanzindustrie und Energiewirtschaft, dem Verkehr, aus sozialen Medien und Smart-Metering-Systemen, Assistenzgeräten und Fahrzeugen. Nach Expertenansicht sind Big-Data-Ansätze dann besonders wertvoll, wenn es um das Erkennen bisher unbekannter Muster in vorhandenen Datenbeständen geht.
Bei Amazon und Google ist der durchleuchtete und überwachte Mensch längst Realität. Seit Jahren laufen riesige Informationsmengen ungehindert in den eigenen Rechenzentren zusammen, um unser komplettes Privat- und Berufsleben abzuspeichern, vorauszusagen und in Verkaufsstrategien umzuwandeln. Im Mittelpunkt steht die Frage: Wer ist warum und wann an welchem Ort? Sprich wo sind die Kunden und wie können Zusammenhänge für die eigene Strategie hergestellt werden. Nach Ansicht von Experten, wie Dr. Roland Franz Erben, Professor für BWL im Studiengang „Wirtschaftspsychologie“ an der Hochschule für Technik (HFT) in Stuttgart, liegen in den Unternehmen bereits umfangreiche Informationen über das „Wo?“ vor. „Diese werden aber bisher noch nicht intelligent genug genutzt und in einen größeren Kontext eingebracht“, erklärt Prof. Dr. Erben.  

Vom Business zum Location Intelligence

Längst sind Informationen über (potenzielle) Kunden und Bürger die neue DNA; manche sprechen auch von den neuen Diamanten unserer Zeit. Bezeichnend ist in diesem Zusammenhang die Aussage der Business-Professorin, Susan Athey, in einen Zeit-Beitrag: „Die Daten über unser Verhalten explodieren förmlich.“ Kein Wunder bei ständig steigenden Datenmengen. Um diese Informationsflut systematisch zu analysieren, bietet sich der Einsatz einer Business-Intelligence-Lösung (BI) an. Vor allem große Datenmengen bedürfen nach den Worten der BITKOM intelligente Analyse-Verfahren und ein Aufbereiten von Informationen „jenseits der herkömmlichen Technologien“. Und für Prof. Dr. Roland Franz Erben ist es wichtig, „dass bestehende Analyse-Tools verbessert werden, um Kausalität von Koinzidenz zu unterscheiden“. Erben: „Das heißt, liegt den erkannten Mustern wirklich eine Ursache-Wirkungsbeziehung zugrunde oder kamen sie nur zufällig zustande.“ Eine wichtige Entscheidungshilfe bieten in diesem Kontext Business-Intelligence-Systeme. Für Organisationen ein wichtiger Schritt, um zu erfahren „Wer macht Was und Warum“. Mehr noch fließt der möglichst exakte Blick im Idealfall in die Entscheidungsfindung des Unternehmens ein. Als Erweiterung von BI-Lösungen und dem bekannten Bezugsrahmen dient die Dimension der Rauminformationen. Die Frage nach dem „Wo“ findet etwas statt wird mit Geoinformationslösungen und -daten beantwortet. Dieser Raumbezug fließt in betriebswirtschaftliche Überlegungen und Prozesse ein. Dahinter steht „Location Intelligence“, also die erweiterte Analysemöglichkeit und damit verbesserte Entscheidungs- und Geschäftsprozesse. Im Klartext heißt das nichts anderes, als mit Big-Data-Analysen verschiedene Informationen mit organisationsinternen Daten über die Dimension „Ort“ in Beziehung zu setzen.

Location Intelligence

Unter Location Intelligence versteht man die räumliche Dimension von BI. Diese neue, zusätzliche Dimension von BI ermöglicht eine erweiterte und intelligente Nutzung räumlicher Information in allen analytischen Fragestellungen. Location Intelligence nutzt dazu geographische Daten, die beschreiben „Wo“ sich ein Kunde, ein Lieferant, ein Partner, ein Unternehmen oder ein Produkt befindet oder eine Dienstleistung vollbracht wird: Dazu werden die entsprechenden Daten geocodiert.

Die Verschmelzung von Daten, Zeit und Raum

Vor allem durch den sprunghaften Anstieg mobiler Endgerätenutzung, wie Smartphones oder Tablets, gewinnen Geoinformationen zunehmend an Bedeutung – für den Endanwender als auch Organisationen. So kommt der Digitalverband BITKOM in seinem Leitfaden „Big-Data-Technologien – Wissen für Entscheider“ zu dem Schluss: „Die schnell steigenden Nutzerzahlen von Smartphones und Digitalkameras bieten die Grundlage, dass heutzutage viele Informationen zusammen mit GPS-Koordinaten erhoben werden.“ Anwender informieren und orientieren sich immer stärker auf Basis von Geodaten über Produkte und Dienstleistungen vor Ort. Unternehmen nutzen diese Geoinformationen, um Standortinformationen mit Unternehmensdaten in Echtzeit zu verknüpfen, und so die eigene Markt-, Verkaufs- und Dienstleistungsstrategie zu optimieren. Das Ziel: Die Entscheidung von Konsumenten stärker beeinflussen, wo immer er sich gerade aufhält und bessere Rückschlüsse über den (potenziellen) Kunden zu erlangen.   Experten sehen dies als eine Verschmelzung von Daten mit den Dimensionen Zeit und Raum. Wichtig dabei ist, dass die richtigen Informationen sicher zur richtigen Zeit am richtigen Ort bereitstehen. Nützlich können diese Informationen und deren Auswertung in unterschiedlichen Szenarien und Denkmodellen sein. Wichtig wird nach Experteneinschätzung zukünftig sein, die oft autarken Geosysteme in Gesamtlösungen einzubinden, um Insellösungen zu verhindern und die Gesamtsteuerung der eigenen Organisation schlank zu halten. Und das unter Berücksichtigung einer geeigneten Visualisierung der gesammelten und ausgewerteten Informationen. Nach Meinung der BITKOM-Experten bestehen zwei wesentliche Herausforderungen im Umgang mit Big-Data und der Analyse großer Datenmengen. Neben methodischen Herausforderungen sowie einem Kulturwandel in der jeweiligen Organisation müssen technische Herausforderungen in die Gesamtbetrachtung einfließen. „Werden große Datenmengen aggregiert und zunächst im eigenen Rechenzentrum gespeichert und verarbeitet, erschöpft sich die Skalierbarkeit von Standardsystemen im Terabytes- und im Petabytes-Bereich. Oft müssen dann weitere Systeme – mithin weitere Rechenzentren – geplant, installiert und in die Unternehmensprozesse integriert werden.“ Hinzu kommen weitere drängende Fragen. Angefangen beim Thema des gesetzlichen Datenschutzes und Compliance über personenbezogene Daten und der Vorratsdatenspeicherung bis zu Cyberrisiken und sozialen Gefahren. Darauf sollten Unternehmen, staatliche Stellen und die Wissenschaft gemeinsame Antworten finden. Ein anschauliches Beispiel wie Location Intelligence sinnstiftend eingesetzt werden kann, zeigt sich am Beispiel der Analyse von Verkehrsunfällen. So setzen Bund und Kantone in der Schweiz Location-Intelligence-Lösungen ein, um Unfälle und Unfallschwerpunkte zu analysieren sowie mit Abfragen und Maßnahmen zu hinterlegen. Hier wird das „Wo“ zu einem Schlüsselfaktor und verkommt nicht nur zu einer reinen Verkaufs- und Marketinginformation. Gut so, weiter so, im Sinne des Vertrauens und damit das „Wo“ an den richtigen Stellen entscheidet.Weiterlesen


Nächste Ausfahrt: Intelligente Verkehrssysteme

Andreas Eicher
Andreas Eicher 28.04.2015

„Wer hat das Kommando?“ titelte im Februar „Die Zeit“ in einem Beitrag zum Thema Auto. Nein, inhaltlich ging es einmal nicht um interne Querelen und Machtkämpfe bei den Autobauern. Der Autor des Beitrags beschäftigte sich vielmehr mit dem Thema „selbstfahrender Autos“ sowie dem Machbaren und den Grenzen bei Roboterfahrzeugen.Weiterlesen


1 2 3 4 5