KI: Das Pferd von hinten aufzäumen

Andreas Eicher

Wenn man die Dringlichkeit von Themen nach den Umfängen von Studien, Reports oder Stellungnahmen bemisst, dann besitzt die künstliche Intelligenz (KI) eine enorme Brisanz. Der Deutsche Ethikrat brachte im März 2023 eine Stellungnahme mit dem Titel heraus: „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“. Der Umfang: 287 Seiten. Zusammengefasst geht es darum, dass der „Deutsche Ethikrat untersucht, wie digitale Technologien und insbesondere Künstliche Intelligenz (KI) auf das menschliche Selbstverständnis und Miteinander zurückwirken.“ Ein Thema, das seit Monaten, wenn nicht Jahren heiß diskutiert wird. Denn KI, also eigentlich Artificial Intelligence (AI) im englischsprachigen, ist in den Medien, in der wirtschaftlichen, wissenschaftlichen und politischen Diskussion omnipräsent.

KI: Heilsbringer oder Menschen „Lost in Space“? Bild: stock.adobe.com (nana)

In diesem Kontext gibt Frank Romeike, Risikomanagementexperte und Geschäftsführer des Kompetenzzentrums RiskNET GmbH, zu bedenken: „Der englische Begriff Artificial Intelligence wird häufig mit künstlicher Intelligenz übersetzt. Dabei bedeutet Intelligence viel mehr Informationsverarbeitung.“ In einem Interview mit unserer Redaktion unterstreicht er: „AI beschäftigt sich im Kern mit der Nachbildung menschenähnlicher Entscheidungsstrukturen durch Algorithmen. Das heißt, ein Computer wird so programmiert, dass er eigenständig Probleme bearbeiten kann, beispielsweise Auto fahren, Texte übersetzen oder Go spielen.“ Von einem Alleskönner seien wir nach Ansicht F. Romeiks noch meilenweit entfernt.


Lesen Sie ein ausführliches Interview mit dem Titel: „Das größte Risiko sehe ich darin, dass wir uns von Halbwahrheiten und Falschinformationen blenden lassen“ in der gis.Business 3/2023.


Ein Moratorium zur KI

Und doch ist die KI aus unserem Alltag und Berufsleben nicht mehr wegzudenken. Damit verbunden sind vielfältige Herausforderungen und die fangen laut den Verantwortlichen bei ethischen Fragen an und hören beim Datenschutz noch nicht auf. Interessant ist in diesem Zusammenhang, dass führende Experten eine „Pause bei KI-Entwicklung“ fordern,

wie es beispielsweise die Tagesschau schreibt. „In einem offenen Brief haben Experten aus Forschung, Wissenschaft und der Tech-Branche eine Pause bei der Entwicklung von Künstlicher Intelligenz gefordert. Die Zeit solle genutzt werden, um ein Regelwerk für die Technologie zu schaffen (…)“, so die Tagesschau. Das Ganze ist aus zweierlei Hinsicht mindestens befremdlich. Zum einen sind unter den Unterzeichnern auch diejenigen, die in den letzten Jahren maßgeblich an der KI-Forschung und -Entwicklung beteiligt waren. Zum anderen ist die Forderung nach solch einem Moratorium schlicht Nonsens. Denn zu glauben, dass ab einem bestimmten Tag X alle Wissenschaftler und Unternehmen ihre Bestrebungen im KI-Umfeld einstellen, ist nicht umsetzbar. Über das Für und Wider und den Umgang mit der KI hätten sich die Beteiligten im Grund bereits im Vorfeld Gedanken machen müssen. Haben diese aber nicht. Und nun versuchen manche, das Pferd von hinten aufzuzäumen. Das heißt: Erst gemacht und dann nachgedacht.


„KI-sierung“: Risiken, Chancen und der Mensch

Es liegt in der Natur vieler Politiker, von Medien, Wirtschafts- und Wissenschaftsvertreter, dass regelmäßig ein neuer Hype befeuert wird. Der Aktuelle lautet: ChatGPT (Generative Pre-trained Transformer). Seit Monaten wird das Thema ChatGPT medial ausgeschlachtet. Es geht um Machbares und Grenzen, um einen neuen Meilenstein in der KI-Welt und darum, wie die von Algorithmen geprägte Welt zukünftig einzuordnen ist. Dahinter steht die große Frage: Sind mit einer stetig wachsenden „KI-sierung“ von Beruf und Privatem mehr Risiken oder Chancen verbunden? Eine Antwort liefert das Unternehmen IBM: Wir befinden uns „auf dem Höhepunkt der überhöhten Erwartungen und nähern uns dem Tiefpunkt der Ernüchterung“. Zeit Online wiederum zieht im Beitrag zu: „Unsere neue Denkaufgabe“ eine ebenfalls kritische Schlussfolgerung. Ein Beispiel: „Die Debatte um die Nutzung künstlicher Intelligenz hat ihren Ton verändert. Auf die utopistische Verheißung folgt jetzt Sorge.“ Der Zeit-Beitrag bezieht sich unter anderem auf Geoffrey Hinton (britischer Informatiker und Kognitionspsychologe). „Er fürchtet nicht nur Arbeitsplatzverluste und eine Flut an Desinformation – sondern dass in den KI-Systemen derzeit eine neue Form von Intelligenz heranwachse, die sehr verschieden von unserer eigenen Intelligenz sei.“

Bildunterschrift: ChatGPT: Woher stammen die Informationen? Bildquelle: stock.adobe.com (gguy)

Ein anderes Risiko benennt unter anderem der Westdeutsche Rundfunk (WDR) und zitiert Prof. Dr. Ute Schmid vom Lehrstuhl für Kognitive Systeme der Universität Bamberg. Ein Kritikpunkt der Wissenschaftlerin lautet, dass die KI keine Quellen angebe. Das heißt nach Lesart des WDR: „Man weiß also nicht, woher genau die Informationen stammen, die in die Antworten von ChatGPT einfließen.“ Prof. Dr. U. Schmid: „Das macht die Texte für viele Bereiche wertlos – beispielsweise für Qualitätsjournalismus.“ In eine ähnliche Richtung denkt F. Romeike: „Frage mal ChatGPT nach der zukünftigen Risikolandkarte oder nach der Entwicklung der Kupferpreise für die nächsten sechs Monate.“ Demgegenüber sehen Experten die Chancen unter anderem bei allgemeinen Prozessverbesserungen (was auch immer das heißen mag), in neuen Berufszweigen sowie bei der Lernunterstützung. Auch um medizinische Fragen zu beantworten oder beispielsweise in der Landwirtschaft können KI-Lösungen hilfreiche Dienste leisten.

Grundsätzlich zeigt sich bei aller Diskussion um ChatGPT: „Die Antworten sind nur so gut wie die Fragen, die der Mensch gestellt hat.“ Das bedeutet, der Mensch ist immer noch entscheidet, um Informationen in Bezug zueinander zu setzen und die gewonnenen Ergebnisse auf ihre Plausibilität zu überprüfen. Zu all diesen Überlegungen kommen weitere hinzu – beispielsweise hinsichtlich des militärischen Einsatzes von KI. Bei Letzterem sind die Bedenken der meisten handelnden Personen indes nicht so groß. Im Gegenteil werden neue KI-Lösungen im Sinne der geostrategischen und sicherheitsrelevanten Ausrichtung forciert. Bestes Beispiel liefert die AI-Strategie der North Atlantic Treaty Organization, kurz NATO, mit ihrer „Artificial Intelligence Strategy“ vom Oktober 2021. Oder von Frontex (Frontières Extérieures), sprich die europäische Agentur für die Grenz- und Küstenwache. Frontex treibt ihre AI-Entwicklungen massiv voran, um die Außengrenzen der Europäischen Union zu sichern. Netzpolitik.org titelte in diesem Zusammenhang bereits im Januar 2021: „Frontex baut Systeme zur Meeresüberwachung aus.“ Ob das mithilfe von KI lückenlos gelingen mag, das wird die nahe Zukunft zeigen.