Cyberethik – gemeinsame Konferenz mit Microsoft
Cyberethik – gemeinsame Konferenz mit Microsoft
- Datum:
- Ort:
- Hamburg
- Lesedauer:
- 7 MIN
Von Goethes Zauberlehrling über Terminator bis zu Matrix – eine Ethik des Unbeherrschbaren, über die Erschaffung von etwas, zu dessen Kontrolle der Mensch nicht mehr fähig ist, ist nicht neu. In einem Zeitalter, in dem Technologieinnovationen immer öfter an den Rand des Disruptiven geraten, ist die Frage nach einer zugrundeliegenden Ethik aber virulent.
Digitalisierung ist nicht nur eine Entwicklung, sie ist ein Epochenwechsel. Über diese Themen wurde auf einer gemeinsamen Konferenz der Führungsakademie der Bundeswehr mit Microsoft Deutschland zwischen Vertreterinnen und Vertretern aus Industrie, Wissenschaft und Militär diskutiert. Die Welt vernetzt sich. Daten und Informationen fließen in enormer Geschwindigkeit rund um den Globus. Die Möglichkeiten neuer Technologien scheinen grenzenlos zu sein. Gleichzeitig eröffnen Digitalisierung und KIkünstliche Intelligenz aber auch völlig neue Dimensionen menschlichen Wirkens: Hass und Hetze in sozialen Netzwerken, Cyberattacken auf staatliche Institutionen und Infrastruktur, automatisierte, womöglich eines Tages autonome Waffensysteme. Es kristallisiert sich heraus, dass Forschung und Entwicklung von Technologie der Verantwortung und ethischer Regeln bedürfen. Es war bereits die zweite gemeinsame Konferenz der Führungsakademie und Microsoft.
„Wir haben die Kooperation mit Microsoft vor zwei Jahren mit dem Thema Künstliche Intelligenz begonnen“,
begrüßte der Kommandeur der Führungsakademie der Bundeswehr, Generalmajor Oliver Kohl, die digital zugeschalteten Gäste. „Diskutiert man über Künstliche Intelligenz, sind ethische Aspekte sehr schnell Teil der Debatte. Daher knüpfen wir heute daran an und diskutieren über cyberethische Herausforderungen und Chancen im digitalen Zeitalter. Für die Führungsakademie als Denkfabrik mit dem German Institute for Defence and Strategic Studies erhoffen wir uns Impulse für weitere Debatten und weitere Forschung in der Bundeswehr.“ Andreas Kleinknecht, Mitglied der Geschäftsleitung Microsoft Deutschland, hob die guten Erfahrungen der Kooperation hervor und ergänzte: „Wir gehören zu denen, die diese neuen Technologien entwickeln. Wir müssen uns auch der ethischen Verantwortung stellen. Zentral für uns ist das Vertrauen in unsere Technologie.“
Neue Einordnung von Krieg, Krise und Konflikt
Generalleutnant Michael Vetter, Abteilungsleiter Cyber- und Informationstechnik im Bundesministerium der Verteidigung, hielt den Impulsvortrag. Im militärischen Bereich gelte der Grundsatz, dass KIkünstliche Intelligenz immer unterstützen, aber nicht entmündigen solle. „Der Mensch muss immer die letzte Entscheidung haben“, sagte Vetter. Gerade im Bereich neuer Waffensysteme, wie beispielsweise bei Hyperschallwaffen, nehme die Geschwindigkeit, in der eine Reaktion erforderlich sei, rasant zu. KIkünstliche Intelligenz sei hier für den militärischen Entscheider eine große Hilfe, Daten umfassender und schneller auszuwerten und dann eine Entscheidung fundierter treffen zu können.
Die derzeit in der Bundeswehr eingesetzten – wohlbemerkt nur halbautomatisierten – Systeme, etwa das Flugabwehrsystem MANTISModular, Automatic and Network capable Targeting and Interception System, sind rein defensiver Natur. „Es ist wichtig, dass diese Systeme und auch künftige Systeme technisch sicher, robust und resilient gegenüber Cyberangriffen sind“, erklärte der General. Vertrauen in die Systeme sei ebenso wichtig wie die Notwendigkeit, dass sie in Zweck und Nutzung transparent sind. Es stehe außer Frage, dass der Cyber- und Informationsraum alle Domänen durchdringe. „Wir stehen hier erst am Anfang. Wir müssen uns fragen, was das für die Bundeswehr der Zukunft heißt.“ Auch die Begriffe Krieg, Krise und Konflikt erfahren im Cyber- und Informationsraum neue Einordnungen. „Das muss breit diskutiert werden. Die Technologiefortschritte werden zwar nicht in den Streitkräften gemacht, aber deren Auswirkungen können sicherheitspolitische Aspekte tangieren. Das ist eine gesamtgesellschaftliche Debatte.“
„Das Begriffsarsenal reicht aus“
Zwei Diskussionsrunden führten in die komplexe Thematik ein. Zunächst debattierte Dr. Hartwig von Schubert, Senior Fellow am German Institute for Defence and Strategic Studies, gemeinsam mit Thomas Langkabel, Senior National Technology Officer bei Microsoft, und Alexander Reinhardt, Head of Public Affairs bei Airbus Deutschland, darüber, wo cyberethische Fragen überhaupt aufkommen. „Wir als Hersteller sind mit ethischen Aspekten bei neuen Technologien immer konfrontiert. Es ist eine Frage der Verantwortung und von Regeln, die wir uns im Umgang beispielsweise mit KIkünstliche Intelligenz auferlegen“, sagte Langkabel. „Wichtig ist, dass sich KIkünstliche Intelligenz nicht verselbstständigt und dass ethische Aspekte von Anfang an mitgedacht werden“, pflichtete ihm Reinhardt bei.
Konsens war, dass neue Technologien ethische Reflexion erforderlich machen. „Eine neue Technologie bedarf aber keiner neuen Ethik“, stellte von Schubert fest. „Das Begriffsarsenal des 20. Jahrhunderts reicht aus.“ Er plädierte dafür, bei der Adressierung der Attribute „autonom“ und „automatisiert“ genauer zu differenzieren.
„Autonomie gibt es nur in Organismen, aber nicht für Maschinen“,
erklärte der Theologe. Die Frage in Goethes Zauberlehrling bleibt auch heute aktuell: Wie beherrsche ich etwas, das Autonomie erlangt oder zumindest weitestgehend automatisiert handeln kann, und welche ethischen Maßstäbe lege ich an die Erschaffung an. Diskutiert wurde auch über die Implementierung cyberethischer Aspekte in das Völkerrecht oder bei Datenschutzfragen und Persönlichkeitsrechten.
„Die Menschheit hätte den Verstand verloren“
Im asiatischen Raum werde anders über ethische Aspekte und Werte der Digitalisierung und der Implikationen von KIkünstliche Intelligenz diskutiert als beispielsweise in Westeuropa. „Es gibt womöglich keine universalen, globalen Werte, aber man sollte sich auf einen möglichst breiten Konsens in den Werten verständigen“, sagte Langkabel. Zudem müsse man ethische Fragen in neuen Kontexten wie KIkünstliche Intelligenz neu bewerten. Wichtig sei die Unterscheidung zwischen Individual- und Rechtsethik, sagte von Schubert. Um eine allgemein verbindliche Rechtsethik werde beispielsweise bei den Vereinten Nationen gerungen. Ob die Charta der Vereinten Nationen noch hinreichend sei angesichts der Paradigmenwechsel durch die rasanten Technologiefortschritte, sei fraglich. Der 2018 vom französischen Präsidenten Emmanuel Macron initiierte „Paris Call for Trust and Security in Cyberspace“ sei beispielsweise ein gutes Forum gewesen, so Langkabel. Mehr als 1000 Unternehmen und Institutionen diskutierten dort über Cyberethik mit dem Ziel, ethische Regeln für den Cyberraum zu formulieren.
Immer wieder kam die Frage auf, ob es Autonomie in Systemen geben könne. Eine klare Position vertrat von Schubert: „Die Menschheit hätte doch den Verstand verloren, wenn sie Systeme erschafft, die sie dann nicht mehr beherrschen kann“, sagte er. Künstliche Intelligenz sei entweder künstlich, dann sei sie aber nicht intelligent, oder intelligent, dann sei sie aber nicht künstlich. Intelligenz sei an einen Organismus gebunden. KIkünstliche Intelligenz befähige derzeit vor allen Dingen Systeme, Informationen und Daten viel schneller zu verarbeiten, sodass die Entscheidungs- und Handlungskompetenz des Menschen sich erhöht.
Von Schutz, Schaden und Systemen
In der zweiten Diskussionsrunde debattierten Brigadegeneral Christian Leitges, Abteilungsleiter im Kommando Luftwaffe, Alexander Kaczmarek von der Deutschen Bahn und Prof. Dr. Gabi Dreo Rodosek, leitende Direktorin des Forschungszentrums CODE – Cyber Operations Defence – an der Universität der Bundeswehr München, über Cyberethik in der Praxis. Dreo Rodosek betonte, dass Cyberethik im Bereich der Forschung bereits eine bedeutende Rolle spiele. Wichtig sei es aber, nicht hinter den Technologiefortschritten zurückzubleiben. „Stehen bleiben ist keine Alternative“, sagte sie und plädierte gleichzeitig für ein „ethic by design“ – sprich, für einen Design-Ansatz, bei dem ethische Überlegungen und Werte bereits in die Prozesse der Gestaltung digitaler Systemen einfließen. Brigadegeneral Leitges unterschied in der Luftfahrt zwischen Assistenzsystemen, die keiner Ethik bedürften, und Systemen, die KIkünstliche Intelligenz-basiert einen Schaden zufügen können. „Hier wird Ethik wichtig.“ Von zunehmender Bedeutung sei auch der Faktor Zeit, also die Spanne von der Datenerfassung über den Entschluss bis hin zum Handeln. „Wir müssen da schneller werden“, sagte der Luftwaffenoffizier.
Es sei von Wichtigkeit, einen Cyberangriff attribuieren zu können, das heißt den Gegner ausmachen zu können. Es gebe weitere Möglichkeiten zur Cyberabwehr, wie eine Dynamisierung der Angriffsflächen. Schutz der Systeme funktioniere aber nur, wenn man auf dem neuesten Stand der Technologie sei, „sonst sind wir blind“, sagte Dreo Rodosek. Kaczmarek plädierte für die Resilienz der Systeme. Einer anfänglichen Zentralisierung der neuralgischen Systeme bei der Deutschen Bahn folge nun wieder die Dezentralisierung, da diese die Gefahr eines zentralisierten Angriffs disloziere. Der Aspekt des Vertrauens war in beiden Diskussionsrunden zentral: Vertrauen in die Technologie und ihre Fortschritte. Ein weiterer wichtiger Aspekt: Technologie entwickelt sich in rasender Geschwindigkeit. Hier sei es nicht nur wichtig, mit dem Tempo Schritt zu halten. Man müsse auch Sorge tragen, alle Bevölkerungsteile mitzunehmen. Es dürfe nicht zur einer Spaltung kommen zwischen jenen, die mit Technologie umgehen können, und denen, die keinen Zugang haben. „Der Ansatz muss holistisch sein, Technologiezugang muss für alle gelten“, sagte Dreo Rodosek.
„Es hat sich gezeigt, dass wir die Diskussion über die neuen technologischen Möglichkeiten jetzt führen müssen, um dann, wenn alle Argumente ausgetauscht sind, zeitgerecht zu einer klaren Entscheidung über deren Nutzung zu kommen. Eine erneute, gefühlt endlose Debatte wie bei der Frage der Bewaffnung von Drohnen, können wir uns mit Blick auf das Potenzial dieser Technologien nicht noch einmal leisten“, band Generalmajor Kohl die Veranstaltung ab. „Wir müssen offen darüber diskutieren, dann aber auch entscheiden, bevor wir mit dem Rücken zur Wand stehen. Für alles andere hätte ich weder als Soldat noch als Staatsbürger Verständnis.“ Das dürfe eben nicht das Szenario sein, Goethes Zauberlehrling, dessen verzauberter Besen nicht mehr beherrschbar ist. „Herr, die Not ist groß! Die ich rief, die Geister werd ich nun nicht los.“ Denn es könnte dann der Meister fehlen, der die Geister wieder zähmt. Die Quintessenz fasste Kleinknecht zusammen:
„Technologie muss durch den Menschen beherrschbar bleiben.“