Archiv

Archiv

Konzern

Implementierung von Digitaler Ethik sichert nachhaltigen Unternehmenserfolg

Ein Beitrag von Manuela Mackert, bis Juli 2021 Chief Compliance Officer (CCO) und Leiterin des Group Compliance Managements der Deutschen Telekom AG.

Das Thema Digitale Ethik wird immer präsenter. Neue Technologien wie künstliche Intelligenz (KI) entwickeln sich rasant und erzeugen täglich zum Beispiel enorme Datenmengen, die uns vor immer neue Herausforderungen stellen. Ein kritischer, aber vertrauens- und verantwortungsvoller Um-gang mit den dahinter liegenden Systemen ist essenziell. Das heißt eine eindeutige Verantwortungsübernahme und -zuordnung zu definieren, wer hat die Kontrolle über die Technologie und übt diese aus. Die Deutsche Telekom beschäftigt sich vor diesem Hintergrund bereits seit mehr als drei Jahren mit dem Themengebiet Digitale Ethik. 

Neben der Frage der technischen Umsetzbarkeit sollen algorithmenbasierte Entscheidungssysteme aber auch die menschlichen Fähigkeiten stützen, erweitern und dem Gemeinwohl dienen. Aus Sicht der Deutschen Telekom braucht es ethische Rahmenbedingungen für solche KI-Systeme. Die zentrale Herausforderung ist es, die KI menschenzentriert und werteorientiert zu gestalten, sie soll dazu dienen, die Lebenssituation der Menschen zu verbessern, ihre Grundrechte und Autonomie zu wahren und ihre Handlungsoptionen zu erweitern. Dies haben wir als eines der ersten Unternehmen weltweit zum Anlass genommen uns Leitlinien für den verantwortungsvollen Umgang mit KI zu geben. 

Die gesellschaftliche Akzeptanz und der Nutzen von künstlicher Intelligenz hängen von ihrer „Robustheit“, der Leistungsfähigkeit und dem verantwortungsvollen, nachhaltigen Umgang mit ihr ab.

Aktuell können KI-Modelle bei der Anwendung von Gelerntem noch nicht die eigenen Ergebnisse hinterfragen – sie wenden lediglich trainierte Muster an. Folgendes Szenario wurde bereits unter Laborbedingungen „erfolgreich“ getestet. Jemand sitzt in einem selbstfahrenden Auto und eine Drohne projiziert für Bruchteile einer Sekunde Verkehrsschilder auf die Straße, nach denen das Auto fährt. Diese Drohne wurde so programmiert, dass ein Unfall entstehen soll. Das wäre aus heutiger Sicht ein perfektes Verbrechen, da kaum nachvollziehbare Spuren hinterlassen werden.[1]

KI hat keine Gefühle und keine Persönlichkeit. Aus diesem Grund gilt sie als objektiv. Sie wird von reiner „Logik“, den Algorithmen geleitet. Denn da, wo wir Menschen vorurteilsbelastet und voreingenommen sein können beziehungsweise könnten, entscheidet die KI absolut rational und unparteiisch – oder doch nicht? Es besteht das Risiko, dass wir unsere individuelle, ggf. unbewusste Befangenheit über die Daten in die Trainingsgrundlagen der künstlichen Intelligenzen bringen und so darüber Voreingenommenheit sowie Stereotype in der KI manifestieren. Das bedeutet im Umkehrschluss, dass wir hochgradig zuverlässige und integre KI-Systeme brauchen, die in unsicheren sowie unvorhersehbaren Umgebungen zeitnah und sicher (nachvollziehbare) Entscheidungen treffen können.  Darüber hinaus müssen KI-Systeme resistent gegen gezielte Angriffe und Manipulationsversuche von außen sein. 

Sollten Schwachstellen in KI-Modellen vorliegen, kann das Schadenspotential für das entwickelnde bzw. das einsetzende Unternehmen erheblich sein. Die Sicherheit des KI-Systems ist somit essenziell für die zukünftige Nutzung. Wir müssen KI-Systeme so robust gestalten, dass diese enormen, teils Risikoseitig noch nicht kalkulierbare Konsequenzen so gering wie möglich bleiben und trotz allem die Performance nicht leidet.

Das Robust AI Assessment für KI (pdf, 1023,0 KB) ist Teil der übergreifenden Bestrebungen der Deutschen Telekom AG, neueste Technologien mit ethischen Ansprüchen zu verbinden. Das Projekt ist ein Teil des Robust-AI-Programms, das sich insgesamt darauf fokussiert, die Robustheit von KI-Modellen zu analysieren und zu bewerten. In einer Kooperation mit Experten der Ben-Gurion-Universität in Israel und dem deutschen Start-Up Neurocat, das sich auf robuste KI spezialisiert hat, beschäftigen sich die KI-Experten der Telekom Innovation Laboratories damit, die Robustheit von internen und externen KI-basierten Produkten und Dienstleistungen der Deutschen Telekom zu messen, technisch zu analysieren und so Verbesserungspotentiale zu identifizieren.

KI-Projekte bekommen über das Robust AI Assessment auf der einen Seite klare Vorgaben (Required Level) wie robust die zu entwickelnde KI sein muss. Auf der anderen Seite werden im „Acutal Level“ die im jeweiligen Projekt geplante Robustheit bewertet. Aus dem Vergleich der beiden Level ergeben sich für das Projekt klare Hinweise auf ggf. bestehendes Verbesserungs-potenzial.

Das Robust AI Assessment, das die Deutsche Telekom dafür nutzen möchte, um ethische Aspekte in den Entwicklungsprozess neuer KI-Systeme einzubinden, fügt sich also nahtlos in eine Reihe von Ansätzen ein, die eine Zukunft fördern, in der Unternehmen ihrer gesellschaftlichen Verantwortung im digitalen Zeitalter gerecht werden.

Damit neben den oben beschrieben eher systemnahen Maßnahmen auch unsere technologischen Experten und Projektverantwortlichen bei der Entwicklung neuer Technologien nicht allein gelassen werden, haben wir einen Leitfaden „Professionsethik“ (pdf, 2,3 MB) mit diesen gemeinsam entwickelt. Er liefert Best Practices, Methoden und Tipps, die dabei helfen sollen, die KI-Leitlinien auf die Anwendung in Entwicklungsprozessen zu übertragen. Er vermeidet durch die Schaffung von Klarheit und Wissen unnötige Verzögerungen in der Entwicklung. Mit diesem Leitfaden adressieren wir hauptsächlich drei Personengruppen im Konzern: Die Hauptverantwortlichen im Projekt, das technische Entwicklungsteam sowie das gesamte Projektteam.

Was ist die konkrete Funktion dieses Leitfadens?

  • Er leistet Hilfestellung bei ethischen Fragen und gibt Orientierung. Mit klar festgelegten Grundsätzen vermeiden wir Reputationsrisiken für die Deutsche Telekom.
  • Er bietet Beschäftigten einen betrieblichen Bezugsrahmen in ihrem Arbeitskontext, um persönliche Haftungsrisiken zu minimieren, wenn sie sich an diese Empfehlungen halten.
  • Er unterstützt bei der Gestaltung der besten Kundenerlebnisse und stärkt den Faktor Vertrauen in der Kundenbeziehung.
  • Er vermeidet durch die Schaffung von Klarheit und Wissen unnötige Verzögerungen in der Entwicklung.

Unsere KI-Leitlinien werden in diesem Dokument also weiter konkretisiert. Damit werden Fragen für die o.g. Zielgruppen beantwortet wie „Was bedeutet das für mich beziehungsweise meine Arbeit? Was muss ich konkret beachten, damit mein Projekt den KI-Leitlinien entspricht?“ Damit ermöglicht die Professionsethik, dass sich alle mit KI befassten Entwickler*innen an die Leitlinien für den verantwortungsvollen Umgang mit KI halten können bzw. diese in den von ihnen entwickelten Systeme und Produkten implementieren. Bei Zweifeln und Fragen steht als weitere Hilfestellung das Experten-Team „Digitale Ethik“ bereit: Digital-Ethics@Telekom.de

[1] Cyber Security Labs @ Ben Gurion University, Phantom of the ADAS: Phantom Attacks on Driving Assistance Systems 2020.

Manuela Mackert ist Co-Autorin des Whitepapers „Robust AI“ und des Leitfadens „Professionsethik“.

Wir stellen den Menschen an erste Stelle – wir sehen aber auch Vorteile in einer Mensch-Maschine-Interaktion.

Leitlinien für Künstliche Intelligenz

Künstliche Intelligenz (KI) braucht einen Rahmen. Mit unseren neun selbst-bindenden Leitlinien haben wir diesen Rahmen definiert.

FAQ