Hallo, mein Name ist Bot. James Bot.
Ich weiß gerne, wer mir am Telefon etwas verkaufen will. Wer mein Auto oder Laptop repariert. Wer meine Fahrzeugpapiere kontrollieren möchte. Anonymität ist nicht mein Ding. Eine Identität bedeutet Zurechenbarkeit und Verantwortung. Das geht mir auch so bei der zunehmenden Intelligenz von Robotern.
Wir leben in einer Welt der Bots. Mehr als die Hälfte des Datenverkehrs im Internet wird von automatisierten Programmen generiert, knapp 52 Prozent.
Das ist nicht per se schlecht.
„Gute“ Bots haben vielfältige Potenziale und Anwendungsmöglichkeiten. In vielen Branchen und Unternehmen übernehmen sie effizient Routineaufgaben. Dinge, die Menschen nicht machen können oder möchten. Keine Suchmaschine im Internet würde ohne sie laufen. In Chats und Foren sorgen sie für Kontrolle und Bereinigung der Inhalte. Sie sind die Arbeitsbienen des Internets.
Bots können aber auch, so wie jede Technologie, zum Schaden der Nutzer eingesetzt werden. Sie verstopfen unsere Postfächer mit Spam, sammeln massenhaft Email-Adressen für Werbezwecke, spionieren Softwarelücken aus oder führen sogar verheerende DDoS-Attacken aus. Zu den Top Schurken-Bots zählte im letzten Jahr das Mirai Botnet.
All das wissen wir, und wir müssen damit leben: 100prozentige Sicherheit im Cyberspace wird es nie geben.
Aber was wir immer häufiger nicht wissen: kommunizieren wir gerade mit einem Menschen aus Fleisch und Blut oder mit einem Bot? Das ist das Unheimliche an Bots, und leider keine Science Fiction: Mehr und mehr Bots präsentieren sich äußerst erfolgreich als „Mensch“. Ihr Verhalten folgt teils den Funktionalitäten, die der Programmierer in die Software implementiert hat. Und teils bestehen sie aus Algorithmen und Selbstlernfähigkeiten, die auf eine Vielzahl von Inputs reagieren können.
Die Existenz von Projekten wie dem Botometer sind ein Beleg dafür, wie erfolgreich Programmierer mittlerweile beim Entwickeln Menschen-ähnlicher Bots sind. Diese Software kann herausfinden, ob ein Twitter-Account von einem Menschen gepflegt wird oder von einem Code. Eine Studie der University of California und der Indiana University schätzt, dass bis zu 15 Prozent der Twitter Accounts Bots zuzuordnen sind – nicht Menschen.
Sollte es uns egal sein, ob wir mit einem Menschen oder einer Software kommunizieren? Oder ob Massen-Informationen, beispielsweise im Vorfeld einer Wahl, von Propaganda-Bots generiert wurden oder von professionellen Journalisten? Keinesfalls. Hier stellt sich einmal mehr die im Internet so essentielle Frage nach Verlässlichkeit und Vertrauen, nach Wahrheit und Täuschung. Und eben nach Zurechenbarkeit und Verantwortung.
Und selbst wenn es nicht um politische Propaganda-Bots geht, die darauf angelegt sind, den demokratischen Meinungsbildungsprozess zu beeinflussen und damit das Fundament der Demokratie zu erodieren.Was ist mit Bot-generierten Produktrezensionen, positiven oder negativen, die Kaufentscheidungen beeinflussen und Käufer täuschen oder Produkte sabotieren können? Was ist mit Nutzern, die auf Internet-Portalen Fragen zu sensiblen Themen wie Gesundheit oder Finanzen stellen und wissen müssen, mit wem sie es zu tun haben. Konkretes Beispiel: Wird die Frage nach Ansprüchen im Versicherungsfall von einem Fachmann beantwortet, der dem Fragesteller zu seinem Recht und Geld verhelfen will, oder von einem Bot, der darauf programmiert ist, den Fragesteller von einer Geltendmachung seiner Ansprüche abzuhalten oder sie zu schmälern?
Viele Webseiten verwenden Captchas, um zwischen Mensch und Maschine zu unterscheiden und herauszufinden, ob z.B. ein Formular von einem Bot ausgefüllt wurde. Jeder kennt die nervigen Aufforderungen: Bitte eingeben, auf wie vielen der gezeigten Bilder sich Autos oder Straßenschilder befinden. Oder springende hellgraue Zahlen-Buchstaben-Kolonnen richtig abtippen.
Tatsächlich wird das Problem damit auf die Diensteanbieter und auf die User verlagert. Und im Zweifel wird kein einziger Bot, der vorgibt, ein Mensch aus Fleisch und Blut zu sein, verhindert.
Transparenz darüber, wer Urheber von Daten im Internet ist – Mensch oder Maschine – ist absolut essentiell. Hier geht es um viel mehr als um ein „nice to know“. Hier geht es um die Grundlagen des demokratischen Prozesses, um das Vertrauen von Nutzern, um den Erfolg digitaler Geschäftsmodelle.
Also was tun?
Die Aufgabe der IT-Industrie ist es - so wie auch bei allen anderen Aspekten der Cyber Security - nach immer neuen Wegen zu suchen, „fake humans a.k.a Bots“ zu entlarven und zu verhindern. Aber vielleicht müsste sich auch die Legislative auf die neue Bedrohung im Cyberspace einstellen. Eine Bedrohung, die nicht von einer physischen Invasion von Robotern ausgeht, wie von Science Fiction erdacht, sondern von einer Invasion maschinell generierter Informationen, deren Urheberschaft dem Nutzer verborgen bleibt.
Warum nicht eine gesetzliche Verpflichtung, automatisch generierte Prozesse und Informationen als solche zu deklarieren - „I, Robot“?
Natürlich sind Selbstverpflichtungen immer besser als gesetzliche Vorgaben. Nur ist es schwer vorstellbar, dass diejenigen, die von einer gesellschaftlich und ökonomisch unerwünschten technologischen Entwicklung profitieren, diese von sich aus aufgeben. Staat und Gesellschaft werden sich für diese neue Bedrohung etwas einfallen lassen müssen. Sonst behalten die Science Fiction Autoren- und Regisseure mit ihrer apokalyptischen Vision von einer Roboter-Invasion am Ende doch noch recht – ohne physische Gewalt, aber mit der Macht von Täuschung, Illusion und Betrug.