Sind Algorithmen objektiv?
Sind die Entscheidungen, die mit Hilfe von Algorithmen getroffen werden fairer oder objektiver, als wenn ein Mensch sie trifft? Melinda Lohmann, Assistenzprofessorin an der Universität St. Gallen meint „Nein“. Sie spricht von einer Objektivitätsillusion. „Wir denken, weil es aus einer Maschine kommt, ist es objektiv.“
Roboter werden von Computerprogrammen gesteuert, also von Algorithmen, die Basis der so genannten künstlichen Intelligenz (KI). Algorithmen legen fest, wie eine Aufgabe gelöst wird. Sie geben Computern eine Anleitung. Sie sagen einer Maschine am Fließband, wie welche Teile zusammengefügt werden sollen. Oder analysieren Bewerbungen und empfehlen den besten Bewerber. Sind Entscheidungen aber fairer oder objektiver, wenn sie ein Algorithmus trifft und nicht ein Mensch?
Melinda Lohmann, Assistenzprofessorin an der Universität St. Gallen, warnt vor einer Objektivitätsillusion. Nur, weil Entscheidungen von einer Maschine getroffen werden, müssen sie nicht objektiv sein. Im Gegenteil: Professor Lohmann befürchtet, dass sich kurz bis mittelfristig gewisse soziale Ungleichheiten durch algorithmische Entscheidungssysteme sogar verstärken könnten. Denn die Systeme werden von Menschen gemacht, die wiederum selbst ihre Vorurteile haben – bewusst oder unbewusst. So greift KI auf Daten zurück, die schon Vorurteile enthalten können. Trotzdem ist Professor Lohmann optimistisch: „Ich glaube, wenn man gewisse Weichen stellt, dann könnten wir Systeme entwickeln, die wirklich objektiver sind. Auf jeden Fall objektiver als wir Menschen es sind,“ ist sie überzeugt.
Transparenz sorgt für Vertrauen
Ein weiterer, entscheidender Faktor ist Transparenz: Man muss wissen, ob eine Entscheidung mithilfe eines Algorithmus gefallen ist. Wenn Institutionen oder Unternehmen Algorithmen einsetzen, sollte das klar gekennzeichnet sein. Nach einer „Kennzeichnungspflicht für KI“ gefragt, ist Lohmann überzeugt: „Ich finde es eine sehr gute Idee, sehr begrüßenswert, weil ich glaube, es ist wichtig, dass gerade Konsumenten wissen, wenn sie mit einer künstlichen Intelligenz interagieren und ich denke auch zur Steigerung des Vertrauens wäre das eine sinnvolle Maßnahme.“
Mit dieser Einschätzung ist Lohmann nicht allein. Die Bertelsmann Stiftung hat in einer im Februar veröffentlichten Studie untersucht, was wir Europäer über Algorithmen wissen. Demnach wünschen sich drei Viertel der Befragten, dass algorithmische Entscheidungen leichter nachvollziehbar sein sollen. Die Befragung zeigte, dass ein besseres Verständnis von der Funktionsweise algorithmischer Entscheidungen eine positive Einstellung zum Thema fördert und gleichzeitig ein geschärftes Risikobewusstsein begünstigt, das wiederum zu weniger Ablehnung gegenüber den Algorithmen führt.
Brauchen wir ein Roboterrecht?
Als Wirtschaftsprofessorin setzt sich Lohmann mit den rechtlichen Rahmenbedingungen der künstlichen Intelligenz auseinander. Wer haftet, wenn der Roboter fehlerhaft lernt oder eine falsche Entscheidung trifft? In den meisten Fällen greift der bestehende Rechtsrahmen. Bei lernfähigen Systemen kann die Situation eine andere sein. Hier ist es sinnvoll, sich auch auf europäischer Ebene Gedanken zu machen, wie ein solcher Rechtsrahmen aussehen könnte. Der Rechtsausschuss des EU-Parlaments beschäftigt sich schon seit Längerem mit der Thematik. Geplant ist ein Gesetz, das den Umgang mit Robotern und künstlicher Intelligenz umfassend regelt. Auch wenn wir nicht wissen, was die Roboter in zehn Jahren können, sollten wir uns heute schon Gedanken machen - mit Augenmaß. „Wir dürfen nicht in blinden Aktionismus verfallen. Es macht keinen Sinn, jetzt übermäßig zu regulieren, weil wir einfach gewisse Entwicklungen noch nicht abschätzen können. Aber es ist auf jeden Fall wichtig, dass wir dran bleiben,“ so Lohmann.
Das vollständige Interview mit Melinda Lohmann finden Sie hier.
Sind Algorithmen objektiv?
Sind die Entscheidungen von Algorithmen objektiver als die von Menschen? Assistenzprofessorin Melinda Lohmann meint „Nein“.