Wir müssen Gesichtserkennung mit KI regulieren – und zwar jetzt
![Foto von Tanja Böhm, Managing Director Corporate Affairs | Leiterin Microsoft Berlin](../renderingassets/legacy/TanjaStudioAnkaBardeleben6512ENG-Q_640-320x320.jpg)
veröffentlicht am
Am 14. Februar 2019 sprach Microsoft-Präsident Brad Smith vor rund 200 Gästen aus Politik, Wirtschaft und Gesellschaft unter #facingAI über den verantwortungsvollen Einsatz von Gesichtserkennung, insbesondere im Hinblick auf Diskriminierung, den Schutz der Privatsphäre und die Wahrung demokratischer Rechte und Freiheiten. Im Anschluss an seine Keynote diskutierte er im Panel mit Prof. Dr. med. Christiane Woopen, Professorin für Ethik und Theorie der Medizin an der Universität zu Köln, Co-Sprecherin der Datenethikkommission der Bundesregierung, Vorsitzende des Europäischen Ethikrats, Nicola Beer MdB (FDP), Staatsministerin a.D., Generalsekretärin der Freien Demokraten, Spitzenkandidatin der FDP für die Wahl zum Europäischen Parlament und Stefan Sauer MdB (CDU/CSU), stellvertretender Vorsitzender der Enquête Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale” des Deutschen Bundestages.
Es gehört zu den ersten Dingen, die wir Menschen können: Gesichter erkennen. Schon Babys merken sich, wie Mama und Papa aussehen, die Geschwister, der Babysitter. Jetzt lernen auch Computer, Gesichter zu erkennen – in Dimensionen, die wir Menschen im Laufe unserer Entwicklung niemals erreichen. Automatisierte Gesichtserkennung mit Künstlicher Intelligenz (KI) hat das Potenzial, Milliarden von Menschen zu erkennen, immer und überall. Das bringt gewaltige Chancen, um Gutes zu tun, aber auch signifikante Herausforderungen.
Welche ethischen Regeln und welche Gesetze für Gesichtserkennungssoftware brauchen wir? Ich bin beeindruckt von der tollen Resonanz auf unsere Diskussion „#FacingAI – Gesichtserkennung verantwortungsvoll nutzen“: Volles Haus bei Microsoft Berlin und eine hochspannende Debatte! Microsoft-Präsident Brad Smith hat uns eindringlich vor Augen geführt: Wir müssen handeln - und zwar jetzt. Wie wir mit AI-Technologie umgehen wird entscheidenden Einfluss darauf haben, in was für einer Welt wir uns künftig bewegen, sobald wir den Fuß vor die Tür setzen.
Warum es bei Gesichtserkennung mit KI um die Menschenrechte geht
Gesichtserkennung mit KI ist gerade dabei, unsere Umgebung zu erobern. Sie wird es nahezu lückenlos tun, wenn wir keine Regeln für ihren Einsatz aufstellen. „In Zukunft wird vielleicht jeder von uns erkannt, sobald er ein Geschäft betritt“, berichtet Brad Smith. Noch ehe wir dem Verkäufer „Guten Tag“ sagen können, weiß der Algorithmus, wer wir sind, wann wir zuletzt in dem Geschäft waren und was wir gekauft haben. Mit diesen Informationen können Händler bessere, persönlichere Angebote machen und so das Einkaufserlebnis verbessern. Doch es muss klar geregelt sein, was mit diesen Daten getan werden darf – und was tabu ist.
Denn nicht nur Firmen haben ein Interesse daran, die Technik zu nutzen. Sondern auch der Staat, der damit in Zukunft technisch in der Lage sein könnte, jedem Bürger auf Schritt und Tritt zu folgen. Und sogar Privatleute, denen eine Gesichtserkennungs-Kamera an der Haustür anzeigen könnte, wer da gerade geklingelt hat. Was das bedeuten könnte, ist nicht weniger als das Ende jeglicher Privatheit, sobald wir die eigenen vier Wände verlassen.
Dass eine solche Welt nicht anzustreben ist, darin sind sich alle Diskussionsteilnehmer einig. Für mich als Juristin zeigt sich an dieser Stelle deutlich: Bei der Debatte, wie wir ethisch und verantwortungsvoll mit der Gesichtserkennungs-KI umgehen, geht es im Kern auch um die Einhaltung von Menschenrechten.
1. Der Faktor Mensch muss in den Mittelpunkt
Eine Ethik für den verantwortungsvollen Umgang mit Gesichtserkennung muss den Faktor Mensch in den Mittelpunkt stellen. Es muss verhindert werden, dass KI anonym Entscheidungen über uns trifft, die aus einer „Black Box“ kommen und für Menschen nicht überprüfbar sind.
Brad Smith macht deutlich: „Wir müssen sicherstellen, dass KI-Produkte getestet werden können.“ Verbraucherschützer und andere unabhängige Dritte können so überprüfen, wie sie funktionieren und wo die Grenzen ihrer Anwendung sind. Ergebnisse von KI-Analysen müssen so aufbereitet werden, dass Menschen sie nachvollziehen und bewerten können. „Wir können nicht einfach das Ergebnis nehmen und ihm blind folgen.“ Er plädiert zudem für mit Menschen besetzte Beschwerdestellen. Wenn also Gesichtserkennungs-KI jemandem den Zutritt zu einer Veranstaltung verwehrt, sollte er die Möglichkeit haben, die Entscheidung von einem menschlichen Mitarbeiter überprüfen zu lassen.
Unabhängig davon, in welchem konkreten Fall KI eingesetzt wird, betont Stefan Sauer: „Am Ende muss es eine Person sein, die für diese Entscheidung steht.“ Nicola Beer findet: „Wir müssen klar machen: Wer trägt die Verantwortung, wenn Rechte verletzt werden?“
![](../renderingassets/../renderingassets/legacy/Brad-Smith-Keynote-2.jpg)
2. Wir brauchen Regulierung
Wir leben in einer globalisieren Welt, reisen in den Urlaub, haben Geschäftstermine in anderen Ländern. Technologiefirmen bieten ihre Software in vielen Ländern an. Christiane Woopen sagt dazu: „Ich würde internationale Regulierung sehr begrüßen. Ich halte es zwar nicht für wahrscheinlich, dass wir innerhalb sehr kurzer Zeit zu befriedigenden internationalen Regelungen kommen, aber ich sehe die Vereinten Nationen da definitiv in der Pflicht.“
Als gemeinsames Verständnis in der Diskussion kristallisiert sich heraus, dass an zwei Punkten mindestens angesetzt werden muss: KI-Gesichtserkennung darf nicht überall laufen und sie darf nicht jederzeit laufen. Brad Smith plädiert dafür, dass der Einsatz nur erlaubt ist, wenn er räumlich und zeitlich beschränkt ist. Zum Beispiel an bestimmten Orten, wenn dort eine Veranstaltung stattfindet, für die die Sicherheit gewährleistet sein muss.
Und: Die Daten Unbeteiligter, die von KI-Systemen erfasst werden, dürfen nicht gespeichert werden. Stefan Sauer erklärt das am Beispiel der Aufklärungsarbeit zu den Krawallen beim G20-Gipfel in Hamburg 2017. Die Polizei setzt Gesichtserkennung ein, um Randalierer auf Aufnahmen zu identifizieren. „Wenn aber Passanten nur zufällig auf den Aufnahmen zu sehen sind, dann muss sichergestellt sein, dass ihre Daten gelöscht werden – oder am besten gar nicht erst gespeichert werden.“ Einig sind sich Sauer und Beer darin, dass kluge Regelungen gefunden werden müssen, die die Technologie nicht totregulieren, sondern die gesellschaftlichen und wirtschaftlichen Chancen möglich machen. Beer sieht in „verantwortungsvoller KI made in Europa“ einen möglichen Exportschlager.
Ich persönlich bin der Auffassung, dass KI nicht pauschal, nicht in einem einfachen Gesetz oder gar auf einer Regulierungsebene geregelt werden kann, sei es Länder-, Bundes-, Europa- oder Völkerrecht. Nehmen wir den strafrechtlich präventiven Einsatz von Gesichtserkennungstechnologie: hierdürfte der Landesgesetzgeber zuständig sein. Geht es um strafrechtliche Repression, so ist der Bund zuständig. Geht es beispielsweise um die Verhinderung eines KI-basierten militärischen Wettrüstens, so müsste das Völkerrecht einschlägig sein.
![](../renderingassets/../renderingassets/legacy/Panel.jpg)
3. Gesichtserkennung ist nur der Anfang
Dass KI Personen erkennen kann, ist ein gewaltiger technologischer Sprung. Doch schon zeichnet sich ab, dass sie sogar Persönlichkeiten erkennen kann. Christiane Woopen nennt das Beispiel Stimmerkennung, wo KI aus der Stimme Persönlichkeitsprofile erstellt. Mit den Likes, die wir in sozialen Netzwerken hinterlassen, machen wir unsere Vorlieben öffentlich – auch daraus lassen sich Persönlichkeitsprofile erstellen, die oft sogar mehr über uns verraten, als der eigene Partner weiß.
Das schafft neue Herausforderungen für die Gesetzgebung beim Datenschutz, denn wenn solche Daten zusammengeführt und verknüpft werden, eröffnen sich Manipulationsmöglichkeiten. Dann kann KI nicht nur erkennen, wer gerade aufgenommen wurde, sondern auch noch, wie er denkt und welche Vorlieben er hat.
Sie plädiert deshalb für ein „erweitertes Konzept der Privatheit“. Dabei muss nicht nur geregelt werden, wann KI feststellen darf, wer ich bin. Es brauche die Erweiterung: „Wann darf ermittelt werden, welche Persönlichkeit ich bin?“ Und sie bringt neue Institutionen ins Spiel, die künftig unsere Daten verwalten und über den korrekten Umgang wachen könnten, zum Beispiel Daten-Treuhänder oder Genossenschaften. Dafür brauche es einen institutionellen Rahmen.
Gesichtserkennung mit KI ist eines von vielen Feldern, in dem uns KI regelmäßig im Alltag begegnet. Das Beispiel Persönlichkeitserkennung zeigt, wie viel weiter die Entwicklung noch gehen kann. Es ist höchste Zeit, über gute Regulierung zu diskutieren.