Unsere KI-Grundprinzipien - Nr. 6: Verantwortlichkeit
Künstliche Intelligenz darf nur den Einfluss haben, den wir ihr zugestehen
![Foto von Lennart Wetzel, Manager Government Affairs](../renderingassets/legacy/LennartStudioAnkaBardeleben5121-320x320.jpg)
veröffentlicht am
![](../renderingassets/../renderingassets/legacy/KI-Prinzip-6.jpg)
Viele Menschen befürchten, dass Künstliche Intelligenz die Kontrolle über unser Leben übernimmt. Es ist an uns, dafür zu sorgen, dass KI so arbeitet, wie WIR es wollen – und nicht wir, wie KI es will. „Wir sollten nicht überlegen, was Computer tun könnten, sondern was sie tun sollten“, hat Microsoft-Präsident Brad Smith diese Haltung formuliert. In letzter Instanz sind bei KI-Systemen – wie bei anderen Technologien übrigens auch – die Menschen verantwortlich, die sie entwickelt und eingesetzt haben. Das gilt insbesondere dann, wenn durch KI Rechte von Menschen verletzt wurden. Hier muss klar geregelt sein, wer dann die Verantwortung trägt.
Doch ein ethischer Umgang mit KI beginnt noch viel früher. Wir werden der Verantwortung am besten gerecht, wenn wir verhindern können, dass es überhaupt zu Rechtsverletzungen kommt. Bei der Schaffung entsprechender Normen können wir an Erfahrungen aus dem Gesundheitswesen oder dem Datenschutz anknüpfen. Alle, die KI-Systeme entwickeln und einsetzen, sollten solche Verfahren berücksichtigen und regelmäßig überprüfen, ob sie auch eingehalten werden und noch wirksam sind.
Microsoft hat sich sechs Prinzipien für einen ethischen und verantwortungsvollen Umgang mit Künstlicher Intelligenz gegeben. In unserer „Ethik&KI-Woche“ stellen wir jeden Tag eines davon vor. Der KI-Expertenrat von Microsoft diskutiert kommende Woche über Ethik der Künstlichen Intelligenz. Die Grundsätze und wie sie in unsere tägliche Arbeit einfließen, hat Microsoft-Präsident Brad Smith in seinem Buch „Future Computed“ beschrieben. Diskutiert mit uns in den sozialen Netzwerken unter #digitalfueralle.