Experten sehen Regelungsbedarf bei der Haftung von Schäden, die durch Systeme künstlicher Intelligenz verursacht werden. Das zeigte ein öffentliches Fachgespräch des Ausschusses für Digitale Agenda am Mittwoch. Die Mehrheit der Sachverständigen war der Meinung, dass die technologische Entwicklung eine Neuregelung von Haftungsfragen und Versicherungsmodellen erfordere. Als weiteres zentrales Problem benannten sie den Datenschutz. Gleichzeitig plädierten sie dafür, die Chancen künstlicher Intelligenz zu würdigen und zu fördern.
Immer mehr technische Anwendungen funktionieren heute auf der Grundlage künstlicher Intelligenz, also der Umsetzung menschlicher Kognitionsfähigkeiten im Computer. Bestehende Anwendungen sind auf eine bestimmte Tätigkeit spezialisiert: autonome Maschinen, die Autos lenken sind ebenso Beispiele wie Systeme, die Schach spielen oder E-Mails beantworten können. Im der Medizin zählen auch sogenannte „intelligente Prothesen“ zur Anwendung künstlicher Intelligenz.
Matthias Spielkamp von der Organisation AlgorithmWatch verdeutliche die Haftungsfrage am Beispiel eines Verkehrsunfalls mit Todesfolge, der durch ein selbstfahrendes Auto verursacht wurde. „Bis heute ist ungeklärt, ob der Programmierer, der Modellierer, der Systemhersteller oder der Autohersteller die Verantwortung übernehmen muss“, sagte er. Er sei überzeugt, dass sich für den zivilrechtlichen Bereich Lösungen finden ließen. „Die strafrechtliche Frage ist viel problematischer“, betonte Spielkamp.
Auch Enno Park vom Verein Cyborgs e.V. beschreibt Unfälle durch autonome Maschinen in seiner schriftlichen Stellungnahme als großes Problem. Bei autonomen Systemen und dem Einsatz künstlicher Intelligenz in Unternehmen und Privatleben müssten Haftungsfragen zwischen Herstellern, Anbietern und Nutzern neu aufgeteilt werden. Die Schaffung neuer Pflichtversicherungen könnte notwendig werden, heißt es in seiner schriftlichen Stellungnahme.
Zivilrechtlich sei die einzige Möglichkeit eine Globalversicherung, die beispielsweise alle Fahrzeughersteller einbinde, heißt es in der schriftlichen Stellungnahme des Mathematikers Raúl Rojas von der Freien Universität Berlin. Eine Maschine zum Rechtssubjekt zu erklären lehnte er ab, da Maschinen nicht verantwortlich sein könnten.
Diskutiert würden Herstellerhaftung, Halterhaftung sowie die Idee, die Maschinen zu Rechtspersonen zu machen, heißt es in der Stellungnahme von Frank Kirchner, Direktor des Forschungszentrums für künstliche Intelligenz (DFKI). Die Technologie würde schrittweise in unser Leben integriert. Es müsse ein rechtlicher Rahmen gefunden werden, der diesen Prozess begleitet und an technologische Entwicklungen angepasst werden könne, empfahl er.
Die Experten befürworten mehrheitlich eine Regulierung „künstlicher Intelligenz“ auf europäischer Ebene. Eine europäische Agentur für Folgenabschätzung der Informationstechnologie für den gesamten IT-Bereich empfiehlt Rojas in seiner Stellungnahme. Aufgrund der vielfältigen Anwendungsgebiet müsse eine solche Agentur Kategorisierungen vornehmen und differenzierte Empfehlungen vornehmen, sagte Park. Laut Spielkamp könnten auch nationale Lösungen sinnvoll sein, wenn sie an internationale Standards gekoppelt werden.
Der Unternehmer Fabian Westerwede vom Bundesverband Deutscher Startups betonte, dass eine europäische Agentur genutzt werden solle, um Strategien für die Technologieförderung zu entwickeln. „Europa darf kein technologiefeindlicher Ort werden“, forderte er und verwies darauf, dass Deutschland im Bereich der künstlichen Intelligenz hinter den USA, China und Großbritannien liege.
Demgegenüber hält Kirchner die regionale Regulierung technologischer Entwicklungen nicht für zielführend. Wirkungsvoller als gesetzgeberische Maßnahmen sei die Regulierung durch eine ethisch verfasste Gesellschaft, sagte er.