English Intern
Zentrum für soziale Implikationen künstlicher Intelligenz (SOCAI)

Maschinennormativität

Forschungsfeld 3: Maschinennormativität

Der technische Fortschritt in der internen Struktur von Maschinen erlaubt es ihnen, immer komplexere Entscheidungen zu treffen und Sachverhalte zu bewerten. Dabei dringen sie auch in einen Bereich vor, der bislang dem Menschen vorenthalten war: das Treffen von Werturteilen. Werturteile unterscheiden sich von klassischen Optimierungsaufgaben, die im Bereich der maschinellen Intelligenz perfektioniert werden können. Wenn Menschen Sachverhalte bewerten, dann gehen wir zumindest davon aus, dass sie die grundsätzliche Bedeutung von Geschehensabläufen in der Welt erkennen müssen. Das Erkennen von Bedeutungszusammenhängen ist Maschinen jedoch derzeit nicht möglich.

Gleichzeitig besteht ein großer Bedarf dafür, Maschinen in die Lage zu versetzen, solche Bewertungen zu treffen. Ein autonomes Fahrzeug wird an einem typischen Einsatztag eine Vielzahl dieser Bewertungsaufgaben zu bewältigen haben. Die oft diskutierten Dilemma-Situationen bei nicht abzuwendenden Unfällen, die Abwägungen zwischen Menschenleben erfordern würden, werden zwar wohl eine Seltenheit bleiben. Denkt man an ein auf die Straße gesprungenes Wildtier, so enthält auch diese Entscheidung eine moralische Grundbewertung, die die Maschine lösen können muss. Nicht nur beim autonomen Fahren, sondern auch beim Einsatz von Maschinen etwa in der Pflege oder in autonomen Waffensystemen ist die Fähigkeit gefragt, bestimmte Sachverhalte auch normativ bewerten zu können. Nicht zuletzt erfordert das sich entwickelnde Feld des Legal Tech, die Fähigkeit mit der offenen Struktur von Rechtsnormen umgehen zu können.

Wenn Maschinen normative Entscheidungen treffen, wirft dies auch technische Fragen verschiedenster Art auf. Wie ist es auf der Ebene der Programmierung und auf der Ebene der Hardwareausstattung möglich, dass eine Maschine eine Abwägung zwischen moralischen und rechtlichen Bewertungen verschiedener Handlungsoptionen trifft? Wie können Sicherheitssysteme geschaffen werden, die besonders gefährliche Fehlleistungen verhindern? Wie können wir sicherstellen, dass Maschinen Entscheidungen im Sinne der Menschheit treffen und die gewachsenen kulturellen und sozialen Werte in ihren Entscheidungen in Bezug nehmen? Was bedeutet es für unser Verhältnis zu Maschinen, wenn diese etwa Verträge schließen und vorgeblich moralisch handeln können? Die Forschung in diesem Teilbereich widmet sich in Zusammenarbeit der drei Disziplinen Rechtswissenschaft, Philosophie und Informatik der ganzen Bandbreite dieser Fragen.

Im Unterprojekt „Normatives Entscheiden durch Maschinen“ werden insbesondere technische Aspekte dieser Entscheidungen untersucht. Wie können wir erreichen, dass Maschinen auf der Basis von menschlichen Werten entscheiden? Welche maschinellen Lernprozesse sind dafür erforderlich? Welche Sicherheitssysteme stehen zur Verfügung um im Einzelfall katastrophale Fehlleistungen zu vermeiden? Im Unterprojekt „Maschinen als rechtliche, politische und moralische Akteure“ fragen wir uns vor allem welche rechtlichen, philosophischen und sozialen Konsequenzen mit dem Treffen normativer Entscheidungen durch Maschinen verbunden sind. Bekommen Maschinen dadurch einen besonderen Status, der etwa dem von Tieren ähnlich sein könnte, und was unterscheidet sie letztlich vom Menschen? Welche rechtlichen Konsequenzen sind damit verbunden, dass etwa Vertragsangebote automatisiert durch Maschinen abgegeben werden könnten? Im Unterprojekt „Automatisierung juristischer Argumentation“ erforschen wir speziell auf die Rechtswissenschaft zugeschnittene Automatisierungsfragen. Lassen sich Juristen durch Algorithmen ersetzen? Wie würden automatisierte Verwaltungs- und Gerichtsprozesse aussehen? Welche besonderen Rechtsschutzmöglichkeiten sind für automatisierte juristische Argumentation erforderlich?