Q4/2020 - Europarat
3. Sitzung des Ad-hoc Komitees für künstliche Intelligenz (CAHAI), 15. – 17. Dezember 2020 (virtuell)
Die 3. Sitzung des Ad-hoc Komitees für künstliche Intelligenz (CAHAI) des Europarates fand vom 15. bis zum 17. Dezember 2020 statt. An dem virtuellen Meeting nahmen mehr als 200 Experten teil. Gegenstand der Diskussion war die vom CAHAI vorgelegte Machbarkeitsstudie über die Möglichkeiten der Ausarbeitung eines rechtlichen Instruments des Europarates zur künstlichen Intelligenz. Das Treffen wurde eröffnet von der Generalsekretärin des Europarates, Marija Pejčinović Burić, und dem Präsidenten der Parlamentarischen Versammlung des Europarates, Rik Daems. Zu den Key-Note Speakern gehörten Prof. Christian Kastrop, Staatssekretär im Bundesjustizministerium und Casper Klynge, Vize-Präsident von Microsoft und ehemaliger „Tech Envoy“ der dänischen Regierung[1].
CAHAI-Machbarkeitsstudie, Strasburg, 17. Dezember 2020
Die umfangreiche Machbarkeitsstudie (179 Paragraphen auf 56 Seiten) stellt fest, dass es bislang kein internationales Rechtsinstrument gibt, dass sich mit den neuen ̶ positiven wie negativen ̶ Herausforderungen künstlicher Intelligenz befasst. Die Studie empfiehlt, diese identifizierte „Lücke“ im Rechtssystem durch ein „appropriate legal framework“ zu schließen. Vorgeschlagen wird eine Kombination von rechtlich verbindlichen Verträgen und rechtlich nicht-bindenden Empfehlungen, die sich gegenseitig ergänzen[2].
Ausgangspunkt der Studie ist die Feststellung, dass KI einerseits über ein erhebliches positives Potenzial verfügt, um Fortschritt, Innovation, Demokratie und die Ausübung individueller Freiheitsrechte zu erweitern. Andererseits gäbe es auch durch KI-Anwendungen erhebliche Gefährdungen, die zu Diskriminierung, Überwachung, Desinformation, Einmischung in und die Manipulation von demokratischen Prozessen, digitaler Exklusion etc. führen können. Der Europarat mit seinem speziellen Mandat zur Stärkung von Menschenrechten, Demokratie und Rechtsstaatlichkeit sei daher gefordert, aktiv zu werden. Zwar gelte die Europäische Menschenrechtskonvention von 1950 sowohl offline als auch online. Wenn es aber zu speziellen Fällen im Zusammenhang mit der Anwendung von künstlicher Intelligenz kommt, gäbe es auch Rechtslücken (Legal Gaps). Diese Lücken müssten, basierend auf einer breiten Multistakeholder-Diskussion (Paragraph 3), geschlossen werden.
Die Studie konstatiert die Abwesenheit einer allgemein anerkannten Definition von künstlicher Intelligenz. Auch in offiziellen Dokumenten von EU, OECD, UNESCO und anderer internationaler Organisationen gibt es keinen definitorischen Konsens. Dieser sei aber in einem Rechtsinstrument notwendig. Eine vage Definition würde unterschiedliche Interpretationen ermöglichen und wäre kontraproduktiv. Ein vom Europarat verabschiedetes „legal framework on AI should adopt a simplified and technologically neutral definition.“
Die Studie setzte sich mit den Möglichkeiten und Risiken von künstlicher Intelligenz mit Bezug auf Menschenrechte, Demokratie und Rechtstaatlichkeit auseinander. Künstliche Intelligenz hätte für nahezu alle in der Europäischen Menschenrechtskonvention von 1950 verbrieften individuellen politischen Rechte Konsequenzen, insbesondere für Freiheit und Sicherheit, privates und familiäres Leben, Meinungsäußerungsfreiheit, Versammlungsfreiheit sowie Gleichheit und Nicht-Diskriminierung, aber auch für die in der Europäischen Sozialcharta verankerten sozialen und wirtschaftlichen Rechte. Auswirkungen hätte künstliche Intelligenz aber auch ganz generell für Demokratie und Rechtsstaatlichkeit. Rechtsstaatlichkeit erfordert z.B. die Berücksichtigung von Grundsätzen wie „legality, transparency, accountability, legal certainty, non-discrimination, equality and effective judical protection“ bei entsprechenden Verfahren. Wenn solche Verfahren, und damit auch finale Entscheidungen, an AI-System delegiert würden, könnten damit erhebliche politische Risiken für die Gewährleistung der individuellen Menschenrechte und die Entwicklung der Demokratie verbunden sein.
Die Studie benennt insgesamt neun Prinzipien, die einem vom Europarat verabschiedeten Rechtsinstrument zur künstlichen Intelligenz zu Grunde gelegt werden müssten:
- Prevention of harm to human rights, democracy and the rule of law
- Human Freedom and Human Autonomy
- Non-Discrimination and Gender Equality
- Fairness and Diversity
- Transparency and Explainability
- Data protection and the right to privacy
- Accountability and responsibility
- Democracy
- Rule of Law
Als Optionen für ein zukünftiges Rechtsinstrument schlägt die Studie vor
- Die Modernisierung bestehender rechtlich bindender Instrumente
- Die Ausarbeitung neuer rechtlich bindender Instrumente in Form einer eigenständigen Konvention oder eines völkerrechtlich verbindlichen „Rahmenabkommens“ (Framework Convention)
- Nicht-bindende Rechtsinstrumente (Soft Law)
- Best-Practice-Empfehlungen
- Ein Mix aus verschiedenen „vertikalen und sektoralen“ juristischen Instrumenten mit unterschiedlichem Rechtscharakter.
Im Jahr 2021 übernimmt Deutschland den Vorsitz im Ministerkomitee des Europarats. Einer der Schwerpunkte unter dem deutschen Vorsitz wird die Arbeit an einem Rechtsinstrument zur künstlichen Intelligenz sein. Am 20. Januar 2020 veranstaltet der Europarat zusammen mit dem deutschen Außenministerium eine weitere Expertentagung "Human Rights in the Age of AI: Europe as an International Standard Setter for AI", unter Einbeziehung nicht-staatlicher Stakeholder.