Q4/2020 - Europarat

3. Sitzung des Ad-hoc Komitees für künstliche Intelligenz (CAHAI), 15. – 17.  Dezember 2020 (virtuell)

Die 3. Sitzung des Ad-hoc Komitees für künstliche Intelligenz (CAHAI) des Europarates fand vom 15. bis zum 17. Dezember 2020 statt. An dem virtuellen Meeting nahmen mehr als 200 Experten teil. Gegenstand der Diskussion war die vom CAHAI vorgelegte Machbarkeitsstudie über die Möglichkeiten der Ausarbeitung eines rechtlichen Instruments des Europarates zur künstlichen Intelligenz. Das Treffen wurde eröffnet von der Generalsekretärin des Europarates, Marija Pejčinović Burić, und dem Präsidenten der Parlamentarischen Versammlung des Europarates, Rik Daems. Zu den Key-Note Speakern gehörten Prof. Christian Kastrop, Staatssekretär im Bundesjustizministerium und Casper Klynge, Vize-Präsident von Microsoft und ehemaliger „Tech Envoy“ der dänischen Regierung[1].

CAHAI-Machbarkeitsstudie, Strasburg, 17. Dezember 2020

Die umfangreiche Machbarkeitsstudie (179 Paragraphen auf 56 Seiten) stellt fest, dass es bislang kein internationales Rechtsinstrument gibt, dass sich mit den neuen  ̶  positiven wie negativen  ̶  Herausforderungen künstlicher Intelligenz befasst. Die Studie empfiehlt, diese identifizierte „Lücke“ im Rechtssystem durch ein „appropriate legal framework“ zu schließen. Vorgeschlagen wird eine Kombination von rechtlich verbindlichen Verträgen und rechtlich nicht-bindenden Empfehlungen, die sich gegenseitig ergänzen[2].  

Ausgangspunkt der Studie ist die Feststellung, dass KI einerseits über ein erhebliches positives Potenzial verfügt, um Fortschritt, Innovation, Demokratie und die Ausübung individueller Freiheitsrechte zu erweitern. Andererseits gäbe es auch durch KI-Anwendungen erhebliche Gefährdungen, die zu Diskriminierung, Überwachung, Desinformation, Einmischung in und die Manipulation von demokratischen Prozessen, digitaler Exklusion etc. führen können. Der Europarat mit seinem speziellen Mandat zur Stärkung von Menschenrechten, Demokratie und Rechtsstaatlichkeit sei daher gefordert, aktiv zu werden. Zwar gelte die Europäische Menschenrechtskonvention von 1950 sowohl offline als auch online. Wenn es aber zu speziellen Fällen im Zusammenhang mit der Anwendung von künstlicher Intelligenz kommt, gäbe es auch Rechtslücken (Legal Gaps). Diese Lücken müssten, basierend auf einer breiten Multistakeholder-Diskussion (Paragraph 3), geschlossen werden.
 
Die Studie konstatiert die Abwesenheit einer allgemein anerkannten Definition von künstlicher Intelligenz. Auch in offiziellen Dokumenten von EU, OECD, UNESCO und anderer internationaler Organisationen gibt es keinen definitorischen Konsens. Dieser sei aber in einem Rechtsinstrument notwendig. Eine vage Definition würde unterschiedliche Interpretationen ermöglichen und wäre kontraproduktiv.  Ein vom Europarat verabschiedetes „legal framework on AI should adopt a simplified and technologically neutral definition.“
 
Die Studie setzte sich mit den Möglichkeiten und Risiken von künstlicher Intelligenz mit Bezug auf Menschenrechte, Demokratie und Rechtstaatlichkeit auseinander. Künstliche Intelligenz hätte für nahezu alle in der Europäischen Menschenrechtskonvention von 1950 verbrieften individuellen politischen Rechte Konsequenzen, insbesondere für Freiheit und Sicherheit, privates und familiäres Leben, Meinungsäußerungsfreiheit, Versammlungsfreiheit sowie Gleichheit und Nicht-Diskriminierung, aber auch für die in der Europäischen Sozialcharta verankerten sozialen und wirtschaftlichen Rechte. Auswirkungen hätte künstliche Intelligenz aber auch ganz generell für Demokratie und Rechtsstaatlichkeit. Rechtsstaatlichkeit erfordert z.B. die Berücksichtigung von Grundsätzen wie „legality, transparency, accountability, legal certainty, non-discrimination, equality and effective judical protection“ bei entsprechenden Verfahren. Wenn solche Verfahren, und damit auch finale Entscheidungen, an AI-System delegiert würden, könnten damit erhebliche politische Risiken für die Gewährleistung der individuellen Menschenrechte und die Entwicklung der Demokratie verbunden sein.  

Die Studie benennt insgesamt neun Prinzipien, die einem vom Europarat verabschiedeten Rechtsinstrument zur künstlichen Intelligenz zu Grunde gelegt werden müssten:

  • Prevention of harm to human rights, democracy and the rule of law
  • Human Freedom and Human Autonomy
  • Non-Discrimination and Gender Equality
  • Fairness and Diversity
  • Transparency and Explainability
  • Data protection and the right to privacy
  • Accountability and responsibility
  • Democracy
  • Rule of Law

Als Optionen für ein zukünftiges Rechtsinstrument schlägt die Studie vor

  • Die Modernisierung bestehender rechtlich bindender Instrumente
  • Die Ausarbeitung neuer rechtlich bindender Instrumente in Form einer eigenständigen Konvention oder eines völkerrechtlich verbindlichen „Rahmenabkommens“ (Framework Convention)
  • Nicht-bindende Rechtsinstrumente (Soft Law)
  • Best-Practice-Empfehlungen
  • Ein Mix aus verschiedenen „vertikalen und sektoralen“ juristischen Instrumenten mit unterschiedlichem Rechtscharakter.

Im Jahr 2021 übernimmt Deutschland den Vorsitz im Ministerkomitee des Europarats. Einer der Schwerpunkte unter dem deutschen Vorsitz wird die Arbeit an einem Rechtsinstrument zur künstlichen Intelligenz sein. Am 20. Januar 2020 veranstaltet der Europarat zusammen mit dem deutschen Außenministerium eine weitere Expertentagung "Human Rights in the Age of AI:  Europe as an International Standard Setter for AI", unter Einbeziehung nicht-staatlicher Stakeholder. 

Mehr zum Thema
Q4/2020Europarat
  1. [1] The feasibility study on AI legal framework adopted by the CAHAI, Strasbourg, 17. Dezember 2020, siehe: https://www.coe.int/en/web/artificial-intelligence/-/the-feasibility-study-on-ai-legal-standards-adopted-by-cahai
  2. [2] Feasibility study on a legal framework on AI design, development and application based on Council of Europe's standards, Strasburg, 17. December 2020: „176. This study has confirmed that AI systems can provide major opportunities for individual and societal development as well as for human rights, democracy and the rule of law. At the same time, it also confirmed that AI systems can have a negative impact on several human rights protected by the ECHR and other Council of Europe instruments, as well as on democracy and the rule of law. The study has noted that no international legal instrument specifically tailored to the challenges posed by AI exists, and that there are gaps in the current level of protection provided by existing international and national instruments. The study has identified the principles, rights and obligations which could become the main elements of a future legal framework for the design, development and application of AI, based on Council of Europe standards, which the CAHAI has been entrusted to develop. 177. An appropriate legal framework will likely consist of a combination of binding and non-binding legal instruments, that complement each other. A binding instrument, a convention or framework convention, of horizontal character, could consolidate general common principles – contextualised to apply to the AI environment and using a risk-based approach – and include more granular provisions in line with the rights, principles and obligations identified in this feasibility study. Any binding document, whatever its shape, should not be overly prescriptive so as to secure its future-proof nature. Moreover, it should ensure that socially beneficial AI innovation can flourish, all the while adequately tackling the specific risks posed by the design, development and application of AI systems.178. This instrument could be combined with additional binding or non-binding sectoral Council of Europe instruments to address challenges brought by AI systems in specific sectors. This combination would also allow legal certainty for AI stakeholders to be enhanced, and provide the required legal guidance to private actors wishing to undertake self-regulatory initiatives. Moreover, by establishing common norms at an international level, transboundary trust in AI products and services would be ensured, thereby guaranteeing that the benefits generated by AI systems can travel across national borders. It is important that any legal framework includes practical mechanisms to mitigate risks arising from AI systems, as well as appropriate follow-up mechanisms and processes and measures for international co-operation.“, siehe: https://www.coe.int/en/web/artificial-intelligence/-/the-feasibility-study-on-ai-legal-standards-adopted-by-cahai