Q3/2021 - UN-Menschenrechtsrat

Ana Brian Nougrères wird neue Sonderberichterstatterin für „The Right to Privacy in the Digital Age“, Genf, 1. August 2021

Am 1. August 2021 trat die neugewählte Sonderberichterstatterin für „The Right to Privacy in the Digital Age“ ihr Amt an. Dr. Ana Brian Nougrères war eine Rechtsprofessorin an der School of Engineering der University Montevideo in Uruguay. Sie hat auch als Rechtsanwältin und als Beraterin für Datenschutz gearbeitet. Sie folgt Joseph Cannataci, einem maltesischen Rechtsprofessor, nach. Cannataci hatte das Amt für sechs Jahre bekleidet. Der Posten des „Special Rapporteur on the Right to Privacy in the Digital Age“ war 2014 von den Vereinten Nationen auf der Basis einer deutsch-brasilianischen Initiative in der UN-Vollversammlung im Gefolge der Snowden-Affäre geschaffen worden.

48. Sitzung des UN-Menschenrechtsausschusses, Bericht der UN-Hochkommissarin für Menschenrechte zum „Right to Privacy in the Digital Age“, 13. September 2021

Am 13. September 2021 präsentierte die UN-Hochkommissarin für Menschenrechte, die ehemalige chilenische Präsidentin Michelle Bachelet, einen umfassenden Bericht zum „Right to Privacy in the Digital Age“ der 48. Sitzung des UN-Menschenrechtsrates. [1] Der Bericht beschäftigt sich mit den Auswirkungen von künstlicher Intelligenz für das „Right to Privacy“. Der Bericht geht von dem inhärenten Konflikt aus, dass künstliche Intelligenz einerseits dazu beitragen kann, den Schutz der Menschenrechte zu stärken und viele Menschheitsprobleme zu lösen, andererseits aber auch missbraucht werden und für den Menschen katastrophale Effekte haben kann (negative, even catastrophic, effects if deployed without sufficient regard to their impact on human rights).

  • Risiken entstünden insbesondere mit Politiken zur Überwachung, Unterdrückung, Zensur, Beleidigung und Belästigung. KI-Systeme müssten auf der Anerkennung der allgemeinen Rechtsgrundlagen des Völkerrechts und der Menschenrechte sowie auf den vier Prinzipien Fairness, Verantwortung, Erklärbarkeit und Transparenz basieren. Das „Right to Privacy“ sei unmittelbar verbunden mit der menschlichen Würde und der menschlichen Identität. Dies müsse der Ausgangspunkt sein für alle KI-Anwendung. Die von der UN-Vollversammlung 2011 verabschiedeten „Guiding Principles on Business and Human Rights“ [2] würden auch private Unternehmen zu einem „human centric approach“ verpflichten. Besondere Gefahren würden u.a. mit einer De-Anonymisierung von Daten und einer Langzeitspeicherung von Daten einhergehen. Dies könnte negative Folgen für Individuen haben. Erwachsene könnten ein Leben lang wegen ihrer „digitalen Jugendsünden“ diskriminiert werden. Datensammlungen seien nicht frei von Fehlern und könnten zu falschen Einschätzungen führen, z.B. in kritischen Bereichen wie Terroristenbekämpfung oder Missbrauch von Sozialleistungen. Algorithmen könnten rassische, oder sexuelle Diskriminierungen enthalten. Die auf KI basierenden Entscheidungsprozesse seien derart komplex und intransparent, dass sie der Einzelne nicht mehr verstehe. Dieses “black box problem“ müsse ersetzt werden durch neue effektive Transparenz- und Erklärregeln sowie „Accountability Mechanismen“.
  • Der Bericht untersucht vier Bereiche, in denen besondere Gefährdungen für den Schutz der Privatsphäre bestehen:
    • Künstliche Intelligenz bei der Strafverfolgung, der Stärkung der nationalen Sicherheit, in Rechtsverfahren und bei der Grenzkontrolle,
    • Künstliche Intelligenz im öffentlichen Dienst,
    • Künstliche Intelligenz bei der Beschäftigung und im Arbeitsmarkt
    • Künstliche Intelligenz in Medienbereich und bei der Verbreitung von Informationen Online (Content Curation und Content Moderation).
  • Der von der Hochkommissarin geforderte „human rights based approach“ sollte Grundsätze einschließen wie „equality, non-discrimination, participation, accountability, legality, legitimacy, necessity, proportionality, realization of economic, social and cultural rights , availability, affordability, accessibility and quality.“ Gefordert wird die Ausarbeitung spezieller Rechtsgrundlagen für die Entwicklung, Verbreitung, Anwendung und Beaufsichtigung von künstlicher Intelligenz.
    • Notwendig seien unabhängige Aufsichtsbehörden, in denen auch die Zivilgesellschaft als ein wichtiger Stakeholder entsprechend eingebunden sein müsste. Solche unabhängigen Aufsichtsbehörden müssten mit ausreichenden exekutiven Rechten ausgestattet werden und die notwendigen materiellen Ressourcen erhalten. „There is a need for adequate independent, impartial oversight over the development, deployment and use of AI systems. Oversight can be carried out by a combination of administrative, judicial, quasi-judicial and/or parliamentary oversight bodies.“
    • Eine KI-Regulierung müsste auch einen „risk-proportionate approach“ wählen und Anwendungen, die gegen die Menschenwürde verstoßen, grundsätzlich verbieten. Als Beispiel wird das „Social Scoring“ von Individuen genannt die Menschen in „Cluster“ einteilt und sie dann unterschiedlich behandelt. Für biometrische Erkennungssysteme sollte ein Moratorium vereinbart werden, solange nicht eindeutig geklärt ist, wie ein Missbrauch dieser Systeme, deren Einsatz häufig mit der Verbrechensbekämpfung begründet wird, verhindert werden kann. Gefordert wird in dem Bericht auch ein robustes Exportkontrollsystem für KI-basierte Überwachungstechnologien sowie unabhängige Aufsichtsgremien.
    • Die Zulassung von KI-Systemen müssten einer unabhängigen Risikoabschätzung unterworfen werden, wobei die Risiken für eine Verletzung von Menschenrechten Priorität genießen sollten. Gefordert wird weiter mehr Transparenz. KI-Anwendung müssten erklärbar (Explainability) sein, damit jeder Einzelne auch versteht, was mit den persönlichen Daten passiert. Eingerichtet werden müssten weiterhin Beschwerdeverfahren für Fälle, in denen ein Missbrauch von Datensammlung und Datenverwertung vorliegt.
  • Der Bericht enthält insgesamt sechzehn Empfehlungen, die sich sowohl an Regierungen als auch an Unternehmen richten:
    • Die zehn Empfehlungen für Regierungen [3] enthalten die Aufforderung, KI-Technologien, die gegen die Menschenwürde verstoßen, zu verbieten. Gefordert wird ein Moratorium für biometrische Erkennungssysteme. Regierungen müssten sicherstellen, dass KI-Anwendungen in Übereinstimmung mit den Menschenrechten zugelassen werden. Regierungen müssen durch entsprechende Gesetze von Unternehmen Transparenz und Erklärbarkeit einfordern. Gefordert werden unabhängige Beschwerdeverfahren und Maßnahmen zur Verhinderung einer Diskriminierung durch Algorithmen.
    • Die vier Empfehlungen für Staaten und Unternehmen [4] betreffen rechtstaatliche Verfahren für den gesamten Prozess der Entwicklung, Produktion, Verbreitung und Anwendung von KI-basierten Diensten. Gefordert wird ein Verfahren für eine „menschenrechtliche Risikoabschätzung“, größere Transparenz und die Einbindung aller relevanten Stakeholder in Entscheidungen über Entwicklung und Anwendung von KI.
    • Die vier Empfehlungen für Unternehmen [5] betreffen insbesondere die Anwendung der „UN Guiding Principles on Business and Human Rights“, Transparenz, Beseitigung von Diskriminierung und Einführung von Beschwerdeverfahren.
Mehr zum Thema
Q3/2021
  1. [1] The right to privacy in the digital age: Report of the United Nations High Commissioner for Human Rights, 48th regular session of the Human Rights Council, UN-Doc. A/HRC/48/31, 13. September 2021, in: https://www.ohchr.org/EN/HRBodies/HRC/RegularSessions/Session48/Pages/ListReports.aspx
  2. [2] "Guiding Principles on Business and Human Rights: Implementing the United Nations ‘Protect, Respect and Remedy’ Framework", UN-Doc. A/HRC/17/31, Human Rights Council Resolution 17/4, Genf, 16. Juni 2011, in: https://www.ohchr.org/documents/publications/guidingprinciplesbusinesshr_en.pdf
  3. [3] The right to privacy in the digital age: Report of the United Nations High Commissioner for Human Rights, 48th regular session of the Human Rights Council, UN-Doc. A/HRC/48/31, 13. September 2021: „59. The High Commissioner recommends that States: (a) Fully recognize the need to protect and reinforce all human rights in the development, use and governance of AI as a central objective, and ensure equal respect for and enforcement of all human rights online and offline; (b) Ensure that the use of AI is in compliance with all human rights and that any interference with the right to privacy and other human rights through the use of AI is provided for by law, pursues a legitimate aim, complies with the principles of necessity and proportionality and does not impair the essence of the rights in question; (c) Expressly ban AI applications that cannot be operated in compliance with international human rights law and impose moratoriums on the sale and use of AI systems that carry a high risk for the enjoyment of human rights, unless and until adequate safeguards to protect human rights are in place; (d) Impose a moratorium on the use of remote biometric recognition technologies in public spaces, at least until the authorities responsible can demonstrate compliance with privacy and data protection standards and the absence of significant accuracy issues and discriminatory impacts, and until all the recommendations set out in A/HRC/44/24, paragraph 53 (j) (i–v), are implemented; (e) Adopt and effectively enforce, through independent, impartial authorities, data privacy legislation for the public and private sectors as an essential prerequisite for the protection of the right to privacy in the context of AI; (f) Adopt legislative and regulatory frameworks that adequately prevent and mitigate the multifaceted adverse human rights impacts linked to the use of AI by the public and private sectors; (g) Ensure that victims of human rights violations and abuses linked to the use of AI systems have access to effective remedies; (h) Require adequate explainability of all AI-supported decisions that can significantly affect human rights, particularly in the public sector; (i) Enhance efforts to combat discrimination linked to the use of AI systems by States and business enterprises, including by conducting, requiring and supporting systematic assessments and monitoring of the outputs of AI systems and the impacts of their deployment; (j) Ensure that public-private partnerships in the provision and use of AI technologies are transparent and subject to independent human rights oversight, and do not result in abdication of government accountability for human rights.” In: https://www.ohchr.org/EN/HRBodies/HRC/RegularSessions/Session48/Pages/ListReports.aspx
  4. [4] The right to privacy in the digital age: Report of the United Nations High Commissioner for Human Rights, 48th regular session of the Human Rights Council, UN-Doc. A/HRC/48/31, 13. September 2021: „60. The High Commissioner recommends that States and business enterprises: (a) Systematically conduct human rights due diligence throughout the life cycle of the AI systems they design, develop, deploy, sell, obtain or operate. A key element of their human rights due diligence should be regular, comprehensive human rights impact assessments; (b) Dramatically increase the transparency of their use of AI, including by adequately informing the public and affected individuals and enabling independent and external auditing of automated systems. The more likely and serious the potential or actual human rights impacts linked to the use of AI are, the more transparency is needed; (c) Ensure participation of all relevant stakeholders in decisions on the development, deployment and use of AI, in particular affected individuals and groups; (d) Advance the explainability of AI-based decisions, including by funding and conducting research towards that goal.” In: https://www.ohchr.org/EN/HRBodies/HRC/RegularSessions/Session48/Pages/ListReports.aspx
  5. [5] The right to privacy in the digital age: Report of the United Nations High Commissioner for Human Rights, 48th regular session of the Human Rights Council, UN-Doc. A/HRC/48/31, 13. September 2021: „61. The High Commissioner recommends that business enterprises: (a) Make all efforts to meet their responsibility to respect all human rights, including through the full operationalization of the Guiding Principles on Business and Human Rights; (b) Enhance their efforts to combat discrimination linked to their development, sale or operation of AI systems, including by conducting systematic assessments and monitoring of the outputs of AI systems and of the impacts of their deployment; (c) Take decisive steps in order to ensure the diversity of the workforce responsible for the development of AI; (d) Provide for or cooperate in remediation through legitimate processes where they have caused or contributed to adverse human rights impacts, including through effective operational-level grievance mechanisms.” In: https://www.ohchr.org/EN/HRBodies/HRC/RegularSessions/Session48/Pages/ListReports.aspx