Q4/2019 - Europarat
Straßburg, 1. Oktober 2019
Der Europarat hat im 4. Quartal 2019 zwei Studien veröffentlicht, die für zukünftige Regelungen zu Internet Governance, insbesondere im Zusammenhang mit über das Internet verbreitete Kommunikationsinhalte sowie zum Thema Menschenrechte und künstliche Intelligenz, von nicht unerheblicher Bedeutung sind.
Studie zu grenzüberschreitenden Rechtsfragen bei Beleidigungen im Internet
Die erste Studie beschäftigt sich mit Fragen der grenzüberschreitenden Verantwortlichkeit und der Rechtspraxis im Umgang mit Beleidigungen und Beschimpfungen im Internet (Liability and jurisdictional issues in the application of civil and administrative defamation laws in Council of Europe member states). Die Expertengruppe unter Leitung von Luukas Ilves (Lissabonner Rat) und Prof. Wolfgang Schulz vom Leibnitz-Institut (vormals Hans-Bredow-Institut) Hamburg stellt eine Zunahme von Fällen fest, in denen Beleidigungen und Beschimpfungen Konsequenzen über die Grenzen der jeweiligen nationalen Jurisdiktion hinaus haben. Die Expertengruppe kritisiert vor allem die Praxis des „Forum Shoppings“ bei entsprechenden Fällen[1]. Die Autoren der Studie fassen ihre Ergebnisse in 15 sogenannten „Best Practice“-Erfahrungen zusammen und empfehlen den Mitgliedern des Europarates, diese als Leitlinie für zukünftiges Handeln zu Grunde zu legen[2].
Studie zu Verantwortlichkeiten, Menschenrechten und künstlicher Intelligenz
Die zweite Studie beschäftigt sich mit Verantwortung und künstlicher Intelligenz unter besonderer Berücksichtigung der menschenrechtlichen Perspektiven. Die gleichfalls von Luukas Ilves and Prof. Wolfgang Schulz geleitete Expertengruppe examiniert die in den einschlägigen UN-Konventionen verankerten Menschenrechte. Sie prüft ihre Relevanz vor dem Hintergrund der Entwicklung und Anwendung neuer Technologien, insbesondere von künstlicher Intelligenz, und sich daraus ergebende Konsequenzen für die Entwicklung von Politiken und Regularien. Die Gruppe listet mögliche Bedrohungen und Risiken auf und geht der Frage nach, wer dafür Verantwortung trägt, um diese Risiken unter Kontrolle zu bekommen. Sie verweist dabei auf existierende Schieflagen in einer demokratischen Gesellschaft (Power Asymmetry) und schlägt in fünf Punkten rechtliche und nicht-rechtliche Maßnahmen vor, wie Anwendung künstlicher Intelligenz gefördert werden kann, ohne dass dabei die Menschenreche unter die Räder geraten. Gefordert wird u.a. ein höheres Maß an interdisziplinärer Kooperation zwischen den Entwicklern neuer Technologien, Sozialwissenschaftlern, Juristen und Politikern. Notwendig seien effektive und legitime „Governance Mechanismen, Instrumente und Institutionen“, die in der Lage sind, die Entwicklung zu beobachten und eine wirksame Aufsicht auszuüben, ohne dabei technische Innovationen zu blockieren. Solche Institutionen müssten mit wirksamen Mitteln ausgestattet werden um diejenigen, die über „digitale Macht“ verfügen und ihren Verantwortlichkeiten nicht nachkommen, nachhaltig sanktionieren zu können[3].