Q2/2019 -Europäische Union

Brüssel 8. April/14. Juni

Im Vorfeld der Wahlen zum Europäischen Parlament war vor Manipulationen durch den Missbrauch von Online-Plattformen gewarnt worden. Insofern waren die Wahlen ein erster Härtetest für die Wirksamkeit des zwischen der EU und den Online-Plattformen Google, Twitter und Facebook im Oktober 2018 abgeschlossenen freiwilligen „Code of Practice on Disinformation“. In einer gemeinsamen Erklärung vom 14. Juni 2019 stellten die EU-Kommissare Andrus Ansip, (Vize-Präsident), Věra Jourová (Justiz), Julian King (Sicherheit) und Marija Gabriel (Digitales) sowie die EU-Außenbeauftragte Federica Mogherini fest, dass der Code of Practice seine Bewährungsprobe grundsätzlich bestanden hat und der Missbrauch der Online-Plattformen für eine Manipulation der Wahlen sehr stark begrenzt werden konnte. Die EU-Offiziellen erkennen insbesondere an, dass die Online-Plattformen Fortschritte gemacht hätten in Bezug auf Transparenz bei politischer Werbung und Takedowns bei Desinformationen. Die EU-Offiziellen machen aber deutlich, dass dies nur ein erster Schritt sein kann. Gefordert wird von den Online-Plattformen u.a. die Zusammenarbeit mit den Fakt-Checkern zu verbessern, die Nutzer besser zu befähigen, Desinformationen zu erkennen und wissenschaftlichen Einrichtungen umfangreichere Daten für eine unabhängige Forschung zur Verfügung zu stellen. Man benötige auch mehr Informationen über die Hintermänner von Manipulationen und Desinformationskampagnen. Am 22. Mai 2019 ist Microsoft dem „Code of Practice on Disinformation“ beigetreten. Die Plattformen berichten monatlich an die EU-Kommission.[1]

Im Juni 2018 hatte die EU-Kommission die „High-Level Expert Group on Artificial Intelligenz“ berufen und ihr den Auftrag erteilt, ethische Richtlinien für eine vertrauenswürdige künstliche Intelligenz zu erarbeiten. Der Expertengruppe gehörten über 50 Spezialisten an. Vorsitzender war der Finne Pekka Ala-Pietilä.[2]

Die Expertengruppe schlägt eine Definition für künstliche Intelligenz vor. Demnach bezeichnet „Künstliche Intelligenz (KI) Systeme mit einem „intelligenten“ Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen. KI-basierte Systeme können rein softwaregestützt in einer virtuellen Umgebung arbeiten (z. B. Sprachassistenten, Bildanalysesoftware, Suchmaschinen, Sprach- und Gesichtserkennungssysteme), aber auch in Hardware-Systeme eingebettet sein (z. B. moderne Roboter, autonome Pkw, Drohnen oder Anwendungen des „Internet der Dinge“).[3]

Der 40-seitige Bericht analysiert Möglichkeiten und Risiken der Entwicklung von künstlicher Intelligenz und kommt zu dem Ergebnis, dass Vertrauen der Nutzer in künstliche Intelligenz das Schlüsselelement ihrer weiteren Entwicklung ist. Daher müssten sich alle Entwicklungen und Anwendungen im Rahmen der existierenden Gesetze bewegen und den von der Expertengruppe aufgestellten sieben ethischen Grundsätzen entsprechen. Diese sieben Grundsätze sind:

  • Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen‚ keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten.
  • Robustheit und Sicherheit: Eine vertrauenswürdige KI setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des KI-Systems zu bewältigen.
  • Privatsphäre und Datenqualitätsmanagement: Die Bürgerinnen und Bürger sollten die volle Kontrolle über ihre eigenen Daten behalten, und die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
  • Transparenz: Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden.
  • Vielfalt, Nichtdiskriminierung und Fairness: KI-Systeme sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und Barrierefreiheit gewährleisten.
  • Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern.
  • Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse gewährleisten.

Die EU-Kommission hat als Ergebnis des Berichts der Expertenkommission eine europäische Allianz zur künstlichen Intelligenz (AI Alliance) gebildet. Dieses neue Multistakeholder-Netzwerk soll u.a. Pilotprojekte initiieren und begleiten sowie sich an den entsprechenden Diskussionen im Rahmen der G20 und der G7 beteiligen. Geplant sind u.a. Netzwerke von KI-Spitzenforschungszentren und digitalen Innovationszentren. EU-Vizepräsident Andrus Ansip sieht in der Betonung der ethischen Dimension von künstlicher Intelligenz einen Wettbewerbsvorteil für Europa: „Die ethische Dimension der KI ist kein Luxus oder ergänzender Zusatz. Nur mit Vertrauen wird unsere Gesellschaft in vollem Umfang von den Technologien profitieren können. Bei einer ethisch vertretbaren KI gibt es nur Gewinner, und sie kann zu einem Wettbewerbsvorteil für Europa werden: eine Führungsrolle beim Aufbau einer menschenzentrierten KI, der die Menschen vertrauen können.“[4]

 

Mehr zum Thema
EU
  1. [1] A Europe that protects: EU reports on progress in fighting disinformation ahead of European Council, Brussels, 14 June 2019, Efforts to ensure the integrity of services have helped close down the scope for attempted manipulation targeting the EU elections but platforms need to explain better how the taking down of bots and fake accounts has limited the spread of disinformation in the EU. Google, Facebook and Twitter reported improvements to the scrutiny of ad placements to limit malicious click-baiting practices and reduce advertising revenues for those spreading disinformation. However, no sufficient progress was made in developing tools to increase the transparency and trustworthiness of websites hosting ads. Despite the achievements, more remains to be done: all online platforms need to provide more detailed information allowing the identification of malign actors and targeted Member States. They should also intensify their cooperation with fact checkers and empower users to better detect disinformation. Finally, platforms should give the research community meaningful access to data, in line with personal data protection rules. In this regard, the recent initiative taken by Twitter to release relevant datasets for research purposes opens an avenue to enable independent research on disinformation operations by malicious actors. Furthermore, the Commission calls on the platforms to apply their political ad transparency policies to upcoming national elections.“ Siehe: http://europa.eu/rapid/press-release_IP-19-2914_en.htm
  2. [2] Ethics guidelines for trustworthy AI, Final Report of the High-Level Expert Group on AI, Brüssel, 8. April 2019, siehe: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
  3. [4] Künstliche Intelligenz: Kommission treibt Arbeit an Ethikleitlinien weiter voran, Brüssel, 8. April 2019, siehe: http://europa.eu/rapid/press-release_IP-19-1893_de.htm