Übernimmt ein Roboter bald meinen Job? "Zora the robot", ©zorarobotics.be

Empfehlungen der Grünen zu Robotik und Künstlicher Intelligenz

Position der Working Group Digitales - deutsche Fassung

Erstellt am 01.02.2017

Am 22. November 2016 stimmte die Working Group Digitales der Grünen / EFA über ein Positionspapier zu Robotik und Künstlicher Intelligenz ab. Dieses Papier dient als erster Schritt zur Meinungsbildung, um die Debatte in unserer Fraktion und Parteifamilie, aber auch innerhalb des Europäischen Parlaments und für die öffentliche Debatte im Allgemeinen zu gestalten. Hier das vollständige Dokument lesen Position zu Robotik und Künstlicher Intelligenz (PDF).

 

 

Empfehlungen der Grünen zu Robotik und Künstlicher Intelligenz

 

Empfehlung 1: Eine informierte öffentliche Debatte. Die Gesellschaft sollte die Möglichkeit haben, zur Gestaltung der Technologie in deren Entwicklungsstadium beizutragen. Daher sind öffentliche Konsultationsprozesse und eine informierte Debatte von größter Bedeutung. Wir fordern eine Debatte auf europäischer Ebene mit dem Ziel, die technologische Revolution mitzugestalten. Mit einer Reihe an Regeln, insbesondere zur Steuerung von Haftung und Ethik wird den eigentlichen europäischen und humanistischen Wertvorstellungen Rechnung getragen, die Europas Beitrag zur Gesellschaft ausmachen, mit dem Ziel, diese technologische Revolution der Menschheit dienlich zu machen.

 

Empfehlung 2: Vorsorgeprinzip. Wir fordern, dass Forschung und Technologie zum maximalen Nutzen für alle genutzt und potenzielle unbeabsichtigte soziale Auswirkungen vermieden werden, insbesondere hinsichtlich aufkommender Technologien. Wir schlagen vor, dass Robotik und künstliche Intelligenz auf Grundlage einer Folgenabschätzung weiterentwickelt und erarbeitet werden, wobei die besten verfügbaren technischen Sicherheitsstandards und die Möglichkeit der Intervention einzubeziehen sind.Gemäß der verantwortungsvollen Forschung und Innovation sind die Anwendung des Vorsorgeprinzips und die Beurteilung der langfristigen ethischen Auswirkungen der neuen Technologien zu einer frühen Phase ihrer Entwicklung unabdingbar.

 

Empfehlung 3: Do-no-harm-Prinzip. Roboter sind multifunktionale Werkzeuge. Sie sollten nicht dafür entwickelt werden, Menschen zu töten oder ihnen zu schaden. Ihr Einsatz muss gemäß garantierten individuellen Rechten und Grundfreiheiten erfolgen. Dazu zählen die Grundsätze der datenschutzfreundlichen Technikgestaltung sowie der menschlichen Unversehrtheit, die Achtung der Menschenwürde und der menschlichen Identität. Der Mensch hat Vorrang vor den ausschließlichen Interessen der Wissenschaft und der Gesellschaft. Die Entscheidung, einen Menschen zu verletzen oder zu töten sollte nur durch eine gut ausgebildete menschliche Anwender*in getroffen werden. Daher sollte die Verantwortung und Rechenschaftspflicht eines Menschen beim militärischen Einsatz von Robotern nicht aufgehoben werden. Die Entwicklung von Robotern und künstlicher Intelligenz sollte im Einklang mit dem humanitären Völkerrecht und dem Recht des bewaffneten Konflikts erfolgen.

 

Empfehlung 4: Ökologischer Fußabdruck. Wir sind uns bewusst, dass die Robotik und die künstliche Intelligenz dazu beitragen können, Prozesse umweltfreundlicher zu gestalten, während gleichzeitig der Bedarf besteht, ihren ökologischen Fußabdruck auf ein Minimum zu reduzieren. Wir betonen, dass die Grundsätze des regenerativen Designs Anwendung finden sollen und die Energieeffizienz gesteigert werden muss, indem der Einsatz von erneuerbaren Energiequellen in der Robotik sowie der Einsatz und die Wiederverwendung von Sekundärrohstoffen gefördert und die Abfälle reduziert werden.

 

Empfehlung 5: Erweiterungen. Wir sind der Überzeugung, dass die Bereitstellung von sozialen oder Gesundheitsdiensten nicht davon abhängig gemacht werden sollte, ob Robotersysteme und künstliche Intelligenz in Form eines Implantats oder als Erweiterung des menschlichen Körpers akzeptiert werden. Eingliederung und Vielfalt müssen für unsere Gesellschaft an erster Stelle stehen. Die Würde von Menschen mit oder ohne Behinderung ist unantastbar. Personen, die Geräte als Implantate oder Erweiterungen tragen, können nur selbstbestimmt leben, wenn sie Volleigentümer der entsprechenden Geräte und all ihrer Bestandteile sind, einschließlich der Möglichkeit deren Innenleben neu zu gestalten.

 

Empfehlung 6: Menschliche Autonomie. Wir sind der Überzeugung, dass die menschliche Autonomie nur vollständig geachtet werden kann, wenn das Auskunftsrecht und das Einwilligungsrecht geschützt werden, einschließlich des Schutzes von Personen, die selbst nicht in der Lage sind, ihre Einwilligung zu erteilen. Wir lehnen das Konzept des „Dateneigentums“ ab, das im Gegensatz zum Datenschutz als Grundrecht stehen und Daten als handelbare Ware einstufen würde.

 

Empfehlung 7:  Haftung und Verantwortung. Die gesetzliche Verantwortung sollte bei einer Person liegen. In Bezug auf die Sicherheit trägt der Hersteller auch dann die Verantwortung, wenn in einer Benutzervereinbarung ein Haftungsausschluss vorhanden ist. Hersteller, Programmierer*in oder Betreiber*in sollten aufgrund unbeabsichtigter Ursachen möglicher Schäden nicht automatisch von ihrer Haftung und Verantwortung ausgeschlossen werden. Um mögliche Folgen eines Ausfalls und einer Fehlfunktion ausreichend komplexer Systeme zu vermindern, sollten unserer Auffassung nach Konzepte wie eine Gefährdungshaftung  in Erwägung gezogen werden, und auch Pflichtversicherungsverträge.

 

Empfehlung 8: Offenheit. Wir sprechen uns für Offenheit aus, von offenen Standards und innovativen Lizenzierungsmodellen bis hin zu offenen Plattformen und Transparenz, um eine Anbieterbindung zu vermeiden, mit der die Interoperabilität eingeschränkt wird.

 

Empfehlung 9: Produktsicherheit. Robotersysteme und künstliche Intelligenz sollten als Produkte so entwickelt werden, dass sie wie andere Produkte auch sicher sind und ihren Zweck erfüllen. Roboter und KI sollten schutzbedürftige Nutzer*innen nicht ausbeuten.

 

Empfehlung 10: Finanzierung. Die Europäische Union und ihre Mitgliedstaaten sollten zu diesem Zweck die Forschung finanzieren, insbesondere in Bezug auf die ethischen und rechtlichen Auswirkungen der künstlichen Intelligenz.

Kommentare

Keine Kommentare

Kommentar hinzufügen
*
*

*
CAPTCHA-Bild zum Spam-Schutz Wenn Sie das Wort nicht lesen können, bitte hier klicken.

*