#manandmachine

Konferenzbericht zur Diskussion vom 8. September 2016

Erstellt am 13.09.2016

Videoaufzeichnung der Diskussion.

 

Am 8. September 2016 fand eine Diskussionsveranstaltung der im März 2016 gegründeten Grünen Arbeitsgruppe zu Robotik mit dem Titel Das Verschmelzen von Mensch und Maschine: Fragen der Ethik im Umgang mit neuen Technologien im Europäischen Parlament statt. Ziel dieser und weiterer Konferenzen der Arbeitsgruppe ist es, eine Position der europäischen Grünen zu entwickeln, wie die Gesellschaft mit Fragen des Umgangs mit modernder Technik, der Rolle von Politik und Recht sowie der Notwendigkeit der Regulierung umgehen kann.

 

Im ersten Teil der Diskussion ging es um die maschinelle Ausweitung von Körpergrenzen und das Verschmelzen von Mensch und Maschine. Den Auftakt machte Enno Park, Vorsitzender des Vereins Cyborgs e.V., der sich mit Implantaten und Prothesen auseinandersetzt und selbst Träger von Cochlea-Implantaten ist. Park unterschied in seiner Präsentation zwischen medizinischen und nicht-medizinischen Implantaten sowie Wearables. TrägerInnen von Implantaten sollten sich die Frage stellen, wer eigentlich den Code kontrolliert, der in ihren Körpern ausgeführt wird. Enno Park hält es für eine extreme Form der Kundenbindung, dass NutzerInnen den Anbieter nicht wechseln können, ohne re-implantieren zu lassen. Park kritisierte darüber hinaus, dass strenge Vorschriften in der Medizintechnik verhindern, dass BenutzerInnen ihre eigenen Geräte programmieren. Eine wichtige ethische Frage sei darüber hinaus, wie die Zukunft der Barrierefreiheit aussieht, wenn alle Behinderungen durch Implantate „repariert“ werden können.

 

Von strengen Vorschriften ließ sich Dana Lewis, die zweite Rednerin, nicht abhalten. Die amerikanische Spezialistin für digitale Kommunikation und Diabetikerin hat unter der Bezeichnung Open APS (Open Artificial Pancreas System) mit ihrem Ehemann Scott Leibrand eine künstliche Bauchspeicheldrüse entwickelt. Das Gerät misst permanent den aktuellen Blutzuckerspiegel und passt die Menge des zu verabreichenden Insulins daran an. Mit Open APS haben Lewis und Leibrand die bestehende Technologie für Messgeräte und Insulinpumpen weiterentwickelt, weil sie nicht warten wollten, bis kommerzielle Lösungen fertig und zugelassen sind. Dana Lewis machte deutlich, dass es ein schwieriger Balanceakt ist, die Menschen schnell mit sicherer Technologie zu versorgen. Die Technologiefrage bewege sich immer in einem Spektrum zwischen Angst und Skepsis, aber es lasse sich auch ein gewisser Technik-Euphemismus feststellen. Da menschliche Fehler immer unterlaufen können, müsse so verantwortungsbewusst wie möglich damit umgegangen werden. Auch in der DIY-Community sei das eine große Frage, so Lewis. (Präsentation)

 

Im zweiten Track diskutierten Yvonne Hofstetter, Autorin und Geschäftsführerin der Teramark Technologies GmbH, Prof. Dr. Oliver Bendel, Experte für Informationsethik sowie Maschinenethik und Constanze Kurz, Autorin und Sprecherin des Chaos Computer Club e.V. (CCC). Hofstetter stellte in ihrem Beitrag die Frage, ob maschinelle Intelligenz nicht nur Autos, sondern ganze Gesellschaften lenken könne. Daraus ergebe sich die Frage nach der Vereinbarkeit demokratischer Werte mit algorithmisierten Gesetzen.

 

Der Philosoph und Informatiker Prof. Dr. Oliver Bendel setze sich in seinem Vortrag mit der Frage nach moralischer Verantwortung autonomer Systeme auseinander. Geräte, die Entscheidungen mit normativen Implikationen fällen müssen, bezeichnet er als "moralische Maschinen". Die Verantwortung für die Entscheidung über ethische Fragen könne nie bei der Maschine selbst liegen, sondern müsse von Menschen getragen werden. Bendel unterstrich hierbei, dass er sich keine von TechnikherstellerInnen und ProgrammierInnen moralisch strukturierte Welt wünscht. Er forderte, dass die Verantwortung über eine moralische Entscheidung bei den AnwenderInnen liegen müsse. Als Beispiel hierfür stellte er den von ihm entwickelten Staubsauger Ladybird vor, der beim Saugen zwar kleine Insekten registrieren und umfahren kann, diese aber auch durch das Betätigen des eingebauten "Kill Spiders"-Button töten kann. So haben die NutzerInnen die Möglichkeit, eine bewusste moralische Entscheidung zu fällen.

 

Die vorangegangenen Vorträge Hofstetters und Bendels veranlassten die dritte Rednerin Constanze Kurz dazu, statt ihrer geplanten Rede frei auf die beiden VorrednerInnen einzugehen. Constanze Kurz wies auf Aspekte der Zusammenarbeit zwischen Mensch und Maschine hin. Sie bezog sich auf das Berufsleben und die Frage, welche Art von Arbeit uns Maschinen abnehmen können und welche Bereiche sie uns nicht abnehmen sollten. Ethische Probleme sieht Kurz z.B. im Bereich körperlicher Enhancements. Sie zweifelt daran, dass Gesetze diese Probleme regeln können. Vielmehr müssten hier soziale Regeln gefunden werden. Die Verantwortung, so Kurz, kann nie bei der Maschine liegen, sondern nur beim Menschen. Die öffentliche Diskussion dieser Themen stufte sie daher von enormer Bedeutung ein, um die Gesellschaft zu sensibilisieren. Kurz kritisierte, dass statt erfundener theoretischer Dilemmata (Trolley-Problem), IT-Sicherheit und IT-Safety stärker im Fokus der Debatte stehen sollten. Constanze Kurz fordert zudem das „right to tinker“, also das Recht auf Basteln und, dass Freiräume für den Kernbereich der privaten Lebensgestaltung erhalten werden müssen. Sie spricht sich gegen den Alarmismus in der Debatte aus und hält fest, dass Hypes aus Silicon Valley keine Naturgesetze sind.

 

Im dritten Teil der Diskussion sprachen Dr. Hielke Hijmans, Sonderberater für den Europäischen Datenschutzbeauftragten und Juha Heikkilä, Referatsleiter für Robotik und Künstliche Intelligenz in der Europäischen Kommission. Hijmans warnte vor den Problemen mit Profiling und selten wirklich neutralen Algorithmen. Als Vertreter einer Regierungsbehörde wirft er Bedenken an der Interoperabilität von Geräten auf. Hijmans sagt, dass Innovationen der Gesellschaft nicht diktieren sollen, wie die Vorschriften zu sein haben, sondern andersherum. Außerdem muss der Gesetzgeber auch in der Lage sein, Innovationen zu bremsen, wenn sie unmoralisch sind. Er warf die Frage nach „Ethik by design“ auf.

 

Der Vertreter der Europäischen Kommission, Juha Heikkilä, behandelte in seinem Beitrag, inwieweit die Kommission als Legislativorgan aber auch als Geldgeberin auftritt. Im Bereich Forschung und Innovation ist das von der Europäischen Kommission ausgeschriebene EU-Förderprogramm Horizon 2020 die Grundlage. Für Robotik und künstliche Intelligenz sind bereits 550 Millionen Euro investiert worden, jedes Jahr werden weitere 7-8 Millionen Euro in 15-20 neue Projekte investiert und der Markt wächst zweistellig. SPARC z.B., ist ein öffentlich-privates Partnerschaftsmodell für Robotik in Europa, die die führende Rolle Europas im Bereich Robotik erhalten und erweitern soll. Heikkilä hält die Sensibilisierung der Bevölkerung für extrem wichtig, denn oft sei das öffentliche Bild realitätsfern. Für die Herausforderungen unserer Volkswirtschaften können Robotik und technologische Entwicklungen in die Bresche springen. In Bezug auf die Haltung der Menschen zitierte Heikkilä die Eurobarometerumfrage von Ende 2014: 85% der Befragten stimmen zu, dass Roboter Arbeiten übernehmen können, die zu hart oder zu gefährlich für Menschen sind, 72% stimmen zu, dass Roboter eine gute Sache für die Gesellschaft sind, weil sie den Menschen helfen. Fast die Hälfte der Befragten (48%) sagen, sie hätten kein Problem damit, wenn Roboter ihnen bei ihrer Arbeit helfen würden. Etwas mehr als ein Viertel (28 %) der Befragten hätte ein Problem damit.

 

Den sehr unterschiedlichen Vortragenden und TeilnehmerInnen mit vielfältigen Hintergründen gelang es, spannende Fragen in Bezug auf Robotik und künstliche Intelligenz aufzuwerfen. Die Veranstaltung hat somit wichtige Anstöße für die weitere Arbeit unserer Gruppe geliefert.

 

Bilder der Veranstaltung.

Videoaufzeichnung der Diskussion.

Kommentare

Keine Kommentare

Kommentar hinzufügen
*
*

*
CAPTCHA-Bild zum Spam-Schutz Wenn Sie das Wort nicht lesen können, bitte hier klicken.

*