Zum Hauptinhalt wechseln
Logo farbenmeer
Blog / Veröffentlicht am

Ethik & Digitalisierung - Wo ein Weg ist, ist auch ein Wille?

Portrait von Merle
Autorin

Merle Baake, Softwareentwicklung

Als junge Entwicklerin möchte ich vor allem eines: Das ganze Spektrum der mir zugänglichen Technologien lernen, ausprobieren und anwenden. Als Person weiß ich aber auch, dass ich nicht allein auf der Welt bin. Mit den erlernten und zu erlernenden Skills der Entwicklung digitaler Produkte bin ich in der Lage dazu, Anwendungen, Webseiten und sogar Künstliche Intelligenzen zu entwickeln, die den Alltag vieler Menschen beeinflussen. Zum großen Teil haben die Nutzerinnen dieser Produkte wenig oder kein Wissen über die dahinter liegenden Technologien und können nicht im Ganzen verstehen, was im Daten- und Algorithmengewusel passiert. Wenn auch kein Wissen darüber vorhanden ist, was potentiell technologisch möglich ist, können von den Nutzerinnen auch keine konkreten Sorgen formuliert werden.

Daher liegt es unter anderem in meiner Verantwortung als Entwicklerin Produkte zu entwickeln, welche genutzt werden können, ohne dass die Verwendung für die Nutzerinnen unabsehbare Folgen hat. Zum Beispiel durch das Preis geben nicht notwendiger persönlicher Daten oder die nicht nachvollziehbare Kombination der Daten mit weiteren Daten aus anderen Kontexten. Wenn ich mich dabei technologisch austoben kann ist das nur eine zweite Kirsche auf dem Eisbecher. Wichtig dabei: Ich kann, aber sollte ich?

Wer die Möglichkeiten bestimmt, beeinflusst die Entscheidung 

Wie können die Personen, die verantwortlich für die Entwicklung digitaler Produkte sind, denn sicherstellen, alle Beteiligten am Ende wertvolle Produkte in den Händen halten? Der Zwiespalt zwischen Daten sammeln, um daraus Informationen zu gewinnen, die den Nutzerinnen zu Gute kommen (z.B. um mich mit meinen Freunden und Freundinnen zu vernetzen) und Daten sammeln, um meine eigenen wirtschaftlichen Interessen zu vertreten (z.B. gezielt Werbung schalten), bleibt. Beim Entwickeln der Produkte können die Verantwortlichen aber einige Dinge beachten, um zu gewährleisten, dass die entwickelte Anwendung einen Nutzen hat.

Ein diverses Team

Drei Frauen sitzen vor ihren Laptops und diskutieren

Mittlerweile ist die Welt ein enges Zusammenspiel aus Computern und Menschen. In der Gesellschaft verankerte Vorurteile spiegeln sich auch in Maschinen wieder. Werden diese Maschinen nun genutzt, werden Nutzerinnen wiederum von den implementierten Vorurteilen beeinflusst.

Dafür gibt es zahlreiche Beispiele. So wurde etwa ein automatischer Seifenspender hergestellt, der bei Händen einer Person of Color nicht auslöste. Des weiteren deckte im Herbst 2019 eine Studie des Science Magazins auf, dass sich die strukturelle Benachteiligung von PoC in den USA auch in einem Algorithmus zur Abschätzung der gesundheitlichen Bedürfnisse widerspiegelt. Auch weibliche Personen sind von mangelhaften Überlegungen in der Softwareentwicklung betroffen. Eine Studie der UN stufte die zumeist weiblichen Stimmen der Sprachassistentinnen, wie Siri und Alexa, als problematisch ein. Warum? Es festigt den (noch) sehr präsenten Stereotyp, Frauen in „dienenden” Positionen zu sehen.

In allen drei Fällen werden bereits vorhandene Ungleichgewichte durch Technologien reproduziert - und durch deren Wechselwirkung mit der Gesellschaft verstärkt. Nur ein divers aufgestelltes Entwicklungsteam ist sensibel für die Ungleichheiten in unserer Gesellschaft, macht diese für das gesamte Team sichtbar und kann somit Diskriminierung eindämmen. Eine Software ist nur so neutral und umsichtig wie sie geschaffen und trainiert wurde. Dieser Verantwortung sollte sich jede Entwicklerin bewusst sein.

Criminal Thinking

Drei Frauen sitzen vor ihren Laptops und arbeiten.

Es ist wichtig, so früh und umfangreich wie möglich abzuschätzen, wie viel Schaden durch das Produkt entstehen könnte. Dabei kann es helfen, sich zu überlegen, was jemand mit andern Absichten als mir potentiell mit den gesammelten Daten anstellen könnte. Sind sie aus dem Kontext der Anwendung gegriffen noch genau so hilfreich? Zu welchen Schlüssen könnte man kommen, wenn sie mit anderen Daten kombiniert werden? Was sind die schlimmsten potentiellen Konsequenzen, die die neue Anwendung zu Folge haben kann?

In Future Ethics führt Cennydd Bowles dazu das Beispiel AirBnB an, eine Webseite, die Nutzerinnen erlaubt ihre Wohnungen und Zimmer als Ferienwohnungen bereitzustellen. Werden Wohnungen zum Großteil an Urlauberinnen vermietet und stehen somit nicht mehr für Personen als Wohnraum zur Verfügung, hat dies wesentliche Folgen für die Wohnstruktur gesamter Städte. Dies fordert strikte Regulierungen zur Sicherung privaten Wohnraums.

Unbeabsichtigt heißt nicht unvorhersehbar. Sicherheitslücken können nur rechtzeitig erkannt werden, wenn danach gesucht wird. Eine absichtliche Falschnutzung der entwickelnden Personen im Vorhinein kann verhindern, dass die Anwendung in anderen Händen missbraucht wird. So wie man nochmal kräftig am Stuhl ruckelt, den man gerade zusammen gebaut hat, um sicherzugehen dass er stabil ist.

Zusammenspiel aller Instanzen 

Zwei Personen stehen sich gegenüber mit Blitzen im Hintergrund

Es gibt kein absolutes Pflichtenheft, es gibt keine Liste, die wir Entwicklerinnen durchgehen und abhaken können und dann sind wir ethisch auf der sicheren Seite. Es ist schwierig zu sagen, dass bestimmte Technologien ein Garant für einen sicheren Datenaustausch und eine Anwendung mit Mehrwert sind. So ist es mit Sicht auf Datenschutz besser, dezentralisiert Daten auf dem Gerät der Nutzerinnen zu speichern, gleichzeitig hat es aber auch viele Vorteile, Daten an einem zentralen Ort zu speichern, so dass zum Beispiel Gesundheitsdaten beim Arztwechsel oder beim spontanen Krankenhausaufenthalt sofort verfügbar sind.

Es ist wichtig, sich mit allen beteiligten Expertinnen, sowie Nicht-Expertinnen auszutauschen, um Folgen richtig abzuschätzen. Dazu gehört Transparenz über die Funktion und den Hintergrund der Anwendungen, damit potentielle Nutzerinnen überhaupt wissen, was sie kritisch hinterfragen können. Aber auch zwischen Technologinnen muss es Absprachen geben. So wie es ein Pressekodex gibt, könnte es auch ein Technologiekodex, einen übergeordneten Code of Conduct, geben, bei dem sich die technologische Seite auf ein „Maß an Ethik“ einigt. Für brenzlige Fälle gibt es Gesetze auf die zurückgegriffen werden kann. So hat die EU im Vergleich zum Rest der Welt relativ strenge Bestimmungen zum Thema Datenschutz.

Regulierungen müssen nicht immer nur zu Einschränkungen führen, sondern können auch unsere Freiheiten bewahren. So habe ich in Deutschland, die Freiheit meine Fitness-App zu nutzen und meine Gesundheit wie es mir beliebt verfolgen zu lassen. Dabei muss ich keine Angst haben, dass meine Krankenversicherung mir eine Kündigung schickt, sobald sie mitbekommt, dass ich nur 1000 Schritte in der ganzen Woche gehe, obwohl ich diese an einem Tag erfüllen sollte. Ein Dank an die gesetzlich vorgeschrieben Krankenversicherung.

Allerdings sind auch Gesetze nicht immer moralisch auf der Höhe. Es ist noch gar nicht so lange her, dass Rosa Parks gegen das Gesetz verstieß, als sie sich als PoC in das Busabteil setzte, welches nur für weiße Personen bestimmt war. Es gilt an uns auch da, immer wieder zu überprüfen, ob diese ausreichen oder ihr Ziel verfehlen. Letztendlich kommen die ethischen Fragen nicht von den Maschinen, sondern von uns. Von den Entwicklerinnen, die absehen können wo unsere Daten landen und wozu. Das alles ist schwierig als Einzelkämpferin, deswegen ist es wichtig, unsere Kolleginnen auch auf die Verantwortung hinzuweisen und sich gemeinsam dafür einzusetzen, Produkte zu entwickeln, mit denen wir mit einem guten Gewissen ins Bett gehen können (also nicht wirklich, wegen den eckigen Augen). Hätte nur eine Google-Mitarbeiterin gegen die Arbeit mit Drohnen protestiert , hätte das wahrscheinlich niemanden interessiert.

Das digitale Handtuch werfen?

Leider ist es nicht immer so einfach, nur Produkte zu entwickeln, welche moralisch einwandfrei vertretbar sind. Das Geld und die technologischen Ressourcen liegen dann doch bei großen Firmen, welche Nutzerinnen in manchen Fällen sogar gezielt manipulieren und bei denen persönlichen Daten eine Währung sind. Dennoch könnten wir uns als Entwicklerinnen, Designerinnen, Projektmanagerinnen etc. bewusst machen, dass wir sehr mächtige Skills haben, mit denen wir beeinflussen können was unsere Umwelt anklickt, und dass wir, auch wenn es vielleicht erstmal nur im kleinen Kreis ist, beeinflussen können ob und wie wir diese Skills einsetzen.

Mehr Informationen

Bowles, Cennydd. (2018) Future Ethics. NowNext Press. (Große Empfehlung!)

Peter Purgathofer (Hier bei Twitter )


Weiterführende Links

Weiter stöbern
Umfrage

Welches Thema interessiert dich am meisten?