Veranstaltung: | Digitaler Parteitag (LDK) |
---|---|
Antragsteller*in: | Doris Wagner (KV München) |
Status: | Eingereicht |
Eingereicht: | 27.09.2020, 08:02 |
A1: Digital = Gerecht = Geschlechtergerecht
Antragstext
Vision - Die Digitalisierung bringt grundlegende Veränderungen für unsere
Gesellschaft und umwälzende Beschäftigungsbedingungen und Möglichkeiten für die
Arbeitswelt.
Damit einhergehen kann auch ein großer Schritt in Richtung Antidiskriminierung,
Geschlechtergerechtigkeit und Gleichstellung. Strukturelle Verkrustungen können
aufgebrochen, Klischees ausgehebelt, gesellschaftliche und politische Teilhabe
und Chancengerechtigkeit befördert werden.
Wir können die Weichen stellen für eine Welt, für digitale Welten, in und mit
denen wir zukünftig leben wollen. Dazu bringen wir die Geschlechterperspektive
in die digitale Transformation ein.
Herausforderungen- Bei allem Nutzen und allen Erleichterungen, die die
Digitalisierung uns bringt und der vermeintlichen Neutralität, ist ein „gender
bias“ deshalb eine nicht zu unterschätzende Gefahr. Das Netz bildet die
Gesellschaft ab und somit auch ihre strukturellen Benachteiligungen. Zudem sind
in der Software-Entwicklung in globalen Technologieunternehmen wie in Startups
Frauen deutlich unterrepräsentiert.
Zwar sind nicht alle algorithmischen Entscheidungen automatisch negativ zu
beurteilen oder potenziell diskriminierend, problematisch werden sie aber immer
dann, wenn sie weitreichende Konsequenzen für Menschen haben, z.B. in
Bewerbungsverfahren, bei der Kreditvergabe oder in anderen
diskriminierungsanfälligen Lebensbereichen.
Gründe dafür sind insbesondere:
Daten – Maschinelles Lernen basiert vorallem auf der Analyse großer Datenmengen
und der Suche nach Mustern und Korrellationen in diesen Daten. Diese Daten
werden jedoch meistens von Menschen vorsortiert, klassifiziert oder anderweitig
bearbeitet. Diese Voreingenommenheit („Schubladendenken“) spiegelt sich am Ende
in den Daten wieder – so lernen Algorithmen die die Diskriminierung von Menschen
zu reproduzieren.
Transparenz – Algorithmisch basierte Entscheidungen greifen in einer nie
dagewesenen Größenordnung weit in das persönliche Leben praktisch aller Menschen
ein und können dabei oft nicht mehr nachvollzogen werden. Wie in einer Blackbox
sind die Entscheidungskriterien uns verborgen, wenn überhaupt bekannt ist, dass
ein Algorithmus im Einsatz ist. Für das kritische Hinterfragen von
Entscheidungen, ist es aber unabdingbar, die Gründe hinter den Entscheidungen,
die ein Schädigungspotential aufweisen, auch zu verstehen.
Werte – Nicht nur die Daten selbst, auch die Normen, die Werte, die Haltung und
die Vielfalt die den Daten zugrunde liegt, sind meist unbekannt, genauso wer sie
ausgewählt hat und warum. Diskriminierung kann dadurch reproduziert werden. Auch
Frage, was fair und gerecht ist, ist abhängig von den gesellschaftlichen und
kulturellen Werten – nicht jede objektiv (mathematisch) gerechte Entscheidung
ist auch subjektiv (gesellschaftlich) fair. Die Abwägung von Werten ist keine
technische Herausforderung, sondern eine gesellschaftliche und braucht deshalb
deutlich mehr öffentliche Debatte. Dahinter steht die Frage, wer eigentlich über
unsere Zukunftsvisionen entscheidet - und das sollten wir alle sein.
Forderungen
- Um Diskriminierung von Frauen und allen vom AGG abgedeckten
Personengruppen durch algorithmische Entscheidungssysteme so weit wie
technisch möglich auszuschließen, muss für Anwendungen, die ein gewisses,
deutliches oder gar erhebliches Schädigungspotenzial haben, ein gestuftes
Kontroll- und Überwachungssystem schon auf der Ebene der
Entscheidungsvorbereitung eingeführt werden. Anwendungen mit nicht
vertretbarem Schädigungspotenzial müssen komplett untersagt werden, z. B.
auf Basis einer Risikomatrix mit eigenen Anforderungen an Transparenz und
Nachvollziehbarkeit algorithmischer Entscheidungssysteme.
- Durch Künstliche Intelligenz getroffene Entscheidungen müssen, falls sie
negative Auswirkungen auf Menschen haben können, nachvollziehbar sein,
Betroffene müssen über den Einsatz informiert werden
(Kennzeichnungspflicht) und es muss einen Beschwerdemechanismus geben.
- Es muss regelmäßige Evaluation, bspw. durch ‚Blackbox Testing’, von durch
Künstliche Intelligenz ermittelten Ergebnissen geben.
- Wir brauchen ‚Datenvielfalt’ im Sinne von qualitativ hochwertigen und auch
gegen mögliche Diskriminierungseffekte geprüfte Daten als Grundlage, um
einen ‚roll-back durch Algorithmus' zu verhindern.
- Die wissenschafftliche Erforschung von Datenqualität und bias-freien
Daten, insbesondere im Hinblick auf Diskriminierungspotential und
Geschlechterungleichheit, muss stärker gefördert werden.
- Es müssen Richtlinien für die geschlechtergerechte Entwicklung und
Anwendung entwickelt werden. Unternehmen, Verwaltung und
Beteiligungsgesellschaften von Bund und Land müssen zur
diskriminierungsfreien Ausgestaltung von Algorithmen verpflichtet werden.
- Eine Ergänzung von AGG-Tatbestände ist zu prüfen mit dem Ziel,
algorithmenbasierte Ungleichbehandlungen zu verhindern. Zudem muss die
hohe Anforderung an Darlegung- und Beweislast für eventuell Betroffene
überprüft werden.
- Es muss eine strikte und kontinuierliche staatliche Kontrolle von
Algorithmen geben, die einen erheblichen negativen Einfluss auf das Leben
von Menschen haben können.
- Der Frauenanteil in der IT-Branche, besonders für die Entwicklung und den
Einsatz von Algorithmen soll gesteigert werden.
Unterstützer*innen
- Stephanie Dittrich (KV Lichtenfels)
- Dieter Janecek (KV München)
- Susanne Grohs-v. Reichenbach (KV München)
- Angela Buettner (KV München)
- Heidi Schiller (KV München)
- Gunda Krauss (KV München)
- Diana Niebrügge (KV Passau-Stadt)
- Barbara Poneleit (KV Forchheim)
- Stefanie Auer (KV Passau-Stadt)
- Melanie Hippke (KV Augsburg-Stadt)
- Paul Bauernschmid (KV München)
- Hermann Josef Brem (KV München)
- Benoît Blaser (KV München)
- Marion Lüttig (KV München)
- Monir Shahedi (KV Regensburg-Stadt)
- Benjamin Adjei (KV München)
- Stefan Schmidt (KV Regensburg-Stadt)
- Andrea Leitermann (KV Cham)
- Victoria Broßart (KV Rosenheim)
- Sarah Broßart (KV Rosenheim)
- Angelica Schieder (KV Landshut-Stadt)
- Beate Walter-Rosenheimer (KV Fürstenfeldbruck)
- Katharina von Platen (KV Weilheim-Schongau)
- Lena Knauer (KV Forchheim)
- Alexandra Nürnberger (KV München)
- Wolfgang Ehrenlechner (KV Berchtesgadener Land)
- Katharina Sparrer (KV Ansbach)
- Constanze Kobell (KV München)
- Kerstin Daser (KV Mühldorf)
- Stephanie Eikerling (KV Miesbach)
- Frank Dürsch (KV München)
- Uschi Sorg (KV Weilheim-Schongau)
- Dorothea Gaumnitz (KV Erlangen-Land)
- Kathrin Düdder (KV München)
- Ludwig Sporrer (KV München)
- Heidi Reiser (KV Landsberg-Lech)
- Victor Behrends (KV Bamberg-Land)
- Karin Filia Mayer M.A. (KV Augsburg-Stadt)
- Heidi Schiller (KV München)
Änderungsanträge
- Ä1 (Benedikt Clemens Mader (KV Erlangen-Stadt), Angenommen)
Kommentare