Sexistische Algorithmen (Genderscheiss)
Die Universität Oldenburg und TU Braunschweig forschen zum Thema: "Geschlechterwissen in und zwischen den Disziplinen", ein Projekt das vom Niedersächsischen Wissenschaftsministerium mit 500.000,- € gefördert wird.
Hervorzuheben im Rahmen dieses 500.000,- Euro teuren Projektes ist die Forschungsarbeit von Prof. Dr. Corinna Bath im Bereich Gender an der TU Braunschweig zum Thema "Sexismus bei den Algorithmen".
Die Forscherin hat herausgefunden dass, wenn man in die Google-Bilder-Suche etwa den Begriff CEO eintippt, nur bei 11% der Bilder Frauen zu sehen sind!
Professeuse Doctrix Corinna Bath:
Wir [also sie] gehten davon aus, dass Technik neutral ist. Aber es gibt keine neutralen Algorithmen.
Dass liebe ich so, an den Gender"wissenschaften", dass sie immer nur von Annahmen ausgehen und nicht Ergebnisse echter, ergebnisoffener Forschung präsentieren, was aber jeder unbedarfte Leser und Hörer glaubt, weil sie sich mit dem Titel Prof. schmücken.
Dabei können Algorithmen durchaus gefährlich sein, wenn sie so programmiert sind, dass sie rassistische oder sexistische Entscheidungen treffen.
Bei der Google-Suche nach dem Begriff CEO findet die Suchmaschine etwa überproportional viele Bilder von weißen Männern und nur in elf Prozent aller Fälle tauchen Bilder von Frauen auf.
.. Bath beobachtet, dass in der Technikentwicklung oft antiquierte Geschlechterrollen reproduziert werden - dass Algorithmen also sexistischer sind als unsere heutige Gesellschaft.
Und die Doctrix schüttelt auch sogleich eine für sie passende Erklärung aus dem Ärmel:
Die Programmierer sind oft weiße Männer, also Mitglieder einer sehr homogenen Gruppe.
Eine andere Erklärung wäre, dass sich die Algorithmen auch an der Kompetenz und Bedeutung der CEOs orientieren. Wenn also solche von großen Konzernen häufiger nachgefragt werden, als von kleinen Klitschen, dann könnte sich das ein Algorithmus sozusagen "merken" und diese eben auch bei der allgemeinen Suchanfrage häufiger ausspucken.
Dass die Doctrix an so etwas nicht zu denken vermag, könnte zB daran liegen, dass auch sie Mitclitoris einer sehr homogenen Gruppe ist, nämlich aus der Filter Bubble der Gender"wissenschaften" mal kurz entsprungen ist. Und schon wird klar, dass die nicht wirklich Wissenschaft betreiben, sondern nicht aus ihren Vorurteilen herauskönnen.
Das zeigt auch ein anderer #Aufschrei der Professeuse:
Außerdem haben Entwickler oft keine realen Personen im Kopf,(sic!) sondern Stereotype. So entstehen etwa für Senioren geeignete Telefone mit besonders großen Tasten - schließlich können alte Menschen oft nicht mehr gut sehen. Dabei ist alt sein nicht ausschließlich mit Fehlsichtigkeit gleichzusetzen. Auch andere gesundheitliche Probleme wie Demenz oder Hörprobleme beeinflussen, wie alte Menschen Telefone nutzen und welche Funktionen für sie relevant sind. Doch das ist vielen Programmierern nicht bewusst.
Meckern, meckern, meckern. In Wirklichkeit hat sie keine Realitäten im Kopf. Oder was sollen die andreren an dem Telefon ändern. Das sagt sie denen aber nicht, damit sie weiter meckern und sich wichtig machen kann.
Hörprobleme ist ja ein herbeifantasiertes Problem im Zusammenhang mit Telefonen. Der Ton lässt sich heutzutage an jedem Telefon lauter und leiser stellen.
Und Demenz? Das bring ich jetzt überhaupt nicht mit einem Telefon zusammen. Ich würde einem Dementen auch gar kein Telefon in die Hand geben, sonst könnte es mit der nächsten Rechnung eine Riesenüberraschung ins Haus flattern.
Aber dass sind halt wirkliche Probleme und die schlagen bei gender studies nur aus Versehen und am Rande auf oder wenn sie zum Stützen der Vorurteile taugen.
--
Go Woke - Get Broke!
gesamter Thread:
- Sexistische Algorithmen -
adler,
16.04.2016, 15:49
- Sexistische Algorithmen - Varano, 17.04.2016, 00:51
- Zahl VieER ist auch "sexistisch".Normal müsste Vieh!*_-* heissen! HundertER ist aber gut ;-) - Urknall, 17.04.2016, 04:57
- Diskriminierungsfreie Algorithmen - Borat Sagdijev, 18.04.2016, 10:25