Wenn der Mensch zur MenschIn wird - oder:

Wieviel »Gleichberechtigung« verträgt das Land?

How much »equality« the country can stand?

Homepage - Archiv 1 - Archiv 2 -- Hilfe - Regeln für dieses Forum - Kontakt - Über uns

129280 Einträge in 32061 Threads, 293 registrierte Benutzer, 464 Benutzer online (0 registrierte, 464 Gäste)

Entweder bist Du ein aktiver Teil der Lösung, oder ein Teil des Problems.
Es gibt keine unbeteiligten Zuschauer!

    WikiMANNia
    Femokratieblog
Avatar

Sexistische Algorithmen (Genderscheiss)

adler @, Kurpfalz, Saturday, 16.04.2016, 15:49 (vor 3143 Tagen)

Die Universität Oldenburg und TU Braunschweig forschen zum Thema: "Geschlechterwissen in und zwischen den Disziplinen", ein Projekt das vom Niedersächsischen Wissenschaftsministerium mit 500.000,- € gefördert wird.
Hervorzuheben im Rahmen dieses 500.000,- Euro teuren Projektes ist die Forschungsarbeit von Prof. Dr. Corinna Bath im Bereich Gender an der TU Braunschweig zum Thema "Sexismus bei den Algorithmen".

Die Forscherin hat herausgefunden dass, wenn man in die Google-Bilder-Suche etwa den Begriff CEO eintippt, nur bei 11% der Bilder Frauen zu sehen sind!

Professeuse Doctrix Corinna Bath:

Wir [also sie] gehten davon aus, dass Technik neutral ist. Aber es gibt keine neutralen Algorithmen.

Dass liebe ich so, an den Gender"wissenschaften", dass sie immer nur von Annahmen ausgehen und nicht Ergebnisse echter, ergebnisoffener Forschung präsentieren, was aber jeder unbedarfte Leser und Hörer glaubt, weil sie sich mit dem Titel Prof. schmücken.

Dabei können Algorithmen durchaus gefährlich sein, wenn sie so programmiert sind, dass sie rassistische oder sexistische Entscheidungen treffen.

Bei der Google-Suche nach dem Begriff CEO findet die Suchmaschine etwa überproportional viele Bilder von weißen Männern und nur in elf Prozent aller Fälle tauchen Bilder von Frauen auf.
.. Bath beobachtet, dass in der Technikentwicklung oft antiquierte Geschlechterrollen reproduziert werden - dass Algorithmen also sexistischer sind als unsere heutige Gesellschaft.

Und die Doctrix schüttelt auch sogleich eine für sie passende Erklärung aus dem Ärmel:

Die Programmierer sind oft weiße Männer, also Mitglieder einer sehr homogenen Gruppe.

Eine andere Erklärung wäre, dass sich die Algorithmen auch an der Kompetenz und Bedeutung der CEOs orientieren. Wenn also solche von großen Konzernen häufiger nachgefragt werden, als von kleinen Klitschen, dann könnte sich das ein Algorithmus sozusagen "merken" und diese eben auch bei der allgemeinen Suchanfrage häufiger ausspucken.

Dass die Doctrix an so etwas nicht zu denken vermag, könnte zB daran liegen, dass auch sie Mitclitoris einer sehr homogenen Gruppe ist, nämlich aus der Filter Bubble der Gender"wissenschaften" mal kurz entsprungen ist. Und schon wird klar, dass die nicht wirklich Wissenschaft betreiben, sondern nicht aus ihren Vorurteilen herauskönnen.

Das zeigt auch ein anderer #Aufschrei der Professeuse:

Außerdem haben Entwickler oft keine realen Personen im Kopf,(sic!) sondern Stereotype. So entstehen etwa für Senioren geeignete Telefone mit besonders großen Tasten - schließlich können alte Menschen oft nicht mehr gut sehen. Dabei ist alt sein nicht ausschließlich mit Fehlsichtigkeit gleichzusetzen. Auch andere gesundheitliche Probleme wie Demenz oder Hörprobleme beeinflussen, wie alte Menschen Telefone nutzen und welche Funktionen für sie relevant sind. Doch das ist vielen Programmierern nicht bewusst.

Meckern, meckern, meckern. In Wirklichkeit hat sie keine Realitäten im Kopf. Oder was sollen die andreren an dem Telefon ändern. Das sagt sie denen aber nicht, damit sie weiter meckern und sich wichtig machen kann.

Hörprobleme ist ja ein herbeifantasiertes Problem im Zusammenhang mit Telefonen. Der Ton lässt sich heutzutage an jedem Telefon lauter und leiser stellen.

Und Demenz? Das bring ich jetzt überhaupt nicht mit einem Telefon zusammen. Ich würde einem Dementen auch gar kein Telefon in die Hand geben, sonst könnte es mit der nächsten Rechnung eine Riesenüberraschung ins Haus flattern.

Aber dass sind halt wirkliche Probleme und die schlagen bei gender studies nur aus Versehen und am Rande auf oder wenn sie zum Stützen der Vorurteile taugen.

--
Go Woke - Get Broke!

Sexistische Algorithmen

Varano, Città del Monte, Sunday, 17.04.2016, 00:51 (vor 3143 Tagen) @ adler

Gentili Signori,

Professeuse Doctrix Corinna Bath:
Wir [also sie] gehten davon aus, dass Technik neutral ist. Aber es gibt keine neutralen Algorithmen.

Dann soll sie nicht herummotzen, sondern einen besseren Suchalgorithmus programmieren als jenen, den Google derzeit verwendet. Im Gegensatz zu ihrem Gender-Gedöns hätte das vielleicht sogar einen Nutzen für die Menschheit.

(...) findet die Suchmaschine etwa überproportional viele Bilder von weißen Männern und nur in elf Prozent aller Fälle tauchen Bilder von Frauen auf.

Ach, sie meint also, Google fände zu viele weiße Männer? Das wiederum ist nun überhaupt kein Problem - sie bräuchte doch z.B. nur nach "afro sex" zu suchen, da bekäme sie genügend Bilder von schwarzen Frauen ...

Auch andere gesundheitliche Probleme wie (...) Hörprobleme beeinflussen, wie alte Menschen Telefone nutzen und welche Funktionen für sie relevant sind. Doch das ist vielen Programmierern nicht bewusst.

Echt jetzt?

Nun, selbst minimale Recherche scheint man in der Gender-"Wissenschaft" für entbehrlich zu halten. Wenn das Frollein Doctrix wüsste, wie man eine Suchmaschine wie Google bedient, dann hätte sie nämlich in weniger als fünf Minuten herausgefunden:

Die ach so bösen weißen, männlichen Entwickler kümmern sich längst um genau dieses Problem. Selbstverständlich gibt es Telefone für Schwerhörige, und selbstverständlich können Hörgeräte und Cochlea-Implantate per Induktion mit dafür geeigneten Telefonen verbunden werden.

(...) ein Projekt das vom Niedersächsischen Wissenschaftsministerium mit 500.000,- € gefördert wird.

Eigentlich sollte das niedersächsische Wissenschaftsministerium besser mal ein paar Euro springen lassen, um diesen ganzen Gender-Sondermüll halbwegs umweltfreundlich zu entsorgen.

Cordiali saluti,

Marc' Antonio Varano

--
Der Unterschied zwischen Merkeldeutschland und einer Bananenrepublik besteht darin, dass wir die Bananen importieren müssen.

Zahl VieER ist auch "sexistisch".Normal müsste Vieh!*_-* heissen! HundertER ist aber gut ;-)

Urknall, Sunday, 17.04.2016, 04:57 (vor 3143 Tagen) @ adler

- kein Text -

Avatar

Diskriminierungsfreie Algorithmen

Borat Sagdijev, Monday, 18.04.2016, 10:25 (vor 3142 Tagen) @ adler

Das Ergebnis des Algorithmus ist also in keiner Weise abhängig von den Ausgangsdaten, ein perfekter Zufallsgenerator.

Bildersuche CEO dann z.B.:
[image]

Die Zukunft gegenderter Informatik.

Aber wieder müssten wohl Männer ran, den möglichst idealen Zufallsgenerator zu entwickeln, denn das erfordert erschreckenderweise Diskriminierung zwischen weniger und mehr diskriminierenden (also deterministischen) Zufallsgeneratoren.
Patriarchale Welt!

Doch wie erfahrene Männer wissen darf man Frauen keinesfalls geben was sie vorgeben zu wollen, das frustriert sie am Ende nur und macht eine Gesellschaft kaputt.

Denn diese obsolete Prof.I.x oder was auch immer es ist meint ja wie es bei Frauen üblich ist was ganz anderes, doch ihr Gehirn hat Probleme es direkt zu sagen.

Und Zwar:

Ich! Hier! Gib! Mir! Mehr! Und! Dann! Noch! Mehr! Du! Bist! Schuld! Gib! Mehr!

Ist ja auch verständlich.

Frauen wollen gut sein, zur Not mit Gewalt.

--
http://patriarchilluminat.wordpress.com/
Patriarchale Spülregeln

powered by my little forum