<?xml version="1.0" encoding="utf-8"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/">
<channel>
<title>Wieviel »Gleichberechtigung« verträgt das Land? - Ach so, die sogenannte &quot;KI&quot; aka &quot;ChatGPT&quot; is' nix anderes als eine Wikiprawda für besonders hirnamputierte Vollhonks</title>
<link>https://wgvdl.com/forum3/</link>
<description>Gleichberechtigung, Männerdiskriminierung, Männerbenachteiligung, Antifeminismus</description>
<language>de</language>
<item>
<title>Ach so, die sogenannte &quot;KI&quot; aka &quot;ChatGPT&quot; is' nix anderes als eine Wikiprawda für besonders hirnamputierte Vollhonks</title>
<content:encoded><![CDATA[<p>Neulich noch beim DLF eine Kurzsendung - zur schlechtesten Sendezeit - dazu gehört, wie die armen Nächers wieder ausgebeutet werden (gebt ihnen Benin-Bronzen). Naja, damit ist wieder ein weiteres Mosaiksteinchen zusammengefügt: EINE SOGENANNTE &quot;KI&quot; IST SCHWACHSINN (kann der Mr.X schriftlich geben)!</p>
<p>Text nicht aus dem DLF (Anmerkungen in eckigen Klammern):<br />
<span class="fremdzitat"><strong><span style="font-size:smaller;">[angegebene Daten:] 19.01.2023, 20:21 24.03.2023, 15:40</span><br />
<span style="font-size:large;"><a href="https://www.watson.ch/digital/künstliche%20intelligenz/281322087-chatgpt-am-pranger-ki-profitierte-von-afrikanischen-billigloehnern">Das dreckige Geheimnis von OpenAI – gehypte KI basiert auf menschlichen Schmutz-Filtern</a></span><br />
<span style="font-size:smaller;">Daniel Schurter</span></strong><br />
OpenAI, das US-Unternehmen hinter ChatGPT, hat kenianischen Arbeitern weniger als 2 US-Dollar pro Stunde bezahlt, um höchst problematische Inhalte zu beurteilen <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Klartext: Zensur]</strong></span></span>. Dies zeigt eine am Mittwoch veröffentlichte Recherche des renommierten «Time»-Nachrichtenmagazins.<br />
Trotz ihrer wesentlichen Rolle <span style="color:#f00;"><span style="font-size:smaller;"><strong>[... aha, &quot;wesentlichen Rolle&quot;/ Aufgabe der sogenannten &quot;KI&quot; erledigt der Neger]</strong></span></span> beim Aufbau des KI-Chatbots seien die Bildschirmarbeiter mit zermürbenden Bedingungen und niedrigen Löhnen konfrontiert gewesen.<br />
Die Billiglöhner wurden als sogenannte «Datenetikettierer» <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Klartext: Zensur-Huren]</strong></span></span> eingesetzt. Das heisst, sie hatten Zehntausende von problematischen Textzeilen zu filtern <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Klartext: ... die Wahrheit wegdrücken ...]</strong></span></span>, um den KI-Chatbot für die öffentliche Nutzung sicher zu machen <span style="color:#f00;"><strong><span style="font-size:smaller;">[Klartext: Infos, derart kriminell, daß sie in &quot;West-Ländern&quot; auf dem Bearbeiter-Laptop zum, äh, klicken der Acht führen würden]</span></strong></span>.<br />
Dabei seien sie mit Schilderungen von sexuellem Kindesmissbrauch, Zoophilie, Tötungen, Suizid, Folter, Selbstverletzung und Inzest konfrontiert worden, so der Bericht <span style="color:#f00;"><span style="font-size:smaller;"><strong>[... offenbar die Realität, die weder eine angebliche &quot;KI&quot;, noch deren User kennen darf]</strong></span></span>.<br />
Die Problematik erinnert an die fragwürdigen Arbeitsbedingungen von Inhalte-Moderatoren <span style="font-size:smaller;"><strong><span style="color:#f00;">[Klartext: Zensoren]</span></strong></span>, die im Auftrag grosser Social-Media-Plattformen <span style="color:#f00;"><span style="font-size:smaller;"><strong>[... sprich Regime-Plattformen]</strong></span></span> wie Facebook tätig sind.<br />
<strong><br />
Wie konnte das passieren?</strong><br />
ChatGPT war nicht immer so eloquent, wie das Online-Medium «Vice» schreibt <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Korrektur: ... lügt ...]</strong></span></span>. Tatsächlich ist seit dem Start der öffentlichen Testphase im November 2022 ein eigentlicher Hype um das sprachliche Können des KI-Chatbots entstanden <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Korrektur: ... wurde (aktiv!) vom Regime auf allen Poropaganda-Kanälen inszeniert]</strong></span></span>.<br />
Die Vorgänger-Software, die auf einem Sprachenmodell namens GPT-3 basiert, habe noch oft sexistische, gewalttätige und rassistische Texte produziert <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Korrektur: ... Wahrheit wiedergegeben]</strong></span></span>. Dies, weil das Modell auf einem Datensatz trainiert <span style="font-size:smaller;"><strong><span style="color:#f00;">[soso, &quot;trainiert&quot;, wohl eher programmiert]</span></strong></span> wurde, der aus Milliarden von Webseiten extrahiert wurde. Sprich: Die KI verinnerlichte von menschlichen Verfassern alle möglichen Textinhalte <span style="color:#f00;"><span style="font-size:smaller;"><strong>[also die &quot;Wahrheit&quot;]</strong></span></span>.<br />
Bevor die Verantwortlichen ChatGPT starten konnten, suchten sie nach einer Lösung, um schnell die gesamte toxische Sprache <span style="color:#f00;"><span style="font-size:smaller;"><strong>[soso, regimekritisch = &quot;toxisch&quot; (giftig) oder wie?]</strong></span></span> aus dem riesigen Datensatz herauszufiltern.<br />
Dafür habe sich OpenAI mit dem Datenkennzeichnungs-Unternehmen Sama <span style="color:#f00;"><span style="font-size:smaller;"><strong>[... wohl so was wie ein &quot;FaktenFuchs&quot;]</strong></span></span> in San Francisco zusammengetan. Das Unternehmen verspricht, in Entwicklungsländern lebenden Menschen «ethische» und «würdige digitale Arbeit» zu bieten <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Inhalte wohl zu kriminell und wahrheitsgetreu - sogar für San Francisco - deswegen ab nach Afrika!]</strong></span></span>. Beim OpenAI-Auftrag ging es darum, toxische <span style="color:#f00;"><span style="font-size:smaller;"><strong>[&quot;toxisch&quot; = giftig]</strong></span></span> Inhalte zu erkennen und zu kennzeichnen <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Klartext: zensieren/ entfernen]</strong></span></span>, die dann als Daten in ein Filtertool <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Korrektur: Zensur-/Löschwerkzeug]</strong></span></span> für ChatGPT eingespeist werden konnten.<br />
Sama <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Korrekt: der Negersklaventreiber]</strong></span></span> rekrutierte dazu in Kenia die Datenetikettierer <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Zensur-Huren]</strong></span></span>, die eine wesentliche <span style="color:#f00;"><span style="font-size:smaller;"><strong>[da ist es wieder: &quot;wesentlich&quot; ist es der moderne Neger-Sklave die ...]</strong></span></span> Rolle dabei spielen sollten, den KI-Chatbot für die öffentliche Nutzung<span style="color:#f00;"><span style="font-size:smaller;"><strong> [&quot;öffentliche Nutzung&quot; = Filterblase des hirnamputierten Vollhonk]</strong></span></span> sicher <span style="color:#f00;"><span style="font-size:smaller;"><strong>[korrekt wäre hier &quot;aalglatt&quot; gewesen]</strong></span></span> zu machen.<br />
Das Unternehmen bezahlt auch Mitarbeiter in Uganda und Indien, um grosse Datenmengen für Silicon-Valley-Kunden wie Google, Meta und Microsoft zu kennzeichnen <span style="color:#f00;"><span style="font-size:smaller;"><strong>[na dann weiß man ja nun, warum bei Google keine Ergebnisse mehr zu entsprechenden Themen auftauchen]</strong></span></span>.<br />
<strong><br />
Was sagt OpenAI dazu?</strong><br />
Ein Unternehmenssprecher erklärte:<br />
<em>«Unsere Mission ist es, sicherzustellen, dass die gesamte Menschheit von künstlicher allgemeiner Intelligenz</em> <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Wahrheit: ... einem neuen Sprachrohr des Regimes ...]</strong></span></span> <em>profitiert</em><span style="color:#f00;"><span style="font-size:smaller;"><strong> [Korrekt: zwecks optimaler Ausbeutung verblödet wird]</strong></span></span><em>, und wir arbeiten hart daran, sichere und nützliche KI-Systeme</em> <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Anmerkung: Vorderstes Ziel einer vermeintlichen &quot;KI&quot; wäre es, den Mensch aufgrund KI-eigener Sicherheit auszulöschen - von daher betrachtet, ist eine KI in etwa so sinnlos, wie dem Papst seine Eier]</strong></span></span><em> zu entwickeln, die Vorurteile und schädliche</em> <span style="color:#f00;"><span style="font-size:smaller;"><strong>[&quot;schädlich&quot; für wen?]</strong></span></span><em> Inhalte begrenzen.<br />
Das Klassifizieren und Filtern schädlicher [Texte und Bilder] ist ein notwendiger Schritt, um die Menge an gewalttätigen und sexuellen Inhalten, die in Trainingsdaten enthalten sind, zu minimieren und Tools zu erstellen, die schädliche Inhalte erkennen können</em> <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Hörthört! Die behaupten, es sei ein &quot;notwendiger Schritt&quot;, die Wahrheit wegzudrücken!]</strong></span><em></em></span><em>.»<br />
quelle: time.com</em><br />
Weiter hiess es, die Mitarbeiter hätten Anspruch auf Einzel- und Gruppensitzungen mit «professionell ausgebildeten und lizenzierten Therapeuten für psychische Gesundheit» <span style="color:#f00;"><span style="font-size:smaller;"><strong>[soso, dann wissen die also ganz genau, was &quot;der Pöbel&quot; nicht erfahren darf]</strong></span></span>.<br />
Übrigens kündigte Sama seine Arbeit für OpenAI im Februar 2022, acht Monate vor dem vertraglich vereinbarten Termin <span style="color:#f00;"><span style="font-size:smaller;"><strong>[taktisch? Hatte denen wohl einer die folgende Recherche gesteckt:...]</strong></span></span>. Im gleichen Monat veröffentlichte das «Time»-Magazin einen kritischen Artikel über Samas Arbeit mit dem Meta-Konzern von Mark Zuckerberg. Darin geht es um Inhalte-Moderatoren, die traumatisiert wurden, nachdem sie Bilder und Videos von Hinrichtungen, Vergewaltigungen und Kindesmissbrauch für 1,50 Dollar pro Stunde angesehen hatten.<br />
Laut «Time» ist nicht klar, ob OpenAI auch mit anderen Datenkennzeichnungsfirmen kooperiert hat. Das amerikanische KI-Unternehmen hält sich diesbezüglich bedeckt <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Ein Schelm, wer böses dabei denkt!]</strong></span></span>.<br />
<strong><br />
Was lernen wir daraus?</strong><br />
Das zum «Vice»-Medienkonzern gehörende Online-Medium Motherboard hatte im vergangenen Dezember kritisch berichtet, dass die viel gepriesene KI-Innovation von unterbezahlten Arbeitern im Ausland vorangetrieben werde.<br />
Trotz der wahrscheinlich weitverbreiteten Meinung, dass KI-Software wie ChatGPT von sich aus auf quasi magische Weise funktioniere, ist sehr viel menschliche Arbeit erforderlich, um die Künstliche Intelligenz <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Anmerkung: Bei derlei was von KI zu schwätzen ist wohl eher &quot;Fakenews&quot;]</strong></span></span> davon abzuhalten, unangemessene oder gar illegale Inhalte zu generieren <span style="color:#f00;"><span style="font-size:smaller;"><strong>[Korrekt: aufdecken]</strong></span></span>.<br />
KI-Software ist ein Multimilliardengeschäft <span style="color:#f00;"><span style="font-size:smaller;"><strong>[naja, wohl eher ein Lügengeschäft]</strong></span></span> und könnte ganze Wirtschaftsbranchen auf den Kopf stellen. Erwartungsgemäss liefern sich Unternehmen rund um den Globus einen Wettstreit um die leistungsfähigsten Technologien.<br />
Das Outsourcen von routinemässiger, potenziell traumatisierender Arbeit komme den grossen Techkonzernen in vielerlei Hinsicht zugute, hält «Vice» fest: Die Unternehmen «können Geld sparen, indem sie billige Arbeitskräfte einsetzen, eine strenge Rechtsprechung über Arbeitsbedingungen vermeiden <span style="color:#f00;"><span style="font-size:smaller;"><strong>[äh, reden wir doch mal über strafrechtliche Inhalte?]</strong></span></span> und eine Distanz zwischen ihren ‹innovativen› Werkzeugen und den dahinter stehenden Arbeitern schaffen» <span style="color:#f00;"><span style="font-size:smaller;"><strong>[damit Zeugen für deren kriminelle Machenschaften möglichst weit weg sind]</strong></span></span>.<br />
<strong><br />
Das «Time»-Magazin konstatiert:</strong><br />
<em>«KI ist trotz all ihres Glanzes oft auf versteckte menschliche Arbeit im globalen Süden angewiesen </em><span style="color:#f00;"><span style="font-size:smaller;"><strong>[... was dann wohl kaum KI ist ...]</strong></span></span><em>, die oft schädlich und ausbeuterisch sein kann. Diese unsichtbaren Arbeiter bleiben am Rande, auch wenn ihre Arbeit zu Milliarden-Dollar-Industrien </em><span style="color:#f00;"><span style="font-size:smaller;"><strong>[Klartext: Milliarden-Dollar-Betrügereien]</strong></span></span><em> beiträgt.»</em><br />
Die Führung von OpenAI steht laut Berichten in Verhandlungen mit Investoren, um Gelder in Höhe von 29 Milliarden Dollar zu beschaffen <span style="color:#f00;"><span style="font-size:smaller;"><strong>[korrekt: erschwindeln]</strong></span></span>, einschliesslich einer potenziellen Investition von 10 Milliarden Dollar durch Microsoft. Damit würde OpenAI eines der wertvollsten KI-Unternehmen der Welt. Schon heute ist es unangefochtener Marktführer.</span></p>
<p>Er hatte zwar den Mumm in den Knochen, was gegen das nahezu komplette, äh, &quot;Narrativ&quot; zu verfassen, allerdings fehlte offenbar noch ein kleiner Teil Rückgrat. Für so ebbes hätte ich früher in der Schule eine glatte 6 bekommen. Aber was soll man sagen, in Zeiten, wo bereits jeder 4. Grundschüler beim Eintritt in die Mittelstufe - laut aktueller Studie - nicht mehr lesen und schreiben kann.</p>
]]></content:encoded>
<link>https://wgvdl.com/forum3/index.php?id=127696</link>
<guid>https://wgvdl.com/forum3/index.php?id=127696</guid>
<pubDate>Sun, 16 Jul 2023 18:39:46 +0000</pubDate>
<category>Manipulation</category><dc:creator>Mr.X</dc:creator>
</item>
</channel>
</rss>
