Wenn der Mensch zur MenschIn wird - oder:

Wieviel »Gleichberechtigung« verträgt das Land?

How much »equality« the country can stand?

Homepage - Archiv 1 - Archiv 2 -- Hilfe - Regeln für dieses Forum - Kontakt - Über uns

129254 Einträge in 32051 Threads, 293 registrierte Benutzer, 506 Benutzer online (0 registrierte, 506 Gäste)

Entweder bist Du ein aktiver Teil der Lösung, oder ein Teil des Problems.
Es gibt keine unbeteiligten Zuschauer!

    WikiMANNia
    Femokratieblog

Ach so, die sogenannte "KI" aka "ChatGPT" is' nix anderes als eine Wikiprawda für besonders hirnamputierte Vollhonks (Manipulation)

Mr.X, Sunday, 16.07.2023, 20:39 (vor 496 Tagen)
bearbeitet von Mr.X, Sunday, 16.07.2023, 20:53

Neulich noch beim DLF eine Kurzsendung - zur schlechtesten Sendezeit - dazu gehört, wie die armen Nächers wieder ausgebeutet werden (gebt ihnen Benin-Bronzen). Naja, damit ist wieder ein weiteres Mosaiksteinchen zusammengefügt: EINE SOGENANNTE "KI" IST SCHWACHSINN (kann der Mr.X schriftlich geben)!

Text nicht aus dem DLF (Anmerkungen in eckigen Klammern):
[angegebene Daten:] 19.01.2023, 20:21 24.03.2023, 15:40
Das dreckige Geheimnis von OpenAI – gehypte KI basiert auf menschlichen Schmutz-Filtern
Daniel Schurter

OpenAI, das US-Unternehmen hinter ChatGPT, hat kenianischen Arbeitern weniger als 2 US-Dollar pro Stunde bezahlt, um höchst problematische Inhalte zu beurteilen [Klartext: Zensur]. Dies zeigt eine am Mittwoch veröffentlichte Recherche des renommierten «Time»-Nachrichtenmagazins.
Trotz ihrer wesentlichen Rolle [... aha, "wesentlichen Rolle"/ Aufgabe der sogenannten "KI" erledigt der Neger] beim Aufbau des KI-Chatbots seien die Bildschirmarbeiter mit zermürbenden Bedingungen und niedrigen Löhnen konfrontiert gewesen.
Die Billiglöhner wurden als sogenannte «Datenetikettierer» [Klartext: Zensur-Huren] eingesetzt. Das heisst, sie hatten Zehntausende von problematischen Textzeilen zu filtern [Klartext: ... die Wahrheit wegdrücken ...], um den KI-Chatbot für die öffentliche Nutzung sicher zu machen [Klartext: Infos, derart kriminell, daß sie in "West-Ländern" auf dem Bearbeiter-Laptop zum, äh, klicken der Acht führen würden].
Dabei seien sie mit Schilderungen von sexuellem Kindesmissbrauch, Zoophilie, Tötungen, Suizid, Folter, Selbstverletzung und Inzest konfrontiert worden, so der Bericht [... offenbar die Realität, die weder eine angebliche "KI", noch deren User kennen darf].
Die Problematik erinnert an die fragwürdigen Arbeitsbedingungen von Inhalte-Moderatoren [Klartext: Zensoren], die im Auftrag grosser Social-Media-Plattformen [... sprich Regime-Plattformen] wie Facebook tätig sind.

Wie konnte das passieren?

ChatGPT war nicht immer so eloquent, wie das Online-Medium «Vice» schreibt [Korrektur: ... lügt ...]. Tatsächlich ist seit dem Start der öffentlichen Testphase im November 2022 ein eigentlicher Hype um das sprachliche Können des KI-Chatbots entstanden [Korrektur: ... wurde (aktiv!) vom Regime auf allen Poropaganda-Kanälen inszeniert].
Die Vorgänger-Software, die auf einem Sprachenmodell namens GPT-3 basiert, habe noch oft sexistische, gewalttätige und rassistische Texte produziert [Korrektur: ... Wahrheit wiedergegeben]. Dies, weil das Modell auf einem Datensatz trainiert [soso, "trainiert", wohl eher programmiert] wurde, der aus Milliarden von Webseiten extrahiert wurde. Sprich: Die KI verinnerlichte von menschlichen Verfassern alle möglichen Textinhalte [also die "Wahrheit"].
Bevor die Verantwortlichen ChatGPT starten konnten, suchten sie nach einer Lösung, um schnell die gesamte toxische Sprache [soso, regimekritisch = "toxisch" (giftig) oder wie?] aus dem riesigen Datensatz herauszufiltern.
Dafür habe sich OpenAI mit dem Datenkennzeichnungs-Unternehmen Sama [... wohl so was wie ein "FaktenFuchs"] in San Francisco zusammengetan. Das Unternehmen verspricht, in Entwicklungsländern lebenden Menschen «ethische» und «würdige digitale Arbeit» zu bieten [Inhalte wohl zu kriminell und wahrheitsgetreu - sogar für San Francisco - deswegen ab nach Afrika!]. Beim OpenAI-Auftrag ging es darum, toxische ["toxisch" = giftig] Inhalte zu erkennen und zu kennzeichnen [Klartext: zensieren/ entfernen], die dann als Daten in ein Filtertool [Korrektur: Zensur-/Löschwerkzeug] für ChatGPT eingespeist werden konnten.
Sama [Korrekt: der Negersklaventreiber] rekrutierte dazu in Kenia die Datenetikettierer [Zensur-Huren], die eine wesentliche [da ist es wieder: "wesentlich" ist es der moderne Neger-Sklave die ...] Rolle dabei spielen sollten, den KI-Chatbot für die öffentliche Nutzung ["öffentliche Nutzung" = Filterblase des hirnamputierten Vollhonk] sicher [korrekt wäre hier "aalglatt" gewesen] zu machen.
Das Unternehmen bezahlt auch Mitarbeiter in Uganda und Indien, um grosse Datenmengen für Silicon-Valley-Kunden wie Google, Meta und Microsoft zu kennzeichnen [na dann weiß man ja nun, warum bei Google keine Ergebnisse mehr zu entsprechenden Themen auftauchen].

Was sagt OpenAI dazu?

Ein Unternehmenssprecher erklärte:
«Unsere Mission ist es, sicherzustellen, dass die gesamte Menschheit von künstlicher allgemeiner Intelligenz [Wahrheit: ... einem neuen Sprachrohr des Regimes ...] profitiert [Korrekt: zwecks optimaler Ausbeutung verblödet wird], und wir arbeiten hart daran, sichere und nützliche KI-Systeme [Anmerkung: Vorderstes Ziel einer vermeintlichen "KI" wäre es, den Mensch aufgrund KI-eigener Sicherheit auszulöschen - von daher betrachtet, ist eine KI in etwa so sinnlos, wie dem Papst seine Eier] zu entwickeln, die Vorurteile und schädliche ["schädlich" für wen?] Inhalte begrenzen.
Das Klassifizieren und Filtern schädlicher [Texte und Bilder] ist ein notwendiger Schritt, um die Menge an gewalttätigen und sexuellen Inhalten, die in Trainingsdaten enthalten sind, zu minimieren und Tools zu erstellen, die schädliche Inhalte erkennen können
[Hörthört! Die behaupten, es sei ein "notwendiger Schritt", die Wahrheit wegzudrücken!]
quelle: time.com

Weiter hiess es, die Mitarbeiter hätten Anspruch auf Einzel- und Gruppensitzungen mit «professionell ausgebildeten und lizenzierten Therapeuten für psychische Gesundheit» [soso, dann wissen die also ganz genau, was "der Pöbel" nicht erfahren darf].
Übrigens kündigte Sama seine Arbeit für OpenAI im Februar 2022, acht Monate vor dem vertraglich vereinbarten Termin [taktisch? Hatte denen wohl einer die folgende Recherche gesteckt:...]. Im gleichen Monat veröffentlichte das «Time»-Magazin einen kritischen Artikel über Samas Arbeit mit dem Meta-Konzern von Mark Zuckerberg. Darin geht es um Inhalte-Moderatoren, die traumatisiert wurden, nachdem sie Bilder und Videos von Hinrichtungen, Vergewaltigungen und Kindesmissbrauch für 1,50 Dollar pro Stunde angesehen hatten.
Laut «Time» ist nicht klar, ob OpenAI auch mit anderen Datenkennzeichnungsfirmen kooperiert hat. Das amerikanische KI-Unternehmen hält sich diesbezüglich bedeckt [Ein Schelm, wer böses dabei denkt!].

Was lernen wir daraus?

Das zum «Vice»-Medienkonzern gehörende Online-Medium Motherboard hatte im vergangenen Dezember kritisch berichtet, dass die viel gepriesene KI-Innovation von unterbezahlten Arbeitern im Ausland vorangetrieben werde.
Trotz der wahrscheinlich weitverbreiteten Meinung, dass KI-Software wie ChatGPT von sich aus auf quasi magische Weise funktioniere, ist sehr viel menschliche Arbeit erforderlich, um die Künstliche Intelligenz [Anmerkung: Bei derlei was von KI zu schwätzen ist wohl eher "Fakenews"] davon abzuhalten, unangemessene oder gar illegale Inhalte zu generieren [Korrekt: aufdecken].
KI-Software ist ein Multimilliardengeschäft [naja, wohl eher ein Lügengeschäft] und könnte ganze Wirtschaftsbranchen auf den Kopf stellen. Erwartungsgemäss liefern sich Unternehmen rund um den Globus einen Wettstreit um die leistungsfähigsten Technologien.
Das Outsourcen von routinemässiger, potenziell traumatisierender Arbeit komme den grossen Techkonzernen in vielerlei Hinsicht zugute, hält «Vice» fest: Die Unternehmen «können Geld sparen, indem sie billige Arbeitskräfte einsetzen, eine strenge Rechtsprechung über Arbeitsbedingungen vermeiden [äh, reden wir doch mal über strafrechtliche Inhalte?] und eine Distanz zwischen ihren ‹innovativen› Werkzeugen und den dahinter stehenden Arbeitern schaffen» [damit Zeugen für deren kriminelle Machenschaften möglichst weit weg sind].

Das «Time»-Magazin konstatiert:

«KI ist trotz all ihres Glanzes oft auf versteckte menschliche Arbeit im globalen Süden angewiesen [... was dann wohl kaum KI ist ...], die oft schädlich und ausbeuterisch sein kann. Diese unsichtbaren Arbeiter bleiben am Rande, auch wenn ihre Arbeit zu Milliarden-Dollar-Industrien [Klartext: Milliarden-Dollar-Betrügereien] beiträgt.»
Die Führung von OpenAI steht laut Berichten in Verhandlungen mit Investoren, um Gelder in Höhe von 29 Milliarden Dollar zu beschaffen [korrekt: erschwindeln], einschliesslich einer potenziellen Investition von 10 Milliarden Dollar durch Microsoft. Damit würde OpenAI eines der wertvollsten KI-Unternehmen der Welt. Schon heute ist es unangefochtener Marktführer.

Er hatte zwar den Mumm in den Knochen, was gegen das nahezu komplette, äh, "Narrativ" zu verfassen, allerdings fehlte offenbar noch ein kleiner Teil Rückgrat. Für so ebbes hätte ich früher in der Schule eine glatte 6 bekommen. Aber was soll man sagen, in Zeiten, wo bereits jeder 4. Grundschüler beim Eintritt in die Mittelstufe - laut aktueller Studie - nicht mehr lesen und schreiben kann.


gesamter Thread:

 RSS-Feed dieser Diskussion

powered by my little forum