KI kann nicht mal Rechnen und das im doppelten Sinne, seht selbst (Bildung)
Ein sehr interessantes Video: "Der Pate der KI: Ich habe versucht, sie zu warnen, aber wir haben die Kontrolle bereits verloren!"
Video: https://www.youtube.com/watch?v=giT0ytynSqg
Geoffrey Hinton hat mit 65 Jahren eine Arbeitsstelle in der Entwicklung von KI bei Google angenommen und mit 75 Jahren dort aufgehört zu arbeiten. Im Alter von 65 Jahren zu Google, das schafft nur einer der Besten von allen.
Versuch einer Mitschrift daraus:
Die großen Bedenken zur KI-Sicherheit
STEVEN BARTLETT: Wenn wir heute hier sitzen, was sind die größten Bedenken, die Sie in Bezug auf die Sicherheit von KI haben? Wenn wir die wichtigsten aufzählen würden, die uns wirklich am Herzen liegen und über die wir nachdenken sollten, kann ich dann mehr als ein paar nennen?
GEOFFREY HINTON: Schießen Sie los.
STEVEN BARTLETT: Ich schreibe sie auf und wir werden sie einzeln durchgehen.
GEOFFREY HINTON: Okay, zunächst einmal möchte ich zwischen zwei völlig unterschiedlichen Arten von Risiken unterscheiden. Es gibt Risiken, die von Menschen ausgehen, die KI missbrauchen. Das sind die meisten Risiken und alle kurzfristigen Risiken. Und dann gibt es die Risiken, die dadurch entstehen, dass KI super schlau wird und beschließt, dass sie uns nicht braucht.
STEVEN BARTLETT: Ist das ein echtes Risiko?
GEOFFREY HINTON: Ich spreche vor allem über das zweite Risiko, weil viele Leute fragen, ob das wirklich ein Risiko ist. Und ja, das ist es. Wir wissen aber nicht, wie groß das Risiko ist. Wir waren noch nie in einer solchen Situation. Wir hatten es noch nie mit Dingen zu tun, die schlauer sind als wir. Das Problem mit dieser existenziellen Bedrohung ist also, dass wir keine Ahnung haben, wie wir damit umgehen sollen. Wir haben absolut keine Ahnung, wie sie aussehen wird. Und jeder, der behauptet, er wisse, was passieren wird und wie man damit umgehen kann, redet Unsinn. Wir wissen gar nicht, wie wir die Wahrscheinlichkeiten einschätzen können. Es wird uns ersetzen. Manche Leute sagen, es ist weniger als 1 %. Mein Freund Yann LeCun, der mit mir Postdoc war, meint: 'Nein, nein, nein, nein. Das werden wir immer sein. Wenn wir diese Dinge bauen, werden wir immer die Kontrolle haben. Wir werden sie so bauen, dass sie gehorsam sind.' Und andere Leute wie Yudkowsky sagen: 'Nein, nein, nein, diese Dinger werden uns mit Sicherheit auslöschen. Wenn irgendjemand es baut, wird es uns alle auslöschen.' Und er ist sich dessen sicher. Ich denke, beide Positionen sind extrem. Aber es ist sehr schwer, die Wahrscheinlichkeiten dazwischen abzuschätzen.
STEVEN BARTLETT: Wenn Sie wetten müssten, wer von Ihren beiden Freunden recht hat.
GEOFFREY HINTON: Ich weiß es nicht. Wenn ich also wetten müsste, würde ich sagen, dass die Wahrscheinlichkeit dazwischen liegt. Ich weiß nicht, wo ich sie dazwischen ansetzen soll. Ich sage oft: 10 bis 20 % Wahrscheinlichkeit, dass sie uns auslöscht. Aber das ist nur ein Gefühl, das auf der Vorstellung beruht, dass wir sie programmieren. Wir sind ziemlich einfallsreich. Die Hoffnung ist, dass wir einen Weg finden, sie so zu bauen, wenn genügend kluge Leute mit genügend Ressourcen forschen, dass sie uns nicht schaden wollen.
[..]
Cyberangriffe und KI-Betrug
STEVEN BARTLETT: Kommen wir also zu den Risiken. Sie sprachen davon, dass es menschliche Risiken gibt und dann gibt es noch andere.
GEOFFREY HINTON: Ich unterscheide zwischen diesen beiden Arten von Risiken. Lassen Sie uns über alle Risiken sprechen, die von bösen menschlichen Akteuren ausgehen, die KI einsetzen. Da sind die Cyberangriffe. Zwischen 2023 und 2024 stiegen diese um den Faktor 12, also 1.200 %. Und das liegt sicherlich daran, dass diese großen Sprachmodelle es viel einfacher machen, Phishing-Angriffe durchzuführen.
STEVEN BARTLETT: Und ein Phishing-Angriff ist, für alle, die das nicht wissen?
GEOFFREY HINTON: Sie schicken jemandem eine Nachricht, in der steht: 'Hallo, ich bin dein Freund John und sitze in El Salvador fest. Könntest du bitte etwas Geld überweisen?' Das ist eine Art von Angriff. Aber bei den Phishing-Angriffen geht es in Wirklichkeit darum, an die Anmeldedaten zu gelangen.
STEVEN BARTLETT: Und jetzt, mit KI, können sie meine Stimme klonen, mein Bild, sie können all das tun. Ich habe im Moment Probleme und kämpfe damit, dass es einen Haufen KI-Betrügereien auf X und auch auf Meta gibt, auf Meta, also Instagram, Facebook, gibt es im Moment eine, die eine bezahlte Werbung ist, bei der sie meine Stimme aus dem Podcast genommen haben, sie benutzen meine Ausdrucks- und Verhaltensweisen, und haben ein Video von mir gemacht, in dem sie die Leute ermutigen, an diesem Krypto-Ponzi-Betrug oder was auch immer teilzunehmen. Wir haben Wochen und Wochen und Wochen und Wochen und Wochen damit verbracht, E-Mails zu schreiben, Meta zu sagen, bitte nehmt das runter. Sie nehmen es runter, ein weiteres taucht auf, sie nehmen das runter, ein anderes taucht auf. Es ist also, als würde man gegen einen Maulwurf kämpfen.
GEOFFREY HINTON: Und dann sehr lästig.
STEVEN BARTLETT: Der herzzerreißende Teil ist, dass man Nachrichten von Leuten bekommt, die auf den Betrug hereingefallen sind und 500 Dollar oder mehr verloren haben.
GEOFFREY HINTON: 500 Dollar, und sie sind sauer auf Sie, weil Sie es empfohlen haben.
STEVEN BARTLETT: Und ich bin traurig für sie.
GEOFFREY HINTON: Das ist sehr ärgerlich.
STEVEN BARTLETT: Ja.
GEOFFREY HINTON: Ich habe eine kleinere Version davon, nämlich, dass einige Leute jetzt Arbeiten mit mir als einem der Autoren veröffentlichen, und es sieht so aus, als ob das dazu dient, dass sie viele Zitate für sich selbst bekommen können.
STEVEN BARTLETT: Cyberangriffe sind also eine sehr reale Bedrohung. Es gibt bereits eine explosionsartige Zunahme dieser Angriffe.
GEOFFREY HINTON: Offensichtlich ist die KI sehr geduldig, sodass sie 100 Millionen Codezeilen nach bekannten Angriffsmöglichkeiten durchsuchen kann. Das ist leicht zu bewerkstelligen, aber sie werden noch kreativer werden. Und das werden sie, wie einige Leute glauben, ich inklusive. Einige Leute, die viel wissen, glauben, dass sie bis 2030 vielleicht neue Arten von Cyberangriffen entwickeln werden, an die noch nie jemand gedacht hat. Das ist sehr besorgniserregend, weil sie es können.
[..]
Durch KI erstellte biologische Waffen
STEVEN BARTLETT: Okay?
GEOFFREY HINTON: Das wahre Problem dabei ist, dass es dazu nur einen Verrückten mit etwas Groll braucht. Ein Kerl, der ein wenig von Molekularbiologie versteht, eine Menge über KI weiß und einfach die Welt zerstören will. Mithilfe von KI kann man jetzt relativ einfach und billig neue Viren erschaffen, man muss nicht einmal ein besonders geschickter Molekularbiologe sein, um das zu tun. Genau das ist sehr beängstigend. So könnte jemand zum Beispiel eine kleine Sekte gründen. Eine kleine Sekte kann vielleicht ein paar Millionen Dollar aufbringen. Für ein paar Millionen Dollar können sie dann ein ganzes Bündel von Viren entwickeln.
STEVEN BARTLETT: Nun, ich denke da an einige unserer ausländischen Gegner, die staatlich finanzierte Programme durchführen. Ich meine, es wird viel über Covid und das Wuhan-Laboratorium geredet und darüber, was sie gemacht haben mit ihrer Funktions-Gewinn-Forschung. Also ich frage mich, ob die Regierung in China, Russland, dem Iran oder anderen Ländern ein Programm für eine kleine Gruppe von Wissenschaftlern finanzieren könnte, um ein Virus zu entwickeln, das sie herstellen.
GEOFFREY HINTON: Wissen Sie, ich denke, das können sie, in jedem Fall. Sie müssten sich aber Sorgen über Vergeltungsmaßnahmen machen. Sie müssten sich Sorgen machen, dass andere Regierungen das Gleiche mit ihnen machen können. Das dürfte hoffentlich dabei helfen, es unter Kontrolle zu halten. Sie könnten sich auch Sorgen machen, dass sich das Virus in ihrem eigenen Land ausbreitet.
[..]
Tödliche autonome Waffen
STEVEN BARTLETT: Das war also der nächste Punkt, nämlich dass die Algorithmen uns weiter in unsere Echokammern treiben werden. Richtig, was kommt als Nächstes?
GEOFFREY HINTON: Tödliche autonome Waffen. Tödliche autonome Waffen, das heißt Dinge, die einen töten können und selbst entscheiden, ob sie einen töten wollen.
STEVEN BARTLETT: Das ist wohl der große Traum des militärisch-industriellen Komplexes, solche Waffen zu entwickeln.
Der militärisch-industrielle Komplex und autonome Waffen
GEOFFREY HINTON: Das Schlimmste an ihnen ist, dass große, mächtige Länder immer in der Lage sind, in kleinere, ärmere Länder einzufallen, sie sind einfach mächtiger. Aber wenn man das mit echten Soldaten macht, kommen die Leichen in Säcken zurück, und das gefällt den Angehörigen der getöteten Soldaten nicht. Wenn man also etwas in Vietnam macht, gibt es am Ende eine Menge Proteste in der Heimat. Wenn statt der Leichen in Säcken tote Roboter zurückkämen, gäbe es viel weniger Proteste, und dem militärisch-industriellen Komplex würde das viel besser gefallen, denn Roboter sind teuer. Und wenn man etwas hätte, das getötet werden könnte und nicht teuer zu ersetzen wäre, wäre das einfach großartig, denn große Länder können viel leichter in kleine Länder einmarschieren, weil ihre Soldaten nicht getötet werden.
STEVEN BARTLETT: Aber das Risiko besteht darin, dass diese Roboter eine Fehlfunktion haben oder dass sie einfach nicht funktionieren.
GEOFFREY HINTON: Nein, nein, das ist es. Selbst wenn die Roboter genau das tun, was die Leute, die sie gebaut haben, wollen, besteht das Risiko darin, dass große Länder immer öfter in kleine Länder einmarschieren.
STEVEN BARTLETT: Weil sie es können.
GEOFFREY HINTON: Ja. Und das ist keine nette Sache, die man tun sollte. Es senkt also die Reibungspunkte des Krieges. Es senkt die Kosten für eine Invasion.
STEVEN BARTLETT: Diese Maschinen werden auch in der Kriegsführung intelligenter sein.
GEOFFREY HINTON: Nun, selbst wenn die Maschinen nicht intelligenter sind. Die tödlichen autonomen Waffen können sie schon jetzt herstellen. Und ich glaube, alle großen Verteidigungsministerien sind damit beschäftigt, sie herzustellen. Selbst wenn sie nicht schlauer sind als Menschen, sind sie immer noch sehr gefährlich und beängstigend.
STEVEN BARTLETT: Ich denke nämlich, dass sie einfach ein Bild zeigen könnten. Schnappt euch den Kerl.
GEOFFREY HINTON: Ja.
STEVEN BARTLETT: Und schalten Sie jeden aus, dem er eine SMS geschickt hat, mit dieser kleinen Wespe.
GEOFFREY HINTON: Vor zwei Tagen besuchte ich einen Freund in Sussex, der eine Drohne hat, die weniger als 200 Pfund kostet, und die Drohne stieg auf. Sie beobachtete mich, und dann folgte sie mir durch den Wald, sie folgte mir auf Schritt und Tritt. Es war sehr unheimlich, diese Drohne hinter mir zu haben. Sie war etwa zwei Meter hinter mir. Sie hat mich dauernd beobachtet. Wenn ich mich woanders hinbewegte, sie konnte mich einfach verfolgen. Also es war schon ziemlich unheimlich.
// Zitat Ende
gesamter Thread:
- KI kann nicht mal Rechnen und das im doppelten Sinne, seht selbst -
Marvin,
26.06.2025, 22:15
- KI kann nicht mal Rechnen und das im doppelten Sinne, seht selbst - b.e.richter, 28.06.2025, 09:45